記一次和Tomcat有關的Too many open files錯誤
前言
最近在公司開發推送系統相關的專案,需要在單臺Linux伺服器上支援幾十萬到上百萬的連線,為此,修改了作業系統的檔案描述符上限。
相關修改操作可參考:
修改並重啟後使用ulimit -a檢視發現open-file變大。之後,使用netty簡單構建一個服務端demo,經測試證明該demo能夠支援多於1024個連線(系統初始open-file為1024),修改有效。
但將應用打成war包通過tomcat啟動後,最多隻能支援略多於5000個連線,檢視/proc/${pid}/limits檔案,發現檔案描述符上限為5000,並未隨著系統設定而改變,同時其它JVM程序的檔案描述符上限更改已經生效。
網路上眾多參考文章沒有給出相關的答案,後來google到了這麼一篇,明天試試,希望有用:
大意是與守護程序有關,需要採用一些work-around的方法。
具體操作:
1.通過程序pid找到對應的使用者名稱,例如tomcat
2.在/etc/security/limits.d下找到對應使用者名稱conf檔案,修改檔案描述符大小
3.重啟應用,驗證生效
相關推薦
記一次和Tomcat有關的Too many open files錯誤
前言 最近在公司開發推送系統相關的專案,需要在單臺Linux伺服器上支援幾十萬到上百萬的連線,為此,修改了作業系統的檔案描述符上限。 相關修改操作可參考: 修改並重啟後使用ulimit -a檢視發現open-file變大。之後,使用netty簡單構建一個服務端demo
linux下tomcat之too many open files
設置 inux roc spa ava linux 執行 java 使用命令 一、問題表象: 程序日誌報錯:java.io.IOException: Too many open files at 二、解決方案: 1、查看系統允許打開的最大文件數: ca
【Linux】解決tomcat出現Too many open files(開啟的檔案過多)問題
當用linux做高併發伺服器時,會遇到"Too many open files"的錯誤。Linux是有檔案控制代碼限制的(open files),而且Linux預設不是很高,一般都是1024,做高併發生產伺服器用其實很容易就達到這個數量。在linux中執行ulimit -a
too many open files錯誤
一個 google pid .json 斷開連接 ret 服務 spi end 雖然一直在Linux下開發服務,但是說實話,Linux的東西我基本不懂。這次這個問題的解決,讓我稍微知道一些東西了。 大家都知道,最近我模仿binux大嬸的pyspider的害羞組在線上跑了一
scrapy遇到Couldn't bind: 24: Too many open files.錯誤的解決
編輯 所有 解決 socket 回收 系統 int 探測 句柄 現象為爬蟲日誌報出Couldn‘t bind: 24: Too many open files.錯誤,netstat -natep | grep 代理端口 或爬蟲進程ID,有大量ESTABLISHED的連接。
在liunx下經常出現java.net.SocketException: Too many open files錯誤是什麼原因
釋出在Tomcat+linux伺服器上的專案經常報”java.net.SocketException: Too many open files"的錯誤,根據錯誤分析如下 : Linux 系統預設的open files的設定是1024 通過 ulimit -a進行檢視。 core file size
記一次與Shiro有關的錯誤,404導致session丟失需要重新登入
一 問題描述 前段時間上司突然叫我幫忙解決老專案上的一個bug,出現的問題是不同使用者賬號,進入同一個頁面,有個別用戶重新整理一下當前頁面就會重定向到登入頁面,需要重新登入。 這是一個幾年前的一個專案,使用的是Srping + Spring MVC + Shiro + Jsp的專案,之前沒用過Shiro,
記一次伺服器Tomcat優化經歷
公司需要一臺測試伺服器來做測試用,所以花了點時間把服務全部部署好,在部署好war包之後,發現Tomcat訪問超級慢。 1、進入Tomcat的bin目錄下,執行 ./catalina.sh run命令,在前臺列印執行資訊,首先看其有沒有報錯。好,沒有報錯,進行下一步。 1)修改你的jdk目錄下/
記一次解決tomcat自動關閉的bug
最近一個運行了4年的javaee web專案,經常接到客戶反饋系統無法開啟。登入伺服器檢視服務,發現是tomcat自動關閉了。基本是3到4天發生一次。 運維人員開始以為是其他服務殺死了tomcat服務,沒放在心上,解決方法就是直接重啟tomcat。 最終捅了簍子,運維人員被客戶投訴,扣了一個月的績效。 解決這
解決tomcat too many open files問題
限制 spa 8.0 .com nofile tom files 環境 內容 運行環境為 centos7.2 tomcat 為 tomcat 8.0.39.0 ulimit -a ulimit -n 解決的都是 系統的問題 tomcat 報too many
記一次解決layui 的bug - layer.open 與 layui渲染問題
style template con 一個表 one play display 方法 hid 場景是這樣的,通過layer打開一個彈窗,裏面放置一個表單,表單是用layui來渲染的。 當彈窗完成之後,我需要渲染表單中的一些內容、譬如laydate。 layer.open(
記一次the account is locked數據庫錯誤
-a art ont scott ora user 文件中 use 配置 the account is locked錯誤(oracle) 1、原因:配置文件中的數據庫鏈接密碼設置錯誤,導致多次訪問數據庫之後,數據庫用戶鎖死。 2、用system用戶登錄後執行“alter u
記一次微信退款失敗curl出現58錯誤的經歷
微信退款,一開始是好的,但由於業務需要實現多商戶號的收款和退款, 故在商戶端後臺上傳證書和私鑰的pem檔案傳到oss上,退款時下載到本地使用實現支付,curl一直出現58的錯誤, 網上的解決方法都是路徑使用絕對路徑或者在微信商戶號管理裡進行更改證書, 檢查路徑發現沒錯,更改證書也改了,
Tomcat啟動時報開啟的檔案過多(Too many open files)
現在是北京時間20:30,本來5點就可以下班的,正常情況是4點下班。一直在修改緊急BUG。在最終要完成終於可以鬆一口氣的時候,釋出程式Tomcat突然拋了一個開啟的檔案過多,由於經驗淺薄,頓時就懵逼了。在解決問題後,決定寫下這篇部落格,記錄解決問題的經過。 日誌如下:
【效能優化】tomcat & Redis 優化:關於 too many open files error
背景說明: 使用Jmeter 進行壓力測試,同時在linux環境下使用“lsof -p 4154 | wc -l”檢視io訪問量。 進行壓力測試時發現io訪問量在4500左右,伺服器redis報錯,錯誤資訊too many open files error。原
記一次impdp匯入資料時的ORA-31696錯誤
今天幫一同事從一個dump檔案中匯入資料到測試庫中,結果死活出現ORA-31696的錯誤: [[email protected]]$ impdp pebank/pebank directory=dumpdir dumpfile=mcj123.1011.dmp
Linux下tomcat報錯“java.net.SocketException: Too many open files”--MINA2 錯誤解決
轉載: 因為這個問題,我也是經過三次修改後,才徹底解決該問題。我是遇到了錯誤資訊:“Too many open files”和“No buffer space availabel”,從我的專案上看,兩個問題都是因為使用MINA2時,有些資源沒有關閉造成的。但是出現“To
測並發 Too many open files 問題的解決
ref get http sign pro light 程序 sched pen ulimit -a 查看限制顯示: core file size (blocks, -c) 0 data seg size (kbytes, -d) u
Linux server上too many open files問題
server bsp one 當前 java程序 clas gre work -h 之前測試遇到了"too many open files"的問題。ulimit -Hn 查了下發現server上最大open file數是4096。寫了個簡單的腳本檢測發現進程創建的fd個數在
too many open files linux服務器 golang java
add -m 使用 san awk margin 1.0 占用 sim 1. 現象服務的cpu跑滿(golang實現), 並大量報too many open files錯誤.服務使用systemd來運行,部署在阿裏ecs上.2.分析從日誌來看,cpu的上升主要為到達文件數限