linux中高并發(fā)socket最大連接數(shù)的優(yōu)化詳解
首先我們可以通過ulimit –a
命令來查看系統(tǒng)的一些資源限制情況,如下:
# ulimit -a core file size (blocks, -c) 1024 data seg size (kbytes, -d) unlimited scheduling priority (-e) 0 file size (blocks, -f) unlimited pending signals (-i) 127422 max locked memory (kbytes, -l) 64 max memory size (kbytes, -m) unlimited open files (-n) 20480 pipe size (512 bytes, -p) 8 POSIX message queues (bytes, -q) 819200 real-time priority (-r) 0 stack size (kbytes, -s) unlimited cpu time (seconds, -t) unlimited max user processes (-u) 81920 virtual memory (kbytes, -v) unlimited file locks (-x) unlimited
這里重點關(guān)注open files
和max user processes
。分別表示:單個進程打開的最大文件數(shù);系統(tǒng)可以申請最大的進程數(shù)。
1、查看、修改文件數(shù)(當前session有效):
# ulimit -n 20480 # ulimit -n 20480
2、查看、修改進程數(shù)(當前session有效):
# ulimit -u 81920 # ulimit -u 81920
3、永久設(shè)置文件數(shù)、最大進程:
- 可以編輯
# vim /etc/security/limits.conf
在其中指定最大設(shè)置; - 或者在
/etc/profile
文件指定;
一、最大進程數(shù):
最近在Linux服務(wù)器上發(fā)布應(yīng)用時碰到一個如下的異常:
Caused by: java.lang.OutOfMemoryError: unable to create new native thread at java.lang.Thread.start0(Native Method) at java.lang.Thread.start(Thread.java:640)
初看可能會認為是系統(tǒng)的內(nèi)存不足,如果這樣想的話就被這段提示帶到溝里面去了。上面這段錯誤提示的本質(zhì)是Linux操作系統(tǒng)無法創(chuàng)建更多進程,導(dǎo)致出錯。因此要解決這個問題需要修改Linux允許創(chuàng)建更多的進程。
1、臨時設(shè)置:
我們可以使用 ulimit -u 81920
修改max user processes
的值,但是只能在當前終端的這個session里面生效,重新登錄后仍然是使用系統(tǒng)默認值。
2、永久設(shè)置:
1)編輯# vim /etc/security/limits.conf
在文件中添加如下內(nèi)容:
- soft nproc 81920
- hard nproc 81920
注: *表示所有用戶,soft、hard表示軟限制、硬限制。(軟限制<=硬限制)
2)或者在/etc/profile文件中添加:
ulimit -u 81920
這樣每次用戶登錄就可以設(shè)置最大進程數(shù)。
二、最大打開文件數(shù):
最大文件打開數(shù)在Linux平臺上,無論編寫客戶端程序還是服務(wù)端程序,在進行高并發(fā)TCP連接處理時,最高的并發(fā)數(shù)量都要受到系統(tǒng)對用戶單一進程同時可打開文件數(shù)量的限制(這是因為系統(tǒng)為每個TCP連接都要創(chuàng)建一個socket句柄,每個socket句柄同時也是一個文件句柄)。
1、查看最大打開文件數(shù):
$ ulimit -n 1024
這表示當前用戶的每個進程最多允許同時打開1024個文件,這1024個文件中還得除去每個進程必然打開的標準輸入,標準輸出,標準錯誤,服務(wù)器監(jiān)聽 socket,進程間通訊的unix域socket等文件,那么剩下的可用于客戶端socket連接的文件數(shù)就只有大概1024-10=1014個左右。也就是說缺省情況下,基于Linux的通訊程序最多允許同時1014個TCP并發(fā)連接。
對于想支持更高數(shù)量的TCP并發(fā)連接的通訊處理程序,就必須修改Linux對當前用戶的進程同時打開的文件數(shù)量的軟限制(soft limit)和硬限制(hardlimit)。其中:
- 軟限制是指Linux在當前系統(tǒng)能夠承受的范圍內(nèi)進一步限制用戶同時打開的文件數(shù);
- 硬限制則是根據(jù)系統(tǒng)硬件資源狀況(主要是系統(tǒng)內(nèi)存)計算出來的系統(tǒng)最多可同時打開的文件數(shù)量。通常軟限制小于或等于硬限制。
2、修改最大打開文件數(shù):
[speng@as4 ~]$ ulimit -n 10240
上述命令中,臨時設(shè)置的單一進程允許打開的最大文件數(shù)(當前session有效)。 如果系統(tǒng)回顯類似于“Operation notpermitted”之類的話,說明上述限制修改失敗,實際上是因為在中指定的數(shù)值超過了Linux系統(tǒng)對該用戶打開文件數(shù)的軟限制或硬限制。因此,就需要修改Linux系統(tǒng)對用戶的關(guān)于打開文件數(shù)的軟限制和硬限制。
1)首先,修改/etc/security/limits.conf文件,在文件中添加如下行:
speng soft nofile 10240 speng hard nofile 10240
其中speng指定了要修改哪個用戶的打開文件數(shù)限制,可用'*'號表示修改所有用戶的限制;soft或hard指定要修改軟限制還是硬限制;10240則指定了想要修改的新的限制值,即最大打開文件數(shù)(請注意軟限制值要小于或等于硬限制)。修改完后保存文件。
2)其次,修改/etc/pam.d/login文件,在文件中添加如下行:
session required /lib/security/pam_limits.so
這是告訴Linux在用戶完成系統(tǒng)登錄后,應(yīng)該調(diào)用pam_limits.so模塊來設(shè)置系統(tǒng)對該用戶可使用的各種資源數(shù)量的最大限制(包括用戶可打開的最大文件數(shù)限制),而pam_limits.so模塊就會從/etc/security/limits.conf文件中讀取配置來設(shè)置這些限制值。修改完后保存此文件。
3)第三步,查看Linux系統(tǒng)級的最大打開文件數(shù)限制(硬限制),使用如下命令:
[speng@as4 ~]$ cat /proc/sys/fs/file-max 12158
這表明這臺Linux系統(tǒng)最多允許同時打開(即包含所有用戶打開文件數(shù)總和)12158個文件,是Linux系統(tǒng)級硬限制,所有用戶級的打開文件數(shù)限制都不應(yīng)超過這個數(shù)值。通常這個系統(tǒng)級硬限制是Linux系統(tǒng)在啟動時根據(jù)系統(tǒng)硬件資源狀況計算出來的最佳的最大同時打開文件數(shù)限制,如果沒有特殊需要,不應(yīng)該修改此限制,除非想為用戶級打開文件數(shù)限制設(shè)置超過此限制的值。修改此硬限制的方法是修改/etc/rc.local腳本,在腳本中添加如下行:
echo 22158 > /proc/sys/fs/file-max
這是讓Linux在啟動完成后強行將系統(tǒng)級打開文件數(shù)硬限制設(shè)置為22158。修改完后保存此文件。
完成上述步驟后重啟系統(tǒng),一般情況下就可以將Linux系統(tǒng)對指定用戶的單一進程允許同時打開的最大文件數(shù)限制設(shè)為指定的數(shù)值。如果重啟后用 ulimit-n
命令查看用戶可打開文件數(shù)限制仍然低于上述步驟中設(shè)置的最大值,這可能是因為在用戶登錄腳本/etc/profile中使用ulimit -n命令已經(jīng)將用戶可同時打開的文件數(shù)做了限制。由于通過ulimit-n
修改系統(tǒng)對用戶可同時打開文件的最大數(shù)限制時,新修改的值只能小于或等于上次 ulimit-n
設(shè)置的值,因此想用此命令增大這個限制值是不可能的。所以,如果有上述問題存在,就只能去打開/etc/profile腳本文件,在文件中查找是否使用了ulimit-n
限制了用戶可同時打開的最大文件數(shù)量,如果找到,則刪除這行命令,或者將其設(shè)置的值改為合適的值,然后保存文件,用戶退出并重新登錄系統(tǒng)即可。
通過上述步驟,就為支持高并發(fā)TCP連接處理的通訊處理程序解除關(guān)于打開文件數(shù)量方面的系統(tǒng)限制。
三、網(wǎng)絡(luò)內(nèi)核對TCP連接的顯示:
1、修改網(wǎng)絡(luò)內(nèi)核對TCP連接的本地端口范圍限制:
在Linux上編寫支持高并發(fā)TCP連接的客戶端通訊處理程序時,有時會發(fā)現(xiàn)盡管已經(jīng)解除了系統(tǒng)對用戶同時打開文件數(shù)的限制,但仍會出現(xiàn)并發(fā)TCP連接數(shù)增加到一定數(shù)量時,再也無法成功建立新的TCP連接的現(xiàn)象。出現(xiàn)這種現(xiàn)在的原因有多種。第一種原因可能是因為Linux網(wǎng)絡(luò)內(nèi)核對本地端口號范圍有限制。此時,進一步分析為什么無法建立TCP連接,會發(fā)現(xiàn)問題出在connect()
調(diào)用返回失敗,查看系統(tǒng)錯誤提示消息是“Can't assign requestedaddress”。同時,如果在此時用tcpdump工具監(jiān)視網(wǎng)絡(luò),會發(fā)現(xiàn)根本沒有TCP連接時客戶端發(fā)SYN包的網(wǎng)絡(luò)流量。這些情況說明問題在于本地Linux系統(tǒng)內(nèi)核中有限制。其實,問題的根本原因在于Linux內(nèi)核的TCP/ip協(xié)議實現(xiàn)模塊對系統(tǒng)中所有的客戶端TCP連接對應(yīng)的本地端口號的范圍進行了限制(例如,內(nèi)核限制本地端口號的范圍為1024~32768之間)。
當系統(tǒng)中某一時刻同時存在太多的TCP客戶端連接時,由于每個TCP客戶端連接都要占用一個唯一的本地端口號(此端口號在系統(tǒng)的本地端口號范圍限制中),如果現(xiàn)有的TCP客戶端連接已將所有的本地端口號占滿,則此時就無法為新的TCP客戶端連接分配一個本地端口號了,因此系統(tǒng)會在這種情況下在connect()
調(diào)用中返回失敗,并將錯誤提示消息設(shè)為“Can't assignrequested address”。內(nèi)核編譯時默認設(shè)置的本地端口號范圍可能太小,因此需要修改此本地端口范圍限制。
1)第一步,修改/etc/sysctl.conf文件,在文件中添加如下行:
net.ipv4.ip_local_port_range = 1024 65000
這表明將系統(tǒng)對本地端口范圍限制設(shè)置為1024~65000之間。請注意,本地端口范圍的最小值必須大于或等于1024;而端口范圍的最大值則應(yīng)小于或等于65535。修改完后保存此文件。
2)第二步,執(zhí)行sysctl命令:
[speng@as4 ~]$ sysctl -p
如果系統(tǒng)沒有錯誤提示,就表明新的本地端口范圍設(shè)置成功。如果按上述端口范圍進行設(shè)置,則理論上單獨一個進程最多可以同時建立60000多個TCP客戶端連接。
2、修改網(wǎng)絡(luò)內(nèi)核IP_TABLE防火墻對最大跟蹤的TCP連接數(shù)限制:
修改了最大文件打開數(shù),但仍會出現(xiàn)并發(fā)TCP連接數(shù)增加到一定數(shù)量時,再也無法成功建立新的TCP連接的現(xiàn)象。第二種無法建立TCP連接的原因可能是因為Linux網(wǎng)絡(luò)內(nèi)核的IP_TABLE防火墻對最大跟蹤的TCP連接數(shù)有限制。此時程序會表現(xiàn)為在 connect()調(diào)用中阻塞,如同死機,如果用tcpdump工具監(jiān)視網(wǎng)絡(luò),也會發(fā)現(xiàn)根本沒有TCP連接時客戶端發(fā)SYN包的網(wǎng)絡(luò)流量。由于 IP_TABLE防火墻在內(nèi)核中會對每個TCP連接的狀態(tài)進行跟蹤,跟蹤信息將會放在位于內(nèi)核內(nèi)存中的conntrackdatabase中,這個數(shù)據(jù)庫的大小有限,當系統(tǒng)中存在過多的TCP連接時,數(shù)據(jù)庫容量不足,IP_TABLE無法為新的TCP連接建立跟蹤信息,于是表現(xiàn)為在connect()調(diào)用中阻塞。此時就必須修改內(nèi)核對最大跟蹤的TCP連接數(shù)的限制,方法同修改內(nèi)核對本地端口號范圍的限制是類似的:
1)第一步,修改/etc/sysctl.conf文件,在文件中添加如下行:
net.ipv4.ip_conntrack_max = 10240
這表明將系統(tǒng)對最大跟蹤的TCP連接數(shù)限制設(shè)置為10240。請注意,此限制值要盡量小,以節(jié)省對內(nèi)核內(nèi)存的占用。
2)第二步,執(zhí)行sysctl
命令:
[speng@as4 ~]$ sysctl -p
如果系統(tǒng)沒有錯誤提示,就表明系統(tǒng)對新的最大跟蹤的TCP連接數(shù)限制修改成功。如果按上述參數(shù)進行設(shè)置,則理論上單獨一個進程最多可以同時建立10000多個TCP客戶端連接。
【補充】優(yōu)化好的內(nèi)核參數(shù)sysctl.conf:
/etc/sysctl.conf 是用來控制linux網(wǎng)絡(luò)的配置文件,對于依賴網(wǎng)絡(luò)的程序(如web服務(wù)器和cache服務(wù)器)非常重要,RHEL默認提供的最好調(diào)整。推薦配置(把原/etc/sysctl.conf內(nèi)容清掉,把下面內(nèi)容復(fù)制進去):
net.ipv4.ip_local_port_range = 1024 65536 net.core.rmem_max=16777216 net.core.wmem_max=16777216 net.ipv4.tcp_rmem=4096 87380 16777216 net.ipv4.tcp_wmem=4096 65536 16777216 net.ipv4.tcp_fin_timeout = 10 net.ipv4.tcp_tw_recycle = 1 net.ipv4.tcp_timestamps = 0 net.ipv4.tcp_window_scaling = 0 net.ipv4.tcp_sack = 0 net.core.netdev_max_backlog = 30000 net.ipv4.tcp_no_metrics_save=1 net.core.somaxconn = 262144 net.ipv4.tcp_syncookies = 0 net.ipv4.tcp_max_orphans = 262144 net.ipv4.tcp_max_syn_backlog = 262144 net.ipv4.tcp_synack_retries = 2 net.ipv4.tcp_syn_retries = 2
修改完畢后,執(zhí)行/sbin/sysctl -p
生效。
四、使用支持高并發(fā)網(wǎng)絡(luò)I/O的編程技術(shù):
在Linux上編寫高并發(fā)TCP連接應(yīng)用程序時,必須使用合適的網(wǎng)絡(luò)I/O技術(shù)和I/O事件分派機制。
可用的I/O技術(shù)有同步I/O,非阻塞式同步I/O(也稱反應(yīng)式I/O),以及異步I/O。在高TCP并發(fā)的情形下,如果使用同步I/O,這會嚴重阻塞程序的運轉(zhuǎn),除非為每個TCP連接的I/O創(chuàng)建一個線程。但是,過多的線程又會因系統(tǒng)對線程的調(diào)度造成巨大開銷。因此,在高TCP并發(fā)的情形下使用同步 I/O是不可取的,這時可以考慮使用非阻塞式同步I/O或異步I/O。非阻塞式同步I/O的技術(shù)包括使用select(),poll(),epoll等機制。異步I/O的技術(shù)就是使用AIO。
從I/O事件分派機制來看,使用select()是不合適的,因為它所支持的并發(fā)連接數(shù)有限(通常在1024個以內(nèi))。如果考慮性能,poll()也是不合適的,盡管它可以支持的較高的TCP并發(fā)數(shù),但是由于其采用“輪詢”機制,當并發(fā)數(shù)較高時,其運行效率相當?shù)?,并可能存在I/O事件分派不均,導(dǎo)致部分TCP連接上的I/O出現(xiàn)“饑餓”現(xiàn)象。而如果使用epoll或AIO,則沒有上述問題(早期Linux內(nèi)核的AIO技術(shù)實現(xiàn)是通過在內(nèi)核中為每個 I/O請求創(chuàng)建一個線程來實現(xiàn)的,這種實現(xiàn)機制在高并發(fā)TCP連接的情形下使用其實也有嚴重的性能問題。但在最新的Linux內(nèi)核中,AIO的實現(xiàn)已經(jīng)得到改進)。
綜上所述,在開發(fā)支持高并發(fā)TCP連接的Linux應(yīng)用程序時,應(yīng)盡量使用epoll或AIO技術(shù)來實現(xiàn)并發(fā)的TCP連接上的I/O控制,這將為提升程序?qū)Ω卟l(fā)TCP連接的支持提供有效的I/O保證。
總結(jié)
以上就是這篇文章的全部內(nèi)容了,希望本文的內(nèi)容對大家的學習或者工作能帶來一定的幫助,如果有疑問大家可以留言交流。謝謝大家對腳本之家的支持。
相關(guān)文章
iptables配置(/etc/sysconfig/iptables)操作方法
下面小編就為大家?guī)硪黄猧ptables配置(/etc/sysconfig/iptables)操作方法。小編覺得挺不錯的,現(xiàn)在就分享給大家,也給大家做個參考。一起跟隨小編過來看看吧2016-12-12Centos8搭建本地Web服務(wù)器的實現(xiàn)步驟
這篇文章主要介紹了Centos8搭建本地Web服務(wù)器的實現(xiàn)步驟,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧2020-01-01linux新文件權(quán)限設(shè)置之umask的深入理解
這篇文章主要給大家介紹了關(guān)于linux新文件權(quán)限設(shè)置之umask的相關(guān)資料,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面來一起學習學習吧2019-03-03Apache ActiveMQ任意文件寫入漏洞(CVE-2016-3088)復(fù)現(xiàn)
這篇文章主要介紹了Apache ActiveMQ任意文件寫入漏洞(CVE-2016-3088)復(fù)現(xiàn),需要的朋友可以參考下2019-08-08ubuntu19系統(tǒng)及以下版本安裝android studio的教程
這篇文章主要介紹了ubuntu19系統(tǒng)及以下版本安裝android studio的教程,非常不錯,具有一定的參考借鑒價值,需要的朋友可以參考下2019-10-10