欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

linux中高并發(fā)socket最大連接數(shù)的優(yōu)化詳解

 更新時間:2017年02月23日 11:54:01   作者:曉的技術(shù)博客  
這篇文章主要給大家介紹了關(guān)于linux中高并發(fā)socket最大連接數(shù)優(yōu)化的相關(guān)資料,文中介紹的很詳細,相信對大家具有一定的參考價值,需要的朋友們下面來一起學習學習吧。

首先我們可以通過ulimit –a命令來查看系統(tǒng)的一些資源限制情況,如下:

# ulimit -a
core file size   (blocks, -c) 1024
data seg size   (kbytes, -d) unlimited
scheduling priority    (-e) 0
file size    (blocks, -f) unlimited
pending signals     (-i) 127422
max locked memory  (kbytes, -l) 64
max memory size   (kbytes, -m) unlimited
open files      (-n) 20480
pipe size   (512 bytes, -p) 8
POSIX message queues  (bytes, -q) 819200
real-time priority    (-r) 0
stack size    (kbytes, -s) unlimited
cpu time    (seconds, -t) unlimited
max user processes    (-u) 81920
virtual memory   (kbytes, -v) unlimited
file locks      (-x) unlimited

這里重點關(guān)注open filesmax user processes。分別表示:單個進程打開的最大文件數(shù);系統(tǒng)可以申請最大的進程數(shù)。

1、查看、修改文件數(shù)(當前session有效):

# ulimit -n
20480
# ulimit -n 20480

2、查看、修改進程數(shù)(當前session有效):

# ulimit -u
81920
# ulimit -u 81920

3、永久設(shè)置文件數(shù)、最大進程:

  • 可以編輯# vim /etc/security/limits.conf在其中指定最大設(shè)置;
  • 或者在/etc/profile文件指定;

一、最大進程數(shù):

最近在Linux服務(wù)器上發(fā)布應(yīng)用時碰到一個如下的異常:

Caused by: java.lang.OutOfMemoryError: unable to create new native thread
at java.lang.Thread.start0(Native Method)
at java.lang.Thread.start(Thread.java:640)

初看可能會認為是系統(tǒng)的內(nèi)存不足,如果這樣想的話就被這段提示帶到溝里面去了。上面這段錯誤提示的本質(zhì)是Linux操作系統(tǒng)無法創(chuàng)建更多進程,導(dǎo)致出錯。因此要解決這個問題需要修改Linux允許創(chuàng)建更多的進程。

1、臨時設(shè)置:

我們可以使用 ulimit -u 81920 修改max user processes的值,但是只能在當前終端的這個session里面生效,重新登錄后仍然是使用系統(tǒng)默認值。

2、永久設(shè)置:

1)編輯# vim /etc/security/limits.conf

在文件中添加如下內(nèi)容:

  • soft nproc 81920
  • hard nproc 81920

      注: *表示所有用戶,soft、hard表示軟限制、硬限制。(軟限制<=硬限制)

2)或者在/etc/profile文件中添加:

ulimit -u 81920

這樣每次用戶登錄就可以設(shè)置最大進程數(shù)。

二、最大打開文件數(shù):

最大文件打開數(shù)在Linux平臺上,無論編寫客戶端程序還是服務(wù)端程序,在進行高并發(fā)TCP連接處理時,最高的并發(fā)數(shù)量都要受到系統(tǒng)對用戶單一進程同時可打開文件數(shù)量的限制(這是因為系統(tǒng)為每個TCP連接都要創(chuàng)建一個socket句柄,每個socket句柄同時也是一個文件句柄)。

1、查看最大打開文件數(shù):

$ ulimit -n
1024

這表示當前用戶的每個進程最多允許同時打開1024個文件,這1024個文件中還得除去每個進程必然打開的標準輸入,標準輸出,標準錯誤,服務(wù)器監(jiān)聽 socket,進程間通訊的unix域socket等文件,那么剩下的可用于客戶端socket連接的文件數(shù)就只有大概1024-10=1014個左右。也就是說缺省情況下,基于Linux的通訊程序最多允許同時1014個TCP并發(fā)連接。

對于想支持更高數(shù)量的TCP并發(fā)連接的通訊處理程序,就必須修改Linux對當前用戶的進程同時打開的文件數(shù)量的軟限制(soft limit)和硬限制(hardlimit)。其中:

  • 軟限制是指Linux在當前系統(tǒng)能夠承受的范圍內(nèi)進一步限制用戶同時打開的文件數(shù);
  • 硬限制則是根據(jù)系統(tǒng)硬件資源狀況(主要是系統(tǒng)內(nèi)存)計算出來的系統(tǒng)最多可同時打開的文件數(shù)量。通常軟限制小于或等于硬限制。

2、修改最大打開文件數(shù):

[speng@as4 ~]$ ulimit -n 10240

上述命令中,臨時設(shè)置的單一進程允許打開的最大文件數(shù)(當前session有效)。 如果系統(tǒng)回顯類似于“Operation notpermitted”之類的話,說明上述限制修改失敗,實際上是因為在中指定的數(shù)值超過了Linux系統(tǒng)對該用戶打開文件數(shù)的軟限制或硬限制。因此,就需要修改Linux系統(tǒng)對用戶的關(guān)于打開文件數(shù)的軟限制和硬限制。

1)首先,修改/etc/security/limits.conf文件,在文件中添加如下行:

speng soft nofile 10240
speng hard nofile 10240

其中speng指定了要修改哪個用戶的打開文件數(shù)限制,可用'*'號表示修改所有用戶的限制;soft或hard指定要修改軟限制還是硬限制;10240則指定了想要修改的新的限制值,即最大打開文件數(shù)(請注意軟限制值要小于或等于硬限制)。修改完后保存文件。

2)其次,修改/etc/pam.d/login文件,在文件中添加如下行:

session required /lib/security/pam_limits.so

這是告訴Linux在用戶完成系統(tǒng)登錄后,應(yīng)該調(diào)用pam_limits.so模塊來設(shè)置系統(tǒng)對該用戶可使用的各種資源數(shù)量的最大限制(包括用戶可打開的最大文件數(shù)限制),而pam_limits.so模塊就會從/etc/security/limits.conf文件中讀取配置來設(shè)置這些限制值。修改完后保存此文件。

3)第三步,查看Linux系統(tǒng)級的最大打開文件數(shù)限制(硬限制),使用如下命令:

[speng@as4 ~]$ cat /proc/sys/fs/file-max
12158

這表明這臺Linux系統(tǒng)最多允許同時打開(即包含所有用戶打開文件數(shù)總和)12158個文件,是Linux系統(tǒng)級硬限制,所有用戶級的打開文件數(shù)限制都不應(yīng)超過這個數(shù)值。通常這個系統(tǒng)級硬限制是Linux系統(tǒng)在啟動時根據(jù)系統(tǒng)硬件資源狀況計算出來的最佳的最大同時打開文件數(shù)限制,如果沒有特殊需要,不應(yīng)該修改此限制,除非想為用戶級打開文件數(shù)限制設(shè)置超過此限制的值。修改此硬限制的方法是修改/etc/rc.local腳本,在腳本中添加如下行:

echo 22158 > /proc/sys/fs/file-max

這是讓Linux在啟動完成后強行將系統(tǒng)級打開文件數(shù)硬限制設(shè)置為22158。修改完后保存此文件。

完成上述步驟后重啟系統(tǒng),一般情況下就可以將Linux系統(tǒng)對指定用戶的單一進程允許同時打開的最大文件數(shù)限制設(shè)為指定的數(shù)值。如果重啟后用 ulimit-n命令查看用戶可打開文件數(shù)限制仍然低于上述步驟中設(shè)置的最大值,這可能是因為在用戶登錄腳本/etc/profile中使用ulimit -n命令已經(jīng)將用戶可同時打開的文件數(shù)做了限制。由于通過ulimit-n修改系統(tǒng)對用戶可同時打開文件的最大數(shù)限制時,新修改的值只能小于或等于上次 ulimit-n設(shè)置的值,因此想用此命令增大這個限制值是不可能的。所以,如果有上述問題存在,就只能去打開/etc/profile腳本文件,在文件中查找是否使用了ulimit-n限制了用戶可同時打開的最大文件數(shù)量,如果找到,則刪除這行命令,或者將其設(shè)置的值改為合適的值,然后保存文件,用戶退出并重新登錄系統(tǒng)即可。
通過上述步驟,就為支持高并發(fā)TCP連接處理的通訊處理程序解除關(guān)于打開文件數(shù)量方面的系統(tǒng)限制。

三、網(wǎng)絡(luò)內(nèi)核對TCP連接的顯示:

1、修改網(wǎng)絡(luò)內(nèi)核對TCP連接的本地端口范圍限制:

在Linux上編寫支持高并發(fā)TCP連接的客戶端通訊處理程序時,有時會發(fā)現(xiàn)盡管已經(jīng)解除了系統(tǒng)對用戶同時打開文件數(shù)的限制,但仍會出現(xiàn)并發(fā)TCP連接數(shù)增加到一定數(shù)量時,再也無法成功建立新的TCP連接的現(xiàn)象。出現(xiàn)這種現(xiàn)在的原因有多種。第一種原因可能是因為Linux網(wǎng)絡(luò)內(nèi)核對本地端口號范圍有限制。此時,進一步分析為什么無法建立TCP連接,會發(fā)現(xiàn)問題出在connect()調(diào)用返回失敗,查看系統(tǒng)錯誤提示消息是“Can't assign requestedaddress”。同時,如果在此時用tcpdump工具監(jiān)視網(wǎng)絡(luò),會發(fā)現(xiàn)根本沒有TCP連接時客戶端發(fā)SYN包的網(wǎng)絡(luò)流量。這些情況說明問題在于本地Linux系統(tǒng)內(nèi)核中有限制。其實,問題的根本原因在于Linux內(nèi)核的TCP/ip協(xié)議實現(xiàn)模塊對系統(tǒng)中所有的客戶端TCP連接對應(yīng)的本地端口號的范圍進行了限制(例如,內(nèi)核限制本地端口號的范圍為1024~32768之間)。

當系統(tǒng)中某一時刻同時存在太多的TCP客戶端連接時,由于每個TCP客戶端連接都要占用一個唯一的本地端口號(此端口號在系統(tǒng)的本地端口號范圍限制中),如果現(xiàn)有的TCP客戶端連接已將所有的本地端口號占滿,則此時就無法為新的TCP客戶端連接分配一個本地端口號了,因此系統(tǒng)會在這種情況下在connect()調(diào)用中返回失敗,并將錯誤提示消息設(shè)為“Can't assignrequested address”。內(nèi)核編譯時默認設(shè)置的本地端口號范圍可能太小,因此需要修改此本地端口范圍限制。

1)第一步,修改/etc/sysctl.conf文件,在文件中添加如下行:

net.ipv4.ip_local_port_range = 1024 65000

這表明將系統(tǒng)對本地端口范圍限制設(shè)置為1024~65000之間。請注意,本地端口范圍的最小值必須大于或等于1024;而端口范圍的最大值則應(yīng)小于或等于65535。修改完后保存此文件。

2)第二步,執(zhí)行sysctl命令:

[speng@as4 ~]$ sysctl -p

如果系統(tǒng)沒有錯誤提示,就表明新的本地端口范圍設(shè)置成功。如果按上述端口范圍進行設(shè)置,則理論上單獨一個進程最多可以同時建立60000多個TCP客戶端連接。

2、修改網(wǎng)絡(luò)內(nèi)核IP_TABLE防火墻對最大跟蹤的TCP連接數(shù)限制:

修改了最大文件打開數(shù),但仍會出現(xiàn)并發(fā)TCP連接數(shù)增加到一定數(shù)量時,再也無法成功建立新的TCP連接的現(xiàn)象。第二種無法建立TCP連接的原因可能是因為Linux網(wǎng)絡(luò)內(nèi)核的IP_TABLE防火墻對最大跟蹤的TCP連接數(shù)有限制。此時程序會表現(xiàn)為在 connect()調(diào)用中阻塞,如同死機,如果用tcpdump工具監(jiān)視網(wǎng)絡(luò),也會發(fā)現(xiàn)根本沒有TCP連接時客戶端發(fā)SYN包的網(wǎng)絡(luò)流量。由于 IP_TABLE防火墻在內(nèi)核中會對每個TCP連接的狀態(tài)進行跟蹤,跟蹤信息將會放在位于內(nèi)核內(nèi)存中的conntrackdatabase中,這個數(shù)據(jù)庫的大小有限,當系統(tǒng)中存在過多的TCP連接時,數(shù)據(jù)庫容量不足,IP_TABLE無法為新的TCP連接建立跟蹤信息,于是表現(xiàn)為在connect()調(diào)用中阻塞。此時就必須修改內(nèi)核對最大跟蹤的TCP連接數(shù)的限制,方法同修改內(nèi)核對本地端口號范圍的限制是類似的:

1)第一步,修改/etc/sysctl.conf文件,在文件中添加如下行:

net.ipv4.ip_conntrack_max = 10240

這表明將系統(tǒng)對最大跟蹤的TCP連接數(shù)限制設(shè)置為10240。請注意,此限制值要盡量小,以節(jié)省對內(nèi)核內(nèi)存的占用。

2)第二步,執(zhí)行sysctl命令:

[speng@as4 ~]$ sysctl -p

如果系統(tǒng)沒有錯誤提示,就表明系統(tǒng)對新的最大跟蹤的TCP連接數(shù)限制修改成功。如果按上述參數(shù)進行設(shè)置,則理論上單獨一個進程最多可以同時建立10000多個TCP客戶端連接。

【補充】優(yōu)化好的內(nèi)核參數(shù)sysctl.conf:

/etc/sysctl.conf 是用來控制linux網(wǎng)絡(luò)的配置文件,對于依賴網(wǎng)絡(luò)的程序(如web服務(wù)器和cache服務(wù)器)非常重要,RHEL默認提供的最好調(diào)整。推薦配置(把原/etc/sysctl.conf內(nèi)容清掉,把下面內(nèi)容復(fù)制進去):

net.ipv4.ip_local_port_range = 1024 65536
net.core.rmem_max=16777216
net.core.wmem_max=16777216
net.ipv4.tcp_rmem=4096 87380 16777216
net.ipv4.tcp_wmem=4096 65536 16777216
net.ipv4.tcp_fin_timeout = 10
net.ipv4.tcp_tw_recycle = 1
net.ipv4.tcp_timestamps = 0
net.ipv4.tcp_window_scaling = 0
net.ipv4.tcp_sack = 0
net.core.netdev_max_backlog = 30000
net.ipv4.tcp_no_metrics_save=1
net.core.somaxconn = 262144
net.ipv4.tcp_syncookies = 0
net.ipv4.tcp_max_orphans = 262144
net.ipv4.tcp_max_syn_backlog = 262144
net.ipv4.tcp_synack_retries = 2
net.ipv4.tcp_syn_retries = 2

修改完畢后,執(zhí)行/sbin/sysctl -p 生效。

四、使用支持高并發(fā)網(wǎng)絡(luò)I/O的編程技術(shù):

在Linux上編寫高并發(fā)TCP連接應(yīng)用程序時,必須使用合適的網(wǎng)絡(luò)I/O技術(shù)和I/O事件分派機制。

可用的I/O技術(shù)有同步I/O,非阻塞式同步I/O(也稱反應(yīng)式I/O),以及異步I/O。在高TCP并發(fā)的情形下,如果使用同步I/O,這會嚴重阻塞程序的運轉(zhuǎn),除非為每個TCP連接的I/O創(chuàng)建一個線程。但是,過多的線程又會因系統(tǒng)對線程的調(diào)度造成巨大開銷。因此,在高TCP并發(fā)的情形下使用同步 I/O是不可取的,這時可以考慮使用非阻塞式同步I/O或異步I/O。非阻塞式同步I/O的技術(shù)包括使用select(),poll(),epoll等機制。異步I/O的技術(shù)就是使用AIO。

從I/O事件分派機制來看,使用select()是不合適的,因為它所支持的并發(fā)連接數(shù)有限(通常在1024個以內(nèi))。如果考慮性能,poll()也是不合適的,盡管它可以支持的較高的TCP并發(fā)數(shù),但是由于其采用“輪詢”機制,當并發(fā)數(shù)較高時,其運行效率相當?shù)?,并可能存在I/O事件分派不均,導(dǎo)致部分TCP連接上的I/O出現(xiàn)“饑餓”現(xiàn)象。而如果使用epoll或AIO,則沒有上述問題(早期Linux內(nèi)核的AIO技術(shù)實現(xiàn)是通過在內(nèi)核中為每個 I/O請求創(chuàng)建一個線程來實現(xiàn)的,這種實現(xiàn)機制在高并發(fā)TCP連接的情形下使用其實也有嚴重的性能問題。但在最新的Linux內(nèi)核中,AIO的實現(xiàn)已經(jīng)得到改進)。
綜上所述,在開發(fā)支持高并發(fā)TCP連接的Linux應(yīng)用程序時,應(yīng)盡量使用epoll或AIO技術(shù)來實現(xiàn)并發(fā)的TCP連接上的I/O控制,這將為提升程序?qū)Ω卟l(fā)TCP連接的支持提供有效的I/O保證。

總結(jié)

以上就是這篇文章的全部內(nèi)容了,希望本文的內(nèi)容對大家的學習或者工作能帶來一定的幫助,如果有疑問大家可以留言交流。謝謝大家對腳本之家的支持。

相關(guān)文章

  • iptables配置(/etc/sysconfig/iptables)操作方法

    iptables配置(/etc/sysconfig/iptables)操作方法

    下面小編就為大家?guī)硪黄猧ptables配置(/etc/sysconfig/iptables)操作方法。小編覺得挺不錯的,現(xiàn)在就分享給大家,也給大家做個參考。一起跟隨小編過來看看吧
    2016-12-12
  • linux nand flash驅(qū)動編寫

    linux nand flash驅(qū)動編寫

    這篇文章主要介紹了linux nand flash驅(qū)動編寫,小編覺得挺不錯的,現(xiàn)在分享給大家,也給大家做個參考。一起跟隨小編過來看看吧
    2018-04-04
  • Centos8搭建本地Web服務(wù)器的實現(xiàn)步驟

    Centos8搭建本地Web服務(wù)器的實現(xiàn)步驟

    這篇文章主要介紹了Centos8搭建本地Web服務(wù)器的實現(xiàn)步驟,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧
    2020-01-01
  • Linux之split文件分割和合并方式

    Linux之split文件分割和合并方式

    這篇文章主要介紹了Linux之split文件分割和合并方式,具有很好的參考價值,希望對大家有所幫助,如有錯誤或未考慮完全的地方,望不吝賜教
    2024-04-04
  • 解決SSH連接超時的2個配置方法

    解決SSH連接超時的2個配置方法

    用SSH客戶端連接linux服務(wù)器時,經(jīng)常會出現(xiàn)與服務(wù)器會話連接中斷現(xiàn)象,照成這個問題的原因便是SSH服務(wù)有自己獨特的會話連接機制。
    2014-04-04
  • linux新文件權(quán)限設(shè)置之umask的深入理解

    linux新文件權(quán)限設(shè)置之umask的深入理解

    這篇文章主要給大家介紹了關(guān)于linux新文件權(quán)限設(shè)置之umask的相關(guān)資料,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面來一起學習學習吧
    2019-03-03
  • Apache ActiveMQ任意文件寫入漏洞(CVE-2016-3088)復(fù)現(xiàn)

    Apache ActiveMQ任意文件寫入漏洞(CVE-2016-3088)復(fù)現(xiàn)

    這篇文章主要介紹了Apache ActiveMQ任意文件寫入漏洞(CVE-2016-3088)復(fù)現(xiàn),需要的朋友可以參考下
    2019-08-08
  • Linux如何啟動SELinux

    Linux如何啟動SELinux

    這篇文章主要介紹了Linux如何啟動SELinux問題,具有很好的參考價值,希望對大家有所幫助,如有錯誤或未考慮完全的地方,望不吝賜教
    2024-02-02
  • ubuntu19系統(tǒng)及以下版本安裝android studio的教程

    ubuntu19系統(tǒng)及以下版本安裝android studio的教程

    這篇文章主要介紹了ubuntu19系統(tǒng)及以下版本安裝android studio的教程,非常不錯,具有一定的參考借鑒價值,需要的朋友可以參考下
    2019-10-10
  • linux刪除環(huán)境變量步驟詳解

    linux刪除環(huán)境變量步驟詳解

    在本篇文章里小編給大家分享了關(guān)于linux如何刪除環(huán)境變量的詳細方法和步驟,需要的朋友們學習下。
    2019-04-04

最新評論