Nginx優(yōu)化配置和內(nèi)核優(yōu)化 實現(xiàn)突破十萬并發(fā)
nginx進程數(shù),建議按照cpu數(shù)目來指定,一般為它的倍數(shù)。
為每個進程分配cpu,上例中將8個進程分配到8個cpu,當然可以寫多個,或者將一個進程分配到多個cpu。
這個指令是指當一個nginx進程打開的最多文件描述符數(shù)目,理論值應該是最多打開文件數(shù)(ulimit -n)與nginx進程數(shù)相除,但是nginx分配請求并不是那么均勻,所以最好與ulimit -n的值保持一致。
使用epoll的I/O模型,這個不用說了吧。
每個進程允許的最多連接數(shù),理論上每臺nginx服務器的最大連接數(shù)為worker_processes*worker_connections。
keepalive超時時間。
客戶端請求頭部的緩沖區(qū)大小,這個可以根據(jù)你的系統(tǒng)分頁大小來設置,一般一個請求的頭部大小不會超過1k,不過由于一般系統(tǒng)分頁都要大于1k,所以這里設置為分頁大小。分頁大小可以用命令getconf PAGESIZE取得。
這個將為打開文件指定緩存,默認是沒有啟用的,max指定緩存數(shù)量,建議和打開文件數(shù)一致,inactive是指經(jīng)過多長時間文件沒被請求后刪除緩存。
這個是指多長時間檢查一次緩存的有效信息。
open_file_cache指令中的inactive參數(shù)時間內(nèi)文件的最少使用次數(shù),如果超過這個數(shù)字,文件描述符一直是在緩存中打開的,如上例,如果有一個文件在inactive時間內(nèi)一次沒被使用,它將被移除。
內(nèi)核參數(shù)的優(yōu)化timewait的數(shù)量,默認是180000。
允許系統(tǒng)打開的端口范圍。
啟用timewait快速回收。
開啟重用。允許將TIME-WAIT sockets重新用于新的TCP連接。
開啟SYN Cookies,當出現(xiàn)SYN等待隊列溢出時,啟用cookies來處理。
web應用中l(wèi)isten函數(shù)的backlog默認會給我們內(nèi)核參數(shù)的net.core.somaxconn限制到128,而nginx定義的NGX_LISTEN_BACKLOG默認為511,所以有必要調(diào)整這個值。
每個網(wǎng)絡接口接收數(shù)據(jù)包的速率比內(nèi)核處理這些包的速率快時,允許送到隊列的數(shù)據(jù)包的最大數(shù)目。
系統(tǒng)中最多有多少個TCP套接字不被關(guān)聯(lián)到任何一個用戶文件句柄上。如果超過這個數(shù)字,孤兒連接將即刻被復位并打印出警告信息。這個限制僅僅是為了防止簡單的DoS攻擊,不能過分依靠它或者人為地減小這個值,更應該增加這個值(如果增加了內(nèi)存之后)。
記錄的那些尚未收到客戶端確認信息的連接請求的最大值。對于有128M內(nèi)存的系統(tǒng)而言,缺省值是1024,小內(nèi)存的系統(tǒng)則是128。
時間戳可以避免序列號的卷繞。一個1Gbps的鏈路肯定會遇到以前用過的序列號。時間戳能夠讓內(nèi)核接受這種"異常"的數(shù)據(jù)包。這里需要將其關(guān)掉。
為了打開對端的連接,內(nèi)核需要發(fā)送一個SYN并附帶一個回應前面一個SYN的ACK。也就是所謂三次握手中的第二次握手。這個設置決定了內(nèi)核放棄連接之前發(fā)送SYN+ACK包的數(shù)量。
在內(nèi)核放棄建立連接之前發(fā)送SYN包的數(shù)量。
如果套接字由本端要求關(guān)閉,這個參數(shù)決定了它保持在FIN-WAIT-2狀態(tài)的時間。對端可以出錯并永遠不關(guān)閉連接,甚至意外當機。缺省值是60秒。2.2 內(nèi)核的通常值是180秒,你可以按這個設置,但要記住的是,即使你的機器是一個輕載的WEB服務器,也有因為大量的死套接字而內(nèi)存溢出的風險,F(xiàn)IN- WAIT-2的危險性比FIN-WAIT-1要小,因為它最多只能吃掉1.5K內(nèi)存,但是它們的生存期長些。
當keepalive起用的時候,TCP發(fā)送keepalive消息的頻度。缺省是2小時。
一個完整的內(nèi)核優(yōu)化配置net.ipv4.conf.default.rp_filter = 1
net.ipv4.conf.default.accept_source_route = 0
kernel.sysrq = 0
kernel.core_uses_pid = 1
net.ipv4.tcp_syncookies = 1
kernel.msgmnb = 65536
kernel.msgmax = 65536
kernel.shmmax = 68719476736
kernel.shmall = 4294967296
net.ipv4.tcp_max_tw_buckets = 6000
net.ipv4.tcp_sack = 1
net.ipv4.tcp_window_scaling = 1
net.ipv4.tcp_rmem = 4096 87380 4194304
net.ipv4.tcp_wmem = 4096 16384 4194304
net.core.wmem_default = 8388608
net.core.rmem_default = 8388608
net.core.rmem_max = 16777216
net.core.wmem_max = 16777216
net.core.netdev_max_backlog = 262144
net.core.somaxconn = 262144
net.ipv4.tcp_max_orphans = 3276800
net.ipv4.tcp_max_syn_backlog = 262144
net.ipv4.tcp_timestamps = 0
net.ipv4.tcp_synack_retries = 1
net.ipv4.tcp_syn_retries = 1
net.ipv4.tcp_tw_recycle = 1
net.ipv4.tcp_tw_reuse = 1
net.ipv4.tcp_mem = 94500000 915000000 927000000
net.ipv4.tcp_fin_timeout = 1
net.ipv4.tcp_keepalive_time = 30
net.ipv4.ip_local_port_range = 1024 65000
worker_processes 8;
worker_cpu_affinity 00000001 00000010 00000100 00001000 00010000 00100000 01000000;
error_log /www/log/nginx_error.log crit;
pid /usr/local/nginx/nginx.pid;
worker_rlimit_nofile 204800;
events
{
use epoll;
worker_connections 204800;
}
http
{
include mime.types;
default_type application/octet-stream;
charset utf-8;
server_names_hash_bucket_size 128;
client_header_buffer_size 2k;
large_client_header_buffers 4 4k;
client_max_body_size 8m;
sendfile on;
tcp_nopush on;
keepalive_timeout 60;
fastcgi_cache_path /usr/local/nginx/fastcgi_cache levels=1:2
keys_zone=TEST:10m
inactive=5m;
fastcgi_connect_timeout 300;
fastcgi_send_timeout 300;
fastcgi_read_timeout 300;
fastcgi_buffer_size 16k;
fastcgi_buffers 16 16k;
fastcgi_busy_buffers_size 16k;
fastcgi_temp_file_write_size 16k;
fastcgi_cache TEST;
fastcgi_cache_valid 200 302 1h;
fastcgi_cache_valid 301 1d;
fastcgi_cache_valid any 1m;
fastcgi_cache_min_uses 1;
fastcgi_cache_use_stale error timeout invalid_header http_500;
open_file_cache max=204800 inactive=20s;
open_file_cache_min_uses 1;
open_file_cache_valid 30s;
tcp_nodelay on;
gzip on;
gzip_min_length 1k;
gzip_buffers 4 16k;
gzip_http_version 1.0;
gzip_comp_level 2;
gzip_types text/plain application/x-javascript text/css application/xml;
gzip_vary on;
server
{
listen 8080;
server_name ad.test.com;
index index.php index.htm;
root /www/html/;
location /status
{
stub_status on;
}
location ~ .*\.(php|php5)?$
{
fastcgi_pass 127.0.0.1:9000;
fastcgi_index index.php;
include fcgi.conf;
}
location ~ .*\.(gif|jpg|jpeg|png|bmp|swf|js|css)$
{
expires 30d;
}
log_format access '$remote_addr - $remote_user [$time_local] "$request" '
'$status $body_bytes_sent "$http_referer" '
'"$http_user_agent" $http_x_forwarded_for';
access_log /www/log/access.log access;
}
}
這個指令為FastCGI緩存指定一個路徑,目錄結(jié)構(gòu)等級,關(guān)鍵字區(qū)域存儲時間和非活動刪除時間。
指定連接到后端FastCGI的超時時間。
向FastCGI傳送請求的超時時間,這個值是指已經(jīng)完成兩次握手后向FastCGI傳送請求的超時時間。
接收FastCGI應答的超時時間,這個值是指已經(jīng)完成兩次握手后接收FastCGI應答的超時時間。
指定讀取FastCGI應答第一部分需要用多大的緩沖區(qū),這里可以設置為fastcgi_buffers指令指定的緩沖區(qū)大小,上面的指令指定它將使用1個16k的緩沖區(qū)去讀取應答的第一部分,即應答頭,其實這個應答頭一般情況下都很小(不會超過1k),但是你如果在fastcgi_buffers指令中指定了緩沖區(qū)的大小,那么它也會分配一個fastcgi_buffers指定的緩沖區(qū)大小去緩存。
指定本地需要用多少和多大的緩沖區(qū)來緩沖FastCGI的應答,如上所示,如果一個php腳本所產(chǎn)生的頁面大小為256k,則會為其分配16個16k的緩沖區(qū)來緩存,如果大于256k,增大于256k的部分會緩存到fastcgi_temp指定的路徑中,當然這對服務器負載來說是不明智的方案,因為內(nèi)存中處理數(shù)據(jù)速度要快于硬盤,通常這個值的設置應該選擇一個你的站點中的php腳本所產(chǎn)生的頁面大小的中間值,比如你的站點大部分腳本所產(chǎn)生的頁面大小為256k就可以把這個值設置為16 16k,或者4 64k 或者64 4k,但很顯然,后兩種并不是好的設置方法,因為如果產(chǎn)生的頁面只有32k,如果用4 64k它會分配1個64k的緩沖區(qū)去緩存,而如果使用64 4k它會分配8個4k的緩沖區(qū)去緩存,而如果使用16 16k則它會分配2個16k去緩存頁面,這樣看起來似乎更加合理。
這個指令我也不知道是做什么用,只知道默認值是fastcgi_buffers的兩倍。
在寫入fastcgi_temp_path時將用多大的數(shù)據(jù)塊,默認值是fastcgi_buffers的兩倍。
開啟FastCGI緩存并且為其制定一個名稱。個人感覺開啟緩存非常有用,可以有效降低CPU負載,并且防止502錯誤。但是這個緩存會引起很多問題,因為它緩存的是動態(tài)頁面。具體使用還需根據(jù)自己的需求。
fastcgi_cache_valid 301 1d;
fastcgi_cache_valid any 1m;
為指定的應答代碼指定緩存時間,如上例中將200,302應答緩存一小時,301應答緩存1天,其他為1分鐘。
緩存在fastcgi_cache_path指令inactive參數(shù)值時間內(nèi)的最少使用次數(shù),如上例,如果在5分鐘內(nèi)某文件1次也沒有被使用,那么這個文件將被移除。
不知道這個參數(shù)的作用,猜想應該是讓nginx知道哪些類型的緩存是沒用的。 以上為nginx中FastCGI相關(guān)參數(shù),另外,F(xiàn)astCGI自身也有一些配置需要進行優(yōu)化,如果你使用php-fpm來管理FastCGI,可以修改配置文件中的以下值:
同時處理的并發(fā)請求數(shù),即它將開啟最多60個子線程來處理并發(fā)連接。
最多打開文件數(shù)。
每個進程在重置之前能夠執(zhí)行的最多請求數(shù)。
幾張測試結(jié)果靜態(tài)頁面為我在squid配置4W并發(fā)那篇文章中提到的測試文件,下圖為同時在6臺機器運行webbench -c 30000 -t 600 http://ad.test.com:8080/index.html命令后的測試結(jié)果:
使用netstat過濾后的連接數(shù):
php頁面在status中的結(jié)果(php頁面為調(diào)用phpinfo):
php頁面在netstat過濾后的連接數(shù):
未使用FastCGI緩存之前的服務器負載:
此時打開php頁面已經(jīng)有些困難,需要進行多次刷新才能打開。上圖中cpu0負載偏低是因為測試時將網(wǎng)卡中斷請求全部分配到cpu0上,并且在nginx中開啟7個進程分別制定到cpu1-7。
使用FastCGI緩存之后:
此時可以很輕松的打開php頁面。
這個測試并沒有連接到任何數(shù)據(jù)庫,所以并沒有什么參考價值,不過不知道上述測試是否已經(jīng)到達極限,根據(jù)內(nèi)存和cpu的使用情況來看似乎沒有,但是已經(jīng)沒有多余的機子來讓我運行webbench了。
相關(guān)文章
nginx配置中proxy_pass反向代理502的bug記錄
這篇文章主要介紹了nginx配置中proxy_pass反向代理502的bug記錄,具有很好的參考價值,希望對大家有所幫助,如有錯誤或未考慮完全的地方,望不吝賜教2024-01-01nginx實現(xiàn)發(fā)布靜態(tài)資源的方法
這篇文章主要介紹了nginx實現(xiàn)發(fā)布靜態(tài)資源的方法,本文給大家介紹的非常詳細,對大家的學習或工作具有一定的參考借鑒價值,需要的朋友可以參考下2021-01-01nginx FastCGI錯誤Primary script unknown解決辦法
這篇文章主要介紹了nginx錯誤Primary script unknown解決辦法,需要的朋友可以參考下2014-03-03讓VIM支持Nginx .conf文件語法高亮顯示功能的方法
這篇文章主要給大家介紹了關(guān)于讓VIM支持Nginx .conf文件語法高亮顯示功能的方法,文中分別介紹了手動修改和自動化腳本兩種方法的實現(xiàn),都給出了詳細的示例代碼,需要的朋友可以參考借鑒,下面來一起看看吧。2017-07-07詳解Nginx實戰(zhàn)之讓用戶通過用戶名密碼認證訪問web站點
這篇文章主要介紹了詳解Nginx實戰(zhàn)之讓用戶通過用戶名密碼認證訪問web站點,有興趣的可以了解一下。2016-11-11使用Nginx反向代理與proxy_cache緩存搭建CDN服務器的配置方法
linux下通過Nginx反向代理和proxy_cache緩存搭建CDN服務器加快Web訪問速度的配置方法2013-06-06Nginx 域名SSL證書配置(網(wǎng)站 http 升級為 https)
這篇文章主要介紹了Nginx 域名SSL證書配置(網(wǎng)站 http 升級為 https),文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧2019-12-12