欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

Nginx使用ngx_http_upstream_module實現負載均衡功能示例

 更新時間:2022年08月04日 16:33:27   作者:丶重明  
本文主要介紹了Nginx使用ngx_http_upstream_module實現負載均衡功能示例,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧

負載均衡介紹

什么是負載均衡

負載均衡(Load Balance),意思是將負載(工作任務,訪問請求)進行平衡、分攤到多個操作單元(服務器,組件)上進行執(zhí)行。

為什么需要負載均衡

當單臺web服務器直接面向用戶,可能要承載著大量的并發(fā)請求,單臺服務器可能難以負荷,我們需要使用多臺web服務器組成一個集群,利用Nginx負載均衡功能,將請求分發(fā)給不同的后端服務器,實現負載的流量分發(fā),提升整體性能、以及系統的容災能力。

  • 負載均衡與代理有什么區(qū)別

代理是代理一臺服務器基于URI調度,調度到不同功能的應用節(jié)點

負載均衡是將客戶端請求通過proxy_pass代理至一組upstream資源池

  • 實現負載均衡場景

實現負載均衡功能需要使用兩個模塊:

  • proxy_pass:代理模塊
  • upstream:虛擬資源池

示例:一個官方的的負載均衡展示

upstream backend {
? ? server backend1.example.com ? ? ? weight=5;
? ? server backend2.example.com:8080;
? ? server unix:/tmp/backend3;

? ? server backup1.example.com:8080 ? backup;
? ? server backup2.example.com:8080 ? backup;
}

server {
? ? location / {
? ? ? ? proxy_pass http://backend;
? ? }
}

示例:自己完成一個小例子

upstream node {
    server 192.168.10.3:80;
    server 192.168.10.4:80;
}
server {
    listen 80;
    server_name www.yyang.com;
    location / {
        proxy_pass http://node;
        include prxoy_params;
    }
}

負載均衡調度算法

輪詢調度

按順序逐一分配到不同的后端節(jié)點,也是默認算法。(簡單來說就是1:1:1)

加權輪詢
考慮到不同服務器的性能不同,給予節(jié)點不同的權值,使其接收到相應的權值請求數

server 192.168.10.3:80 weight=3;
server 192.168.10.4:80 weight=1;

以上這個例子是說每4個請求會分配給10.3三個,10.4一個,以此循環(huán)。

ip_hash

根據用戶請求的IP,對該IP進行hash運算,根據運算的值將請求分配給后端特定的一臺節(jié)點進行處理。

取值范圍為ipv4地址的前三個8位或ipv6的整個地址作為哈希鍵,確保來自從一個客戶端的IP始終傳遞給同一臺服務器,除非次服務器不可用。(簡單來說就是172.16.20.1與172.16.20.2取前三個8位都是172.16.20)

ip_hash運算公式:hash(ip)%node_counts=index

ip_hash帶來的問題:
大量同一IP的請求會造成某個節(jié)點流量過大
如果臨時下線一臺節(jié)點,會重新計算hash值,建議使用down狀態(tài)

示例:注意ip_hash與權重不可同時使用

ip_hash;
server 192.168.10.3:80;
server 192.168.10.4:80;

一致性hash

為了避免上述問題,所以誕生了一致性hash,使用取模的方式,但不對服務器節(jié)點數量取模,而是對2的32次方取模,hash函數值為0~2^32-1。(形成一個虛擬圓環(huán),用戶請求會發(fā)給順時針相鄰的節(jié)點)
有一個問題:如果后端節(jié)點較少可能會造成數據傾斜,所以一致性hash引入了虛擬節(jié)點機制,即對每個服務器計算多個哈希,每個計算結果位置都放置一個虛擬節(jié)點。
如果我們想使用ip_hash,但是計算公式使用一致性hash,該怎么做?

hash $remote_addr consistent;
server 192.168.10.3:80;
server 192.168.10.4:80;

url_hash

根據用戶的url進行hash取模,根據運算值,將請求分配給一臺特定的后端服務器。clent——nginx——url_hash——cache1——app

1.用戶請求nginx負載均衡,通過url算法,請求調度至cache1
2.cache1沒有數據,會向后端獲取,返回數據,并將數據緩存
3.當其他用戶訪問相同url時,調度器依然會調度到cache1節(jié)點
4.cache1會直接將數據返回

hash $request_uri consistent;
server 192.168.10.3:80;
server 192.168.10.4:80;

least_conn

哪臺服務器的連接數最少,就將請求調度到這臺服務器

least_conn;
server 192.168.10.3:80;
server 192.168.10.4:80;

負載均衡后端節(jié)點狀態(tài)

down

將服務器節(jié)點標記為不可用狀態(tài),一般用于停機維護。

server 192.168.10.3:80 down;
server 192.168.10.4:80;

backup

備用節(jié)點,正常情況不會調度到此節(jié)點;當正常工作節(jié)點全部不可用時,會啟用此節(jié)點;當節(jié)點恢復時此節(jié)點會繼續(xù)恢復備用狀態(tài)。

server 192.168.10.3:80;
server 192.168.10.4:80;
server 192.168.10.5:80 backup;

max_conns

用來限制每個后端節(jié)點接收到的最大的TCP連接數,如果超出限制就會拋出錯誤。

server 192.168.10.3:80 max_conns=10;
server 192.168.10.4:80 max_conns=10;

一臺可以連接10.兩臺是20,超過20就會出錯。

keepalived

與后端服務器激活緩存,也就是長鏈接,提升網站吞吐量。
默認不啟用此功能,當有請求時,會建立連接,維護連接,關閉連接,所以會存在網絡消耗;但是如果所有連接都緩存了,當連接空閑了又會占用其他系統資源,所以可以使用keepalived參數。

server 192.168.10.3:80;
server 192.168.10.4:80;

keepalived 32; ? # 最大空閑連接數的個數
keepalived_timeout 100s; # 空閑連接的超時時間

# 需要配合以下兩個參數使用

proxy_http_version 1.1;
proxy_set_header connection "";

max_fails與fail_timeout

max_fails=2:服務器通信失敗兩次,認為服務器不可用
fail_timeout=5s:服務器通信失敗后,每5秒探測一次服務器是否恢復正常。
在fail_timeout設定時間內,與服務器連接失敗次數達到max_fails數量,則認為服務器不可用。
如果不設置的話默認是探測一次,間隔10s。

server 192.168.10.3:80 max_fails=2 fail_timeout=5s;
server 192.168.10.4:80 max_fails=2 fail_timeout=5s;

這部分就到這,其他內容放在之后。

到此這篇關于Nginx使用ngx_http_upstream_module實現負載均衡功能示例的文章就介紹到這了,更多相關Nginx 負載均衡內容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關文章希望大家以后多多支持腳本之家!

相關文章

  • Linux部署Nginx詳細圖文教程

    Linux部署Nginx詳細圖文教程

    這篇文章主要給大家介紹了關于Linux部署Nginx的相關資料,Nginx 是一個高性能的HTTP和反向代理web服務器,Nginx是一款輕量級的Web服務器/反向代理服務器及電子郵件(IMAP/POP3)代理服務器,需要的朋友可以參考下
    2024-01-01
  • Nginx實現404錯誤自動跳轉到首頁的配置過程

    Nginx實現404錯誤自動跳轉到首頁的配置過程

    當用戶在訪問網站的過程中遇到404錯誤時,通常情況下應該顯示一個友好的錯誤頁面,而不是僅僅顯示一個簡單的錯誤提示,在Nginx中,可以通過配置來實現404錯誤自動跳轉到首頁的功能,下面將詳細介紹如何進行配置,需要的朋友可以參考下
    2023-12-12
  • 如何實現Nginx同一端口同時支持http與https協議

    如何實現Nginx同一端口同時支持http與https協議

    最近有一個需求,需要讓一個端口的http服務支持https訪問,本文就來介紹一下如何實現Nginx同一端口同時支持http與https協議,感興趣的可以了解一下
    2023-11-11
  • Nginx限流和黑名單配置的策略

    Nginx限流和黑名單配置的策略

    這篇文章主要介紹了Nginx限流和黑名單配置,Nginx的限流主要是兩種方式,限制訪問頻率和限制并發(fā)連接數,Nginx?按請求速率限速模塊使用的是漏桶算法,即能夠強行保證請求的實時處理速度不會超過設置的閾值,感興趣的朋友跟隨小編一起看看吧
    2022-05-05
  • 一些優(yōu)化Nginx服務器的技巧簡介

    一些優(yōu)化Nginx服務器的技巧簡介

    這篇文章主要介紹了一些優(yōu)化Nginx服務器的技巧簡介,包括對HTTP模塊和Events模塊的配置建議,需要的朋友可以參考下
    2015-06-06
  • Nginx使用Lua模塊實現WAF的原理解析

    Nginx使用Lua模塊實現WAF的原理解析

    waf是通過執(zhí)行一系列針對HTTP/HTTPS的安全策略來專門為Web應用提供保護的一款產品,本文重點給大家介紹Nginx使用Lua模塊實現WAF的原理,需要的朋友參考下吧
    2021-09-09
  • 在Linux中查看Apache或Nginx服務狀態(tài)的詳細步驟

    在Linux中查看Apache或Nginx服務狀態(tài)的詳細步驟

    在Linux中,查看Apache或Nginx服務的狀態(tài)通常涉及到使用系統管理工具或特定于這些Web服務器的命令,以下是如何查看Apache和Nginx服務狀態(tài)的詳細步驟,需要的朋友可以參考下
    2024-03-03
  • 淺談nginx反向代理中神奇的斜線

    淺談nginx反向代理中神奇的斜線

    這篇文章主要介紹了淺談nginx反向代理中神奇的斜線,小編覺得挺不錯的,現在分享給大家,也給大家做個參考。一起跟隨小編過來看看吧
    2018-09-09
  • Centos 6.5 64位中Nginx詳細安裝部署教程

    Centos 6.5 64位中Nginx詳細安裝部署教程

    Nginx是一個web服務器也可以用來做負載均衡及反向代理使用,目前使用最多的就是負載均衡,具體簡介我就不介紹了百度一下有很多,下面直接進入安裝步驟,需要的朋友可以參考下
    2017-08-08
  • CentOS環(huán)境下Nginx配置SSL證書實現https請求詳解

    CentOS環(huán)境下Nginx配置SSL證書實現https請求詳解

    這篇文章主要為大家介紹了Nginx實戰(zhàn)-配置SSL證書(CentOS環(huán)境),實現https請求過程步驟,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進步,早日升職加薪
    2023-05-05

最新評論