淺談Docker consul的容器服務更新與發(fā)現
一、什么是服務注冊與發(fā)現
服務注冊與發(fā)現是微服務架構中不可或缺的重要組件。起初服務都是單節(jié)點的,不保障高可用性,也不考慮服務的壓力承載,服務之間調用單純的通過接口訪問。直到后來出現了多個節(jié)點的分布式架構,起初的解決手段是在服務前端負載均衡,這樣前端必須要知道所有后端服務的網絡位置,并配置在配置文件中。這里就會有幾個問題:
如果需要調用后端服務A-N,就需要配置N個服務的網絡位置,配置很麻煩后端服務的網絡位置變化,都需要改變每個調用者的配置
既然有這些問題,那么服務注冊與發(fā)現就是解決這些問題的。后端服務A-N可以把當前自己的網絡位置注冊到服務發(fā)現模塊,服務發(fā)現就以K-V的方式記錄下來,K一般是服務名,V就是IP:PORT。服務發(fā)現模塊定時的進行健康檢查,輪詢查看這些后端服務能不能訪問的了。前端在調用后端服務A-N的時候,就跑去服務發(fā)現模塊問下它們的網絡位置,然后再調用它們的服務。這樣的方式就可以解決上面的問題了,前端完全不需要記錄這些后端服務的網絡位置,前端和后端完全解耦!
二、什么是consul
consul是google開源的一個使用go語言開發(fā)的服務管理軟件。支持多數據中心、分布式高可用的、服務發(fā)現和配置共享。采用Raft算法,用來保證服務的高可用。內置了服務注冊與發(fā)現框架、分布一致性協議實現、健康檢查、Key/Value存儲、多數據中心方案,不再需要依賴其他工具(比如ZooKeeper等)。服務部署簡單,只有一個可運行的二進制的包。每個節(jié)點都需要運行agent,他有兩種運行模式server 和 client。 每個數據中心官方建議需要3或5個server節(jié)點以保證數據安全,同時保證server-leader的選舉能夠正確的進行。
在client模式下,所有注冊到當前節(jié)點的服務會被轉發(fā)到server節(jié)點,本身是不持久化這些信息。
在server模式下,功能和client模式相似,唯一不同的是,它會把所有的信息持久化到本地,這樣遇到故障,信息是可以被保留的。
server-leader是所有server節(jié)點的老大,它和其它server節(jié)點不同的是,它需要負責同步注冊的信息給其它的server節(jié)點,同時也要負責各個節(jié)點的健康監(jiān)測。
consul提供的一些關鍵特性:
- 服務注冊與發(fā)現:consul通過DNS或者HTTP接口使服務注冊和服務發(fā)現變的很容易,一些外部服務,例如saas提供的也可以一樣注冊。
- 健康檢查:健康檢測使consul可以快速的告警在集群中的操作。和服務發(fā)現的集成,可以防止服務轉發(fā)到故障的服務上面。
- Key/Value存儲:一個用來存儲動態(tài)配置的系統(tǒng)。提供簡單的HTTP接口,可以在任何地方操作。
- 多數據中心:無需復雜的配置,即可支持任意數量的區(qū)域。
安裝consul是用于服務注冊,也就是容器本身的一些信息注冊到consul里面,其他程序可以通過consul獲取注冊的相關服務信息,這就是服務注冊與發(fā)現。
三、consul 部署
環(huán)境準備
consul服務器 192.168.154.11 運行consul服務、nginx服務、consul-template守護進程
registrator服務器 192.168.154.10 運行registrator容器、運行nginx容器
1. 建立 Consul 服務(consul服務器)
mkdir /opt/consul cp consul_0.9.2_linux_amd64.zip /opt/consul cd /opt/consul unzip consul_0.9.2_linux_amd64.zip mv consul /usr/local/bin/ #設置代理,在后臺啟動 consul 服務端 consul agent \ -server \ -bootstrap \ -ui \ -data-dir=/var/lib/consul-data \ -bind=192.168.154.11 \ -client=0.0.0.0 \ -node=consul-server01 &> /var/log/consul.log &
- -server: 以server身份啟動。默認是client。
- -bootstrap :用來控制一個server是否在bootstrap模式,在一個數據中心中只能有一個server處于bootstrap模式,當一個server處于 bootstrap模式時,可以自己選舉為 server-leader。
- -bootstrap-expect=2 :集群要求的最少server數量,當低于這個數量,集群即失效。
- -ui :指定開啟 UI 界面,這樣可以通過 http://localhost:8500/ui 這樣的地址訪問 consul 自帶的 web UI 界面。
- -data-dir :指定數據存儲目錄。
- -bind :指定用來在集群內部的通訊地址,集群內的所有節(jié)點到此地址都必須是可達的,默認是0.0.0.0。
- -client :指定 consul 綁定在哪個 client 地址上,這個地址提供 HTTP、DNS、RPC 等服務,默認是 127.0.0.1。
- -node :節(jié)點在集群中的名稱,在一個集群中必須是唯一的,默認是該節(jié)點的主機名。
- -datacenter :指定數據中心名稱,默認是dc1。
netstat -lntp | grep consul
啟動consul后默認會監(jiān)聽5個端口:
- 8300:replication、leade r farwarding的端口,集群內數據的讀寫和復制
- 8301:lan cossip的端口,單個數據中心gossip協議通訊
- 8302:wan gossip的端口,跨數據中心gossip協議通訊
- 8500:web ui界面的端口,提供獲取服務列表、注冊服務、注銷服務等HTTP接口;提供UI服務
- 8600:使用dns協議查看節(jié)點信息的端口,采用DNS協議提供服務發(fā)現功能
2. 查看集群信息
#查看members狀態(tài) consul members Node Address Status Type Build Protocol DC consul-server01 192.168.154.11:8301 alive server 0.9.2 2 dc1 #查看集群狀態(tài) consul operator raft list-peers Node ID Address State Voter RaftProtocol consul-server01 192.168.154.11:8300 192.168.154.11:8300 leader true 2
consul info | grep leader leader = true leader_addr = 192.168.154.11:8300
3. 通過 http api 獲取集群信息
curl 127.0.0.1:8500/v1/status/peers #查看集群server成員 curl 127.0.0.1:8500/v1/status/leader #集群 server-leader curl 127.0.0.1:8500/v1/catalog/services #注冊的所有服務 curl 127.0.0.1:8500/v1/catalog/nginx #查看 nginx 服務信息 curl 127.0.0.1:8500/v1/catalog/nodes #集群節(jié)點詳細信息
4. 部署registrator服務器
容器服務自動加入 Nginx 集群
1. 安裝 Gliderlabs/Registrator
Gliderlabs/Registrator 可檢查容器運行狀態(tài)自動注冊,還可注銷 docker 容器的服務到服務配置中心。目前支持 Consul、Etcd 和 SkyDNS2。
#確保docker服務運行 systemctl status docker
docker pull gliderlabs/registrator
docker run -d \ --name=registrator \ --net=host \ -v /var/run/docker.sock:/tmp/docker.sock \ --restart=always \ gliderlabs/registrator:latest \ --ip=192.168.154.10 \ consul://192.168.154.11:8500
- –net=host :把運行的docker容器設定為host網絡模式。
- -v /var/run/docker.sock:/tmp/docker.sock :把宿主機的Docker守護進程(Docker daemon)默認監(jiān)聽的Unix域套接字掛載到容器中。
- –restart=always :設置在容器退出時總是重啟容器。
- –ip :剛才把network指定了host模式,所以我們指定ip為宿主機的ip。
- consul :指定consul服務器的IP和端口。
用瀏覽器訪問 http://192.168.154.11:8500
創(chuàng)建兩個nginx的容器
docker run -itd --name c1 -p 1314:80 nginx:1.14 docker run -itd --name c1 -p 1315:80 nginx:1.14 docker ps -a
刪除c2的nginx容器
docker rm -f c2
5. 配置consul-template
Consul-Template是基于Consul的自動替換配置文件的應用。Consul-Template是一個守護進程,用于實時查詢Consul集群信息,并更新文件系統(tǒng)上任意數量的指定模板,生成配置文件。更新完成以后,可以選擇運行 shell 命令執(zhí)行更新操作,重新加載 Nginx。
Consul-Template可以查詢Consul中的服務目錄、Key、Key-values 等。這種強大的抽象功能和查詢語言模板可以使 Consul-Template 特別適合動態(tài)的創(chuàng)建配置文件。例如:創(chuàng)建Apache/Nginx Proxy Balancers 、 Haproxy Backends等。
部署環(huán)境
docker run -itd --name c2 -p 1315:80 nginx:1.14 docker run -itd --name c3 -p 1316:80 nginx:1.14 docker run -itd --name c4 -p 1317:80 nginx:1.14
也可以在 consul 服務器上查看注冊了哪些應用
curl 127.0.0.1:8500/v1/catalog/services
再到 registrator 服務器注冊兩個容器
docker run -itd --name myapp01 -p 2324:80 nginx:1.14 docker run -itd --name myapp02 -p 2325:80 nginx:1.14
6. 準備 template nginx 模板文件
開啟一臺Nginx服務器,修改配置文件
cd /etc/nginx/ vim nginx.conf ... include /etc/nginx/consul/*.conf; ... nginx -t mkdir /etc/nginx/consul systemctl restart nginx
#準備 template nginx 模板文件 cd /opt mkdir consul cd consul/ vim nginx.ctmpl stream { upstream backend { {{range service "nginx"}} server {{.Address}}:{{.Port}}; {{end}} } server { listen 8080; proxy_pass backend; } }
配置并啟動 template
consul-template --consul-addr 192.168.154.11:8500 --template "/opt/consul/nginx.ctmpl:/etc/nginx/consul/consul_nginx.conf:/usr/sbin/nginx -s reload" --log-level info
- –consul-addr 指定consul服務端地址
- –template 指定格式,第一個字段是編輯模板文件的所在位置,第二個字段要把模板文件生成的temp文件存放在哪個目錄的位置并命名,第三個字段nginx加載
- –log-level 日志級別 info打印 &前臺運行
在另外開啟Nginx服務器的進程查看生成配置文件
cd /etc/nginx/consul/ cat consul_nginx.conf
驗證Consul-Template效果,先到 registrator 服務器刪除節(jié)點,查看是否實現自動更新
docker ps -a docker rm -f c4 docker rm -f c3
瀏覽器訪問 http://192.168.154.11:8500
再到nginx服務器查看生成的temp文件的內容
實現了自動更新
到 registrator 服務器增加節(jié)點,查看是否實現自動更新
docker run -itd --name c3 -p 5520:80 nginx:1.14 docker run -itd --name c4 -p 5521:80 nginx:1.14
** registrator 服務器到c1、c2、c3、c4容器里創(chuàng)建網頁文件**
docker exec -it c1 bash cd /usr/share/nginx/html/ echo '<h1>this is c1 test web</h1>' > index.html exit docker exec -it c2 bash cd /usr/share/nginx/html/ echo '<h1>this is c2 test web</h1>' > index.html exit docker exec -it c3 bash cd /usr/share/nginx/html/ echo '<h1>this is c3 test web</h1>' > index.html exit docker exec -it c4 bash cd /usr/share/nginx/html/ echo '<h1>this is c4 test web</h1>' > index.html exit
實現了負載均衡
7. consul 多節(jié)點
添加一臺已有docker環(huán)境的服務器192.168.154.10/24及192.168.154.12/24加入已有的群集192.168.154.11/24中
192.168.154.10及192.168.154.12部署consul 服務
#192.168.154.10 consul agent \ -server \ -ui \ -data-dir=/var/lib/consul-data \ -bind=192.168.154.10 \ -client=0.0.0.0 \ -node=consul-server02 \ -enable-script-checks=true \ -datacenter=dc1 \ -join 192.168.154.11 &> /var/log/consul.log &
#192.168.154.12 consul agent \ -server \ -ui \ -data-dir=/var/lib/consul-data \ -bind=192.168.154.12 \ -client=0.0.0.0 \ -node=consul-server03 \ -enable-script-checks=true \ -datacenter=dc1 \ -join 192.168.154.11 &> /var/log/consul.log &
- -enable-script-checks=true :設置檢查服務為可用
- -datacenter : 數據中心名稱
- -join :加入到已有的集群中
#consul服務器192.168.154.11 consul members consul operator raft list-peers
關閉consul
#192.168.154.10consul leave
consul服務器192.168.154.11查看群集
consul operator raft list-peers
到此這篇關于淺談Docker consul的容器服務更新與發(fā)現的文章就介紹到這了,更多相關Docker consul服務更新與發(fā)現內容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關文章希望大家以后多多支持腳本之家!
相關文章
PVE下擴展openwrt?for?x86分區(qū)大小方式
本文介紹了在PVE環(huán)境下如何對OpenWRT虛擬機的分區(qū)進行擴容,包括磁盤調整、軟件安裝、分區(qū)配置和系統(tǒng)引導等步驟,操作前需做好備份,以防數據丟失2024-10-10centos7安裝/升級docker和docker compose方式
文章總結了在升級Docker和安裝Docker Compose時遇到的問題,包括舊版安裝和新版安裝的差異、docker-compose的安裝問題以及卸載前的注意事項2024-12-12docker-compose管理容器network與ip問題
這篇文章主要介紹了docker-compose管理容器network與ip問題,具有很好的參考價值,希望對大家有所幫助,如有錯誤或未考慮完全的地方,望不吝賜教2024-01-01Mac下部署springBoot項目到Docker中(demo)
本文通過一個簡單的demo給大家分享Mac下部署springBoot項目到Docker的方法,感興趣的朋友一起看看吧2018-01-01基于Docker的PHP調用基于Docker的Mysql數據庫
Docker 是一個開源的應用容器引擎,自從接觸docker以來,一直想建立基于Docker的PHP調用基于Docker的Mysql數據庫,下面通過本文給大家介紹下,感興趣的朋友參考下2016-11-11