k8s集群搭建的完整步驟流程
一、環(huán)境準(zhǔn)備
1.1 集群類型
- Kubernetes集群大致分為兩類:一主多從和多主多從。
- 一主多從:一個Master節(jié)點(diǎn)和多臺Node節(jié)點(diǎn),搭建簡單,但是有單機(jī)故障風(fēng)險,適合用于測試環(huán)境。
- 多主多從:多臺Master和多臺Node節(jié)點(diǎn),搭建麻煩,安全性高,適合用于生產(chǎn)環(huán)境。
1.2 安裝方式
- kubernetes有多種部署方式,目前主流的方式有kubeadm、minikube、二進(jìn)制包。
- minikube:一個用于快速搭建單節(jié)點(diǎn)的kubernetes工具。
- kubeadm:一個用于快速搭建kubernetes集群的工具。
- 二進(jìn)制包:從官網(wǎng)上下載每個組件的二進(jìn)制包,依次去安裝,此方式對于理解kubernetes組件更加有效。
- 本次為了安裝方便,選擇使用kubeadm方式。
1.3 主機(jī)規(guī)劃
- 本次搭建一主一從集群:
| 主機(jī)名 | IP地址 | 操作系統(tǒng) | 配置 |
|---|---|---|---|
| master | 192.168.247.100 | CentOS7.8+,基礎(chǔ)設(shè)施服務(wù)器 | 2核CPU,2G內(nèi)存,50G硬盤 |
| node1 | 192.168.247.101 | CentOS7.8+,基礎(chǔ)設(shè)施服務(wù)器 | 2核CPU,2G內(nèi)存,50G硬盤 |
1.4 環(huán)境配置
- 注:無特殊說明,每臺機(jī)器都需要執(zhí)行。
1.4.1 說明
- 需要兩臺CentOS服務(wù)器(一主一從),然后在每臺服務(wù)器中分別安裝Docker(18.06.3)、kubeadm(1.18.0)、kubectl(1.18.0)和kubelet(1.18.0)。
1.4.2 初始化
- 檢查操作系統(tǒng)的版本(要求操作系統(tǒng)的版本至少在7.5以上)
cat /etc/redhat-release

1.4.3 關(guān)閉防火墻和禁止防火墻開機(jī)啟動
systemctl stop firewalld
systemctl disable firewalld
systemctl status firewalld

1.4.4 設(shè)置主機(jī)名
- 192.168.247.100:
hostnamectl set-hostname master

- 192.168.247.101:
hostnamectl set-hostname node1

1.4.5 主機(jī)名解析
- 為了方便后面集群節(jié)點(diǎn)間的直接調(diào)用,需要配置一下主機(jī)名解析,企業(yè)中推薦使用內(nèi)部的DNS服務(wù)器。
cat >> /etc/hosts << EOF 192.168.247.100 master 192.168.247.101 node1 EOF


1.4.6 時間同步
- kubernetes要求集群中的節(jié)點(diǎn)時間必須精確一致,所以在每個節(jié)點(diǎn)上添加時間同步
yum install ntpdate -y
ntpdate time.windows.com
1.4.7 關(guān)閉selinux
sed -i 's/enforcing/disabled/' /etc/selinux/config
1.4.8 關(guān)閉swap分區(qū)
sed -ri 's/.*swap.*/#&/' /etc/fstab
1.4.9 將橋接的IPv4流量傳遞到iptables的鏈
- 在每個節(jié)點(diǎn)上將橋接的IPv4流量傳遞到iptables的鏈:
cat > /etc/sysctl.d/k8s.conf << EOF net.bridge.bridge-nf-call-ip6tables = 1 net.bridge.bridge-nf-call-iptables = 1 net.ipv4.ip_forward = 1 vm.swappiness = 0 EOF
# 加載br_netfilter模塊 modprobe br_netfilter
# 查看是否加載 lsmod | grep br_netfilter
# 生效 sysctl --system
1.4.10 開啟ipvs
- 在kubernetes中service有兩種代理模型,一種是基于iptables,另一種是基于ipvs的。ipvs的性能要高于iptables的,但是如果要使用它,需要手動載入ipvs模塊。
- 在每個節(jié)點(diǎn)安裝ipset和ipvsadm:
yum -y install ipset ipvsadm
cat > /etc/sysconfig/modules/ipvs.modules <<EOF #!/bin/bash modprobe -- ip_vs modprobe -- ip_vs_rr modprobe -- ip_vs_wrr modprobe -- ip_vs_sh modprobe -- nf_conntrack_ipv4 EOF
- 授權(quán)、運(yùn)行、檢查是否加載:
chmod 755 /etc/sysconfig/modules/ipvs.modules && bash /etc/sysconfig/modules/ipvs.modules && lsmod | grep -e ip_vs -e nf_conntrack_ipv4
- 檢查是否加載:
lsmod | grep -e ipvs -e nf_conntrack_ipv4
1.4.11 重啟機(jī)器
reboot
二、集群部署(每個節(jié)點(diǎn)安裝Docker、kubeadm、kubelet和kubectl)
2.1 安裝Docker
- 安裝docker
wget https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo -O /etc/yum.repos.d/docker-ce.repo
yum -y install docker-ce-18.06.3.ce-3.el7
systemctl enable docker && systemctl start docker
docker version

- 設(shè)置Docker鏡像加速器:
sudo mkdir -p /etc/docker
sudo tee /etc/docker/daemon.json <<-'EOF'
{
"exec-opts": ["native.cgroupdriver=systemd"],
"registry-mirrors": [
"https://docker.1ms.run",
"https://docker.xuanyuan.me"
],
"live-restore": true,
"log-driver":"json-file",
"log-opts": {"max-size":"500m", "max-file":"3"},
"storage-driver": "overlay2"
}
EOF
sudo systemctl daemon-reload
sudo systemctl restart docker

- 添加阿里云的YUM軟件源:
cat > /etc/yum.repos.d/kubernetes.repo << EOF [kubernetes] name=Kubernetes baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64 enabled=1 gpgcheck=0 repo_gpgcheck=0 gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg EOF
2.2 安裝kubeadm、kubelet和kubectl
- 由于版本更新頻繁,這里指定版本號部署:
yum install -y kubelet-1.18.0 kubeadm-1.18.0 kubectl-1.18.0
- 為了實(shí)現(xiàn)Docker使用的cgroup drvier和kubelet使用的cgroup drver一致,建議修改"/etc/sysconfig/kubelet"文件的內(nèi)容:
vim /etc/sysconfig/kubelet
# 修改 KUBELET_EXTRA_ARGS="--cgroup-driver=systemd" KUBE_PROXY_MODE="ipvs"
- 設(shè)置為開機(jī)自啟動即可,由于沒有生成配置文件,集群初始化后自動啟動:
systemctl enable kubelet
2.3 查看k8s所需鏡像
kubeadm config images list

2.4 部署k8s的Master節(jié)點(diǎn)
- 192.168.247.100節(jié)點(diǎn):
# 由于默認(rèn)拉取鏡像地址k8s.gcr.io國內(nèi)無法訪問,這里需要指定阿里云鏡像倉庫地址 kubeadm init \ --apiserver-advertise-address=192.168.247.100 \ --image-repository registry.aliyuncs.com/google_containers \ --kubernetes-version v1.18.0 \ --service-cidr=10.96.0.0/12 \ --pod-network-cidr=10.244.0.0/16


- 根據(jù)提示消息,在Master節(jié)點(diǎn)上使用kubectl工具:
mkdir -p $HOME/.kube sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config sudo chown $(id -u):$(id -g) $HOME/.kube/config
2.5 部署k8s的Node節(jié)點(diǎn)
- 根據(jù)提示,在192.168.247.101上添加如下的命令(注意:這個token有效期為2小時):
kubeadm join 192.168.247.100:6443 --token dpbosb.qqncela7m50u465p \
--discovery-token-ca-cert-hash sha256:8967b327f3d8aea766ca6e076b34adab84351efc30d9b162fff18204b12282db


2.6 部署網(wǎng)絡(luò)插件
- 根據(jù)提示,在Master節(jié)點(diǎn)上使用kubectl工具查看節(jié)點(diǎn)狀態(tài):
kubectl get nodes

- 在Master節(jié)點(diǎn)上獲取flannel配置文件(可能會失敗,如果失敗,請下載到本地,然后安裝):
wget https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml

- 使用配置文件啟動flannel:
kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml

- 查看部署CNI網(wǎng)絡(luò)插件進(jìn)度:
kubectl get pods -n kube-system

- 再次在Master節(jié)點(diǎn)使用kubectl工具查看節(jié)點(diǎn)狀態(tài)(均為Ready狀態(tài)):
kubectl get nodes

- 查看集群健康狀況:
kubectl get cs

kubectl cluster-info

三、服務(wù)部署
- 在k8s中部署一個nginx程序,測試是否集群正常工作
3.1 kubectl創(chuàng)建nginx鏡像
kubectl create deployment nginx --image=nginx:1.14-alpine

3.2 暴露端口
kubectl expose deployment nginx --port=80 --type=NodePort
- 查看狀態(tài):
kubectl get pods,svc

3.3 本地訪問nginx頁面

四、集群重置
4.1 master節(jié)點(diǎn)
- 在master節(jié)點(diǎn)執(zhí)行reset命令,選擇y:
kubeadm reset

- 手動清除配置信息:
cd ~ 進(jìn)入根目錄 ll -a 查看是否存在.kube文件 rm -rf /root/.kube systemctl restart docker ## 重啟docker systemctl restart kubelet ## 重啟kubelet rm -rf /etc/cni/net.d
做完上述操作后,就可執(zhí)行2.4章節(jié)集群初始化操作,開始重新初始化。
4.2 工作節(jié)點(diǎn)
- 重置工作節(jié)點(diǎn),在node節(jié)點(diǎn)執(zhí)行reset命令,選擇y:
kubeadm reset

- 手動刪除目錄:
rm -rf /root/.kube rm -rf /etc/cni/net.d rm -rf /etc/kubernetes/*
- 重新加入集群
即2.5章節(jié),重新部署node節(jié)點(diǎn)。
總結(jié)
到此這篇關(guān)于k8s集群搭建的文章就介紹到這了,更多相關(guān)k8s集群搭建內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
k8s?pod和service網(wǎng)絡(luò)暴露詳解
這篇文章主要介紹了借助iptables的路由轉(zhuǎn)發(fā)功能,打通k8s集群內(nèi)的pod和service網(wǎng)絡(luò),與外部網(wǎng)絡(luò)聯(lián)通,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步,早日升職加薪2023-11-11
淺析k8s中各組件和kube?apiserver通信時的認(rèn)證和鑒權(quán)問題
這篇文章主要介紹了k8s中各組件和kube?apiserver通信時的認(rèn)證和鑒權(quán),本文使用的k8s集群是用kubekey搭建,命令是./kk create cluster --with-kubernetes v1.21.5 --with-kubesphere v3.2.1,需要的朋友可以參考下2022-06-06
kubernetes之statefulset搭建MySQL集群
這篇文章主要為大家介紹了kubernetes之statefulset搭建MySQL集群示例詳解,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步,早日升職加薪2023-04-04
一文詳解基于Kubescape進(jìn)行Kubernetes安全加固
這篇文章主要為大家介紹了基于Kubescape進(jìn)行Kubernetes安全加固詳解,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步,早日升職加薪2023-02-02
使用k8tz解決pod內(nèi)的時區(qū)問題(坑的解決)
時區(qū)的不一致,會帶來很多困擾。即使代碼與時區(qū)無關(guān),但容器日志與系統(tǒng)日志時間相關(guān)聯(lián)排查問題也會讓人頭疼,這篇文章主要介紹了使用k8tz優(yōu)雅的解決pod內(nèi)的時區(qū)問題,需要的朋友可以參考下2022-10-10
Centos?8.2?升級內(nèi)核通過elrepo源的方法
這篇文章主要介紹了Centos?8.2?升級內(nèi)核通過elrepo源,本文給大家介紹的非常詳細(xì),對大家的學(xué)習(xí)或工作具有一定的參考借鑒價值,需要的朋友可以參考下2022-10-10

