欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

skywalking容器化部署docker鏡像構(gòu)建k8s從測試到可用

 更新時間:2022年03月01日 09:32:52   作者:kl  
這篇文章主要為大家介紹了skywalking容器化部署docker鏡像構(gòu)建k8s從測試到可用的構(gòu)建部署過程,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進步

前言碎語

skywalking是個非常不錯的apm產(chǎn)品,但是在使用過程中有個非常蛋疼的問題,在基于es的存儲情況下,es的數(shù)據(jù)一有問題,就會導致整個skywalking web ui服務(wù)不可用,然后需要agent端一個服務(wù)一個服務(wù)的停用,然后服務(wù)重新部署后好,全部走一遍。這種問題同樣也會存在skywalking的版本升級迭代中。而且apm 這種過程數(shù)據(jù)是允許丟棄的,默認skywalking中關(guān)于trace的數(shù)據(jù)記錄只保存了90分鐘。故博主準備將skywalking的部署容器化,一鍵部署升級。下文是整個skywalking 容器化部署的過程。

目標:將skywalking的docker鏡像運行在k8s的集群環(huán)境中提供服務(wù)

docker鏡像構(gòu)建

FROM registry.cn-xx.xx.com/keking/jdk:1.8
ADD apache-skywalking-apm-incubating/  /opt/apache-skywalking-apm-incubating/
RUN ln -sf /usr/share/zoneinfo/Asia/Shanghai  /etc/localtime \
    && echo 'Asia/Shanghai' >/etc/timezone \
    && chmod +x /opt/apache-skywalking-apm-incubating/config/setApplicationEnv.sh \
    && chmod +x /opt/apache-skywalking-apm-incubating/webapp/setWebAppEnv.sh \
    && chmod +x /opt/apache-skywalking-apm-incubating/bin/startup.sh \
    && echo "tail -fn 100 /opt/apache-skywalking-apm-incubating/logs/webapp.log" >> /opt/apache-skywalking-apm-incubating/bin/startup.sh

EXPOSE 8080 10800 11800 12800
CMD /opt/apache-skywalking-apm-incubating/config/setApplicationEnv.sh \
     && sh /opt/apache-skywalking-apm-incubating/webapp/setWebAppEnv.sh \
     && /opt/apache-skywalking-apm-incubating/bin/startup.sh

在編寫Dockerfile時需要考慮幾個問題:skywalking中哪些配置需要動態(tài)配置(運行時設(shè)置)?怎么保證進程一直運行(skywalking 的startup.sh和tomcat中 的startup.sh類似)?

application.yml

#cluster:
#  zookeeper:
#    hostPort: localhost:2181
#    sessionTimeout: 100000
naming:
  jetty:
    #OS real network IP(binding required), for agent to find collector cluster
    host: 0.0.0.0
    port: 10800
    contextPath: /
cache:
#  guava:
  caffeine:
remote:
  gRPC:
    # OS real network IP(binding required), for collector nodes communicate with each other in cluster. collectorN --(gRPC) --> collectorM
    host: #real_host
    port: 11800
agent_gRPC:
  gRPC:
    #os real network ip(binding required), for agent to uplink data(trace/metrics) to collector. agent--(grpc)--> collector
    host: #real_host
    port: 11800
    # Set these two setting to open ssl
    #sslCertChainFile: $path
    #sslPrivateKeyFile: $path

    # Set your own token to active auth
    #authentication: xxxxxx
agent_jetty:
  jetty:
    # OS real network IP(binding required), for agent to uplink data(trace/metrics) to collector through HTTP. agent--(HTTP)--> collector
    # SkyWalking native Java/.Net/node.js agents don't use this.
    # Open this for other implementor.
    host: 0.0.0.0
    port: 12800
    contextPath: /
analysis_register:
  default:
analysis_jvm:
  default:
analysis_segment_parser:
  default:
    bufferFilePath: ../buffer/
    bufferOffsetMaxFileSize: 10M
    bufferSegmentMaxFileSize: 500M
    bufferFileCleanWhenRestart: true
ui:
  jetty:
    # Stay in `localhost` if UI starts up in default mode.
    # Change it to OS real network IP(binding required), if deploy collector in different machine.
    host: 0.0.0.0
    port: 12800
    contextPath: /
storage:
  elasticsearch:
    clusterName: #elasticsearch_clusterName
    clusterTransportSniffer: true
    clusterNodes: #elasticsearch_clusterNodes
    indexShardsNumber: 2
    indexReplicasNumber: 0
    highPerformanceMode: true
    # Batch process setting, refer to https://www.elastic.co/guide/en/elasticsearch/client/java-api/5.5/java-docs-bulk-processor.html
    bulkActions: 2000 # Execute the bulk every 2000 requests
    bulkSize: 20 # flush the bulk every 20mb
    flushInterval: 10 # flush the bulk every 10 seconds whatever the number of requests
    concurrentRequests: 2 # the number of concurrent requests
    # Set a timeout on metric data. After the timeout has expired, the metric data will automatically be deleted.
    traceDataTTL: 2880 # Unit is minute
    minuteMetricDataTTL: 90 # Unit is minute
    hourMetricDataTTL: 36 # Unit is hour
    dayMetricDataTTL: 45 # Unit is day
    monthMetricDataTTL: 18 # Unit is month
#storage:
#  h2:
#    url: jdbc:h2:~/memorydb
#    userName: sa
configuration:
  default:
    #namespace: xxxxx
    # alarm threshold
    applicationApdexThreshold: 2000
    serviceErrorRateThreshold: 10.00
    serviceAverageResponseTimeThreshold: 2000
    instanceErrorRateThreshold: 10.00
    instanceAverageResponseTimeThreshold: 2000
    applicationErrorRateThreshold: 10.00
    applicationAverageResponseTimeThreshold: 2000
    # thermodynamic
    thermodynamicResponseTimeStep: 50
    thermodynamicCountOfResponseTimeSteps: 40
    # max collection's size of worker cache collection, setting it smaller when collector OutOfMemory crashed.
    workerCacheMaxSize: 10000
#receiver_zipkin:
#  default:
#    host: localhost
#    port: 9411
#    contextPath: /

webapp.yml

server:
  port: 8080
collector:
  path: /graphql
  ribbon:
    ReadTimeout: 10000
    listOfServers: #real_host:10800
security:
  user:
    admin:
      password: #skywalking_password

動態(tài)配置:密碼,grpc等需要綁定主機的ip都需要運行時設(shè)置,這里我們在啟動skywalking的startup.sh只之前,先執(zhí)行了兩個設(shè)置配置的腳本,通過k8s在運行時設(shè)置的環(huán)境變量來替換需要動態(tài)配置的參數(shù)

setApplicationEnv.sh

#!/usr/bin/env sh
sed -i "s/#elasticsearch_clusterNodes/${elasticsearch_clusterNodes}/g" /opt/apache-skywalking-apm-incubating/config/application.yml
sed -i "s/#elasticsearch_clusterName/${elasticsearch_clusterName}/g" /opt/apache-skywalking-apm-incubating/config/application.yml
sed -i "s/#real_host/${real_host}/g" /opt/apache-skywalking-apm-incubating/config/application.yml

setWebAppEnv.sh

#!/usr/bin/env sh
sed -i "s/#skywalking_password/${skywalking_password}/g" /opt/apache-skywalking-apm-incubating/webapp/webapp.yml
sed -i "s/#real_host/${real_host}/g" /opt/apache-skywalking-apm-incubating/webapp/webapp.yml

保持進程存在:通過在skywalking 啟動腳本startup.sh末尾追加"tail -fn 100 /opt/apache-skywalking-apm-incubating/logs/webapp.log",來讓進程保持運行,并不斷輸出webapp.log的日志

Kubernetes中部署

apiVersion: extensions/v1beta1
kind: Deployment
metadata:
  name: skywalking
  namespace: uat
spec:
  replicas: 1
  selector:
    matchLabels:
      app: skywalking
  template:
    metadata:
      labels:
        app: skywalking
    spec:
      imagePullSecrets:
      - name: registry-pull-secret
      nodeSelector:
         apm: skywalking
      containers:
      - name: skywalking
        image: registry.cn-xx.xx.com/keking/kk-skywalking:5.2
        imagePullPolicy: Always
        env:
        - name: elasticsearch_clusterName
          value: elasticsearch
        - name: elasticsearch_clusterNodes
          value: 172.16.16.129:31300
        - name: skywalking_password
          value: xxx
        - name: real_host
          valueFrom:
            fieldRef:
              fieldPath: status.podIP
        resources:
          limits:
            cpu: 1000m
            memory: 4Gi
          requests:
            cpu: 700m
            memory: 2Gi

---
apiVersion: v1
kind: Service
metadata:
  name: skywalking
  namespace: uat
  labels:
    app: skywalking
spec:
  selector:
    app: skywalking
  ports:
  - name: web-a
    port: 8080
    targetPort: 8080
    nodePort: 31180
  - name: web-b
    port: 10800
    targetPort: 10800
    nodePort: 31181
  - name: web-c
    port: 11800
    targetPort: 11800
    nodePort: 31182
  - name: web-d
    port: 12800
    targetPort: 12800
    nodePort: 31183
  type: NodePort

Kubernetes部署腳本中唯一需要注意的就是env中關(guān)于pod ip的獲取,skywalking中有幾個ip必須綁定容器的真實ip,這個地方可以通過環(huán)境變量設(shè)置到容器里面去

文末結(jié)語

整個skywalking容器化部署從測試到可用大概耗時1天,其中花了個多小時整了下譚兄的skywalking-docker鏡像(https://hub.docker.com/r/wutang/skywalking-docker/),發(fā)現(xiàn)有個腳本有權(quán)限問題(譚兄反饋已解決,還沒來的及測試),以及有幾個地方自己不是很好控制,便build了自己的docker鏡像,其中最大的問題還是解決集群中網(wǎng)絡(luò)通訊的問題,一開始我把skywalking中的服務(wù)ip都設(shè)置為0.0.0.0,然后通過集群的nodePort映射出來,這個時候的agent通過集群ip+31181是可以訪問到naming服務(wù)的,然后通過naming服務(wù)獲取到的collector gRPC服務(wù)缺變成了0.0.0.0:11800, 這個地址agent肯定訪問不到collector的,后面通過綁定pod ip的方式解決了這個問題。

以上就是skywalking容器化部署docker鏡像構(gòu)建k8s從測試到可用的詳細內(nèi)容,更多關(guān)于skywalking容器化部署docker鏡像構(gòu)建k8s的資料請關(guān)注腳本之家其它相關(guān)文章!

相關(guān)文章

  • docker 拉取鏡像出錯的問題解決

    docker 拉取鏡像出錯的問題解決

    當Docker拉取鏡像遇到網(wǎng)絡(luò)錯誤時,通常是因為鏡像源無法訪問,解決此問題可通過修改Docker的配置文件/etc/docker/daemon.json,設(shè)置一個可用的鏡像加速地址,修改后重新加載配置并重啟Docker服務(wù)即可,這樣可以提高拉取速度和成功率,避免因網(wǎng)絡(luò)問題導致的鏡像拉取失敗
    2024-10-10
  • docker鏡像拉取速度過慢的解決方案

    docker鏡像拉取速度過慢的解決方案

    這篇文章主要介紹了docker鏡像拉取速度過慢的解決方案,具有很好的參考價值,希望對大家有所幫助,如有錯誤或未考慮完全的地方,望不吝賜教
    2023-12-12
  • Docker 拉取鏡像及標簽操作 pull | tag

    Docker 拉取鏡像及標簽操作 pull | tag

    這篇文章主要介紹了Docker 拉取鏡像及標簽操作 pull | tag,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2020-11-11
  • 在Docker中安裝Elasticsearch7.6.2的教程

    在Docker中安裝Elasticsearch7.6.2的教程

    這篇文章主要介紹了在Docker中安裝Elasticsearch7.6.2的教程,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2020-11-11
  • Docker 鏡像加速器的方法

    Docker 鏡像加速器的方法

    本篇文章主要介紹了Docker 鏡像加速器的方法,小編覺得挺不錯的,現(xiàn)在分享給大家,也給大家做個參考。一起跟隨小編過來看看吧
    2017-12-12
  • docker容器日志占滿硬盤空間的問題解決

    docker容器日志占滿硬盤空間的問題解決

    由于默認情況下,docker使用json-file類型的日志驅(qū)動,該日志驅(qū)動默認情況下,每個容器的日志會一直追加在文件名為 containerId-json.log文件中,因此在容器不重建的情況下,該日志文件會一直追加內(nèi)容,直到占滿整個服務(wù)器硬盤空間,本文就來介紹一下解決方法
    2023-09-09
  • docker部署Nestjs的簡單配置實現(xiàn)

    docker部署Nestjs的簡單配置實現(xiàn)

    使用Docker部署NestJS應(yīng)用程序可以確保在不同的環(huán)境中運行一致,并且避免了由于依賴關(guān)系或配置問題導致的部署錯誤,本文主要介紹了docker來部署Nestjs的簡單配置,感興趣的可以了解一下
    2024-02-02
  • docker部署微信小程序自動構(gòu)建發(fā)布和更新的詳細步驟

    docker部署微信小程序自動構(gòu)建發(fā)布和更新的詳細步驟

    通過 Jenkins 和 Docker 部署微信小程序,并實現(xiàn)自動構(gòu)建、發(fā)布和版本更新,主要涉及到幾個步驟,下面給大家分享docker部署微信小程序自動構(gòu)建發(fā)布和更新的詳細步驟,感興趣的朋友一起看看吧
    2024-12-12
  • Rancher無法添加主機問題的解決方法

    Rancher無法添加主機問題的解決方法

    這篇文章主要給大家介紹了關(guān)于Rancher無法添加主機問題的解決方法,文中通過圖文介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧
    2018-06-06
  • docker 實現(xiàn)容器與宿主機無縫調(diào)用shell命令

    docker 實現(xiàn)容器與宿主機無縫調(diào)用shell命令

    這篇文章主要介紹了docker 實現(xiàn)容器與宿主機無縫調(diào)用shell命令的操作,具有很好的參考價值,希望對大家有所幫助。一起跟隨想過來看看吧
    2021-03-03

最新評論