欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

深入淺析ELK原理與簡介

 更新時間:2021年09月08日 14:57:13   作者:我是一條最咸的咸魚  
ELK是三個開源軟件的縮寫,分別表示:Elasticsearch , Logstash, Kibana , 它們都是開源軟件。這篇文章主要介紹了ELK原理與介紹,需要的朋友可以參考下

為什么用到ELK:

一般我們需要進(jìn)行日志分析場景:直接在日志文件中 grep、awk 就可以獲得自己想要的信息。但在規(guī)模較大的場景中,此方法效率低下,面臨問題包括日志量太大如何歸檔、文本搜索太慢怎么辦、如何多維度查詢。需要集中化的日志管理,所有服務(wù)器上的日志收集匯總。常見解決思路是建立集中式日志收集系統(tǒng),將所有節(jié)點上的日志統(tǒng)一收集,管理,訪問。

一般大型系統(tǒng)是一個分布式部署的架構(gòu),不同的服務(wù)模塊部署在不同的服務(wù)器上,問題出現(xiàn)時,大部分情況需要根據(jù)問題暴露的關(guān)鍵信息,定位到具體的服務(wù)器和服務(wù)模塊,構(gòu)建一套集中式日志系統(tǒng),可以提高定位問題的效率。

一個完整的集中式日志系統(tǒng),需要包含以下幾個主要特點:

  • 收集-能夠采集多種來源的日志數(shù)據(jù)
  • 傳輸-能夠穩(wěn)定的把日志數(shù)據(jù)傳輸?shù)街醒胂到y(tǒng)
  • 存儲-如何存儲日志數(shù)據(jù)
  • 分析-可以支持 UI 分析
  • 警告-能夠提供錯誤報告,監(jiān)控機(jī)制

ELK提供了一整套解決方案,并且都是開源軟件,之間互相配合使用,完美銜接,高效的滿足了很多場合的應(yīng)用。目前主流的一種日志系統(tǒng)。

ELK簡介:

ELK是三個開源軟件的縮寫,分別表示:Elasticsearch , Logstash, Kibana , 它們都是開源軟件。新增了一個FileBeat,它是一個輕量級的日志收集處理工具(Agent),F(xiàn)ilebeat占用資源少,適合于在各個服務(wù)器上搜集日志后傳輸給Logstash,官方也推薦此工具。

Elasticsearch是個開源分布式搜索引擎,提供搜集、分析、存儲數(shù)據(jù)三大功能。它的特點有:分布式,零配置,自動發(fā)現(xiàn),索引自動分片,索引副本機(jī)制,restful風(fēng)格接口,多數(shù)據(jù)源,自動搜索負(fù)載等。

Logstash 主要是用來日志的搜集、分析、過濾日志的工具,支持大量的數(shù)據(jù)獲取方式。一般工作方式為c/s架構(gòu),client端安裝在需要收集日志的主機(jī)上,server端負(fù)責(zé)將收到的各節(jié)點日志進(jìn)行過濾、修改等操作在一并發(fā)往elasticsearch上去。

Kibana 也是一個開源和免費的工具,Kibana可以為 Logstash 和 ElasticSearch 提供的日志分析友好的 Web 界面,可以幫助匯總、分析和搜索重要數(shù)據(jù)日志。

Filebeat隸屬于Beats。目前Beats包含四種工具:

  1. Packetbeat(搜集網(wǎng)絡(luò)流量數(shù)據(jù))
  2. Topbeat(搜集系統(tǒng)、進(jìn)程和文件系統(tǒng)級別的 CPU 和內(nèi)存使用情況等數(shù)據(jù))
  3. Filebeat(搜集文件數(shù)據(jù))
  4. Winlogbeat(搜集 Windows 事件日志數(shù)據(jù))

官方文檔:

Filebeat:

https://www.elastic.co/cn/products/beats/filebeat
https://www.elastic.co/guide/en/beats/filebeat/5.6/index.html

Logstash:
https://www.elastic.co/cn/products/logstash
https://www.elastic.co/guide/en/logstash/5.6/index.html

Kibana:

https://www.elastic.co/cn/products/kibana

https://www.elastic.co/guide/en/kibana/5.5/index.html

Elasticsearch:
https://www.elastic.co/cn/products/elasticsearch
https://www.elastic.co/guide/en/elasticsearch/reference/5.6/index.html

elasticsearch中文社區(qū):
https://elasticsearch.cn/

ELK架構(gòu)圖:

架構(gòu)圖一:

這是最簡單的一種ELK架構(gòu)方式。優(yōu)點是搭建簡單,易于上手。缺點是Logstash耗資源較大,運行占用CPU和內(nèi)存高。另外沒有消息隊列緩存,存在數(shù)據(jù)丟失隱患。

此架構(gòu)由Logstash分布于各個節(jié)點上搜集相關(guān)日志、數(shù)據(jù),并經(jīng)過分析、過濾后發(fā)送給遠(yuǎn)端服務(wù)器上的Elasticsearch進(jìn)行存儲。Elasticsearch將數(shù)據(jù)以分片的形式壓縮存儲并提供多種API供用戶查詢,操作。用戶亦可以更直觀的通過配置Kibana Web方便的對日志查詢,并根據(jù)數(shù)據(jù)生成報表。

架構(gòu)圖二:

此種架構(gòu)引入了消息隊列機(jī)制,位于各個節(jié)點上的Logstash Agent先將數(shù)據(jù)/日志傳遞給Kafka(或者Redis),并將隊列中消息或數(shù)據(jù)間接傳遞給Logstash,Logstash過濾、分析后將數(shù)據(jù)傳遞給Elasticsearch存儲。最后由Kibana將日志和數(shù)據(jù)呈現(xiàn)給用戶。因為引入了Kafka(或者Redis),所以即使遠(yuǎn)端Logstash server因故障停止運行,數(shù)據(jù)將會先被存儲下來,從而避免數(shù)據(jù)丟失。

架構(gòu)圖三:

此種架構(gòu)將收集端logstash替換為beats,更靈活,消耗資源更少,擴(kuò)展性更強。同時可配置Logstash 和Elasticsearch 集群用于支持大集群系統(tǒng)的運維日志數(shù)據(jù)監(jiān)控和查詢。

Filebeat工作原理:

Filebeat由兩個主要組件組成:prospectors 和 harvesters。這兩個組件協(xié)同工作將文件變動發(fā)送到指定的輸出中。

Harvester(收割機(jī)):負(fù)責(zé)讀取單個文件內(nèi)容。每個文件會啟動一個Harvester,每個Harvester會逐行讀取各個文件,并將文件內(nèi)容發(fā)送到制定輸出中。Harvester負(fù)責(zé)打開和關(guān)閉文件,意味在Harvester運行的時候,文件描述符處于打開狀態(tài),如果文件在收集中被重命名或者被刪除,F(xiàn)ilebeat會繼續(xù)讀取此文件。所以在Harvester關(guān)閉之前,磁盤不會被釋放。默認(rèn)情況filebeat會保持文件打開的狀態(tài),直到達(dá)到close_inactive(如果此選項開啟,filebeat會在指定時間內(nèi)將不再更新的文件句柄關(guān)閉,時間從harvester讀取最后一行的時間開始計時。若文件句柄被關(guān)閉后,文件發(fā)生變化,則會啟動一個新的harvester。關(guān)閉文件句柄的時間不取決于文件的修改時間,若此參數(shù)配置不當(dāng),則可能發(fā)生日志不實時的情況,由scan_frequency參數(shù)決定,默認(rèn)10s。Harvester使用內(nèi)部時間戳來記錄文件最后被收集的時間。例如:設(shè)置5m,則在Harvester讀取文件的最后一行之后,開始倒計時5分鐘,若5分鐘內(nèi)文件無變化,則關(guān)閉文件句柄。默認(rèn)5m)。

Prospector(勘測者):負(fù)責(zé)管理Harvester并找到所有讀取源。

Prospector會找到/apps/logs/*目錄下的所有info.log文件,并為每個文件啟動一個Harvester。Prospector會檢查每個文件,看Harvester是否已經(jīng)啟動,是否需要啟動,或者文件是否可以忽略。若Harvester關(guān)閉,只有在文件大小發(fā)生變化的時候Prospector才會執(zhí)行檢查。只能檢測本地的文件。

Filebeat如何記錄文件狀態(tài):

將文件狀態(tài)記錄在文件中(默認(rèn)在/var/lib/filebeat/registry)。此狀態(tài)可以記住Harvester收集文件的偏移量。若連接不上輸出設(shè)備,如ES等,filebeat會記錄發(fā)送前的最后一行,并再可以連接的時候繼續(xù)發(fā)送。Filebeat在運行的時候,Prospector狀態(tài)會被記錄在內(nèi)存中。Filebeat重啟的時候,利用registry記錄的狀態(tài)來進(jìn)行重建,用來還原到重啟之前的狀態(tài)。每個Prospector會為每個找到的文件記錄一個狀態(tài),對于每個文件,F(xiàn)ilebeat存儲唯一標(biāo)識符以檢測文件是否先前被收集。

Filebeat如何保證事件至少被輸出一次:

Filebeat之所以能保證事件至少被傳遞到配置的輸出一次,沒有數(shù)據(jù)丟失,是因為filebeat將每個事件的傳遞狀態(tài)保存在文件中。在未得到輸出方確認(rèn)時,filebeat會嘗試一直發(fā)送,直到得到回應(yīng)。若filebeat在傳輸過程中被關(guān)閉,則不會再關(guān)閉之前確認(rèn)所有時事件。任何在filebeat關(guān)閉之前為確認(rèn)的時間,都會在filebeat重啟之后重新發(fā)送。這可確保至少發(fā)送一次,但有可能會重復(fù)。可通過設(shè)置shutdown_timeout 參數(shù)來設(shè)置關(guān)閉之前的等待事件回應(yīng)的時間(默認(rèn)禁用)。

Logstash工作原理:

Logstash事件處理有三個階段:inputs → filters → outputs。是一個接收,處理,轉(zhuǎn)發(fā)日志的工具。支持系統(tǒng)日志,webserver日志,錯誤日志,應(yīng)用日志,總之包括所有可以拋出來的日志類型。

Input:輸入數(shù)據(jù)到logstash。

一些常用的輸入為:

file:從文件系統(tǒng)的文件中讀取,類似于tail -f命令

syslog:在514端口上監(jiān)聽系統(tǒng)日志消息,并根據(jù)RFC3164標(biāo)準(zhǔn)進(jìn)行解析

redis:從redis service中讀取

beats:從filebeat中讀取

Filters:數(shù)據(jù)中間處理,對數(shù)據(jù)進(jìn)行操作。

一些常用的過濾器為:

grok:解析任意文本數(shù)據(jù),Grok 是 Logstash 最重要的插件。它的主要作用就是將文本格式的字符串,轉(zhuǎn)換成為具體的結(jié)構(gòu)化的數(shù)據(jù),配合正則表達(dá)式使用。內(nèi)置120多個解析語法。

官方提供的grok表達(dá)式:https://github.com/logstash-plugins/logstash-patterns-core/tree/master/patterns
grok在線調(diào)試:https://grokdebug.herokuapp.com/

mutate:對字段進(jìn)行轉(zhuǎn)換。例如對字段進(jìn)行刪除、替換、修改、重命名等。

drop:丟棄一部分events不進(jìn)行處理。

clone:拷貝 event,這個過程中也可以添加或移除字段。

geoip:添加地理信息(為前臺kibana圖形化展示使用)

Outputs:outputs是logstash處理管道的最末端組件。一個event可以在處理過程中經(jīng)過多重輸出,但是一旦所有的outputs都執(zhí)行結(jié)束,這個event也就完成生命周期。

一些常見的outputs為:

elasticsearch:可以高效的保存數(shù)據(jù),并且能夠方便和簡單的進(jìn)行查詢。

file:將event數(shù)據(jù)保存到文件中。

graphite:將event數(shù)據(jù)發(fā)送到圖形化組件中,一個很流行的開源存儲圖形化展示的組件。

Codecs:codecs 是基于數(shù)據(jù)流的過濾器,它可以作為input,output的一部分配置。Codecs可以幫助你輕松的分割發(fā)送過來已經(jīng)被序列化的數(shù)據(jù)。

一些常見的codecs:

json:使用json格式對數(shù)據(jù)進(jìn)行編碼/解碼。

multiline:將匯多個事件中數(shù)據(jù)匯總為一個單一的行。比如:java異常信息和堆棧信息。

到此這篇關(guān)于ELK原理與介紹的文章就介紹到這了,更多相關(guān)ELK原理內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!

相關(guān)文章

  • chatgpt?1020?錯誤碼成功解決的三種方案(推薦)

    chatgpt?1020?錯誤碼成功解決的三種方案(推薦)

    造成1020錯誤的主要原因是代理問題,當(dāng)打開代理時,登錄該網(wǎng)站會直接顯示上述錯誤“Access?denied?Error?code?1020”,怎么解決這個問題呢,下面小編給大家?guī)砹薱hatgpt?1020?錯誤碼成功解決的三種方案,感興趣的朋友一起看看吧
    2023-02-02
  • layabox2.0命令行在vscode中編譯打包問題

    layabox2.0命令行在vscode中編譯打包問題

    這篇文章主要介紹了layabox2.0命令行在vscode中編譯打包問題,本文給大家介紹的非常詳細(xì),對大家的學(xué)習(xí)或工作具有一定的參考借鑒價值,需要的朋友可以參考下
    2020-08-08
  • 詳細(xì)講解HDFS的高可用機(jī)制

    詳細(xì)講解HDFS的高可用機(jī)制

    本文詳細(xì)講解了HDFS的高可用機(jī)制。如果namenode出現(xiàn)問題,整個HDFS集群將不能使用,HDFS高可用(HA)方案就是為了解決這個問題而產(chǎn)生的,讓我們一起來了解了解吧
    2021-08-08
  • 在小程序中實現(xiàn)ChatGPT?聊天打字兼自動滾動效果

    在小程序中實現(xiàn)ChatGPT?聊天打字兼自動滾動效果

    ChatGPT已經(jīng)長時間大火,未來將會是AI的天下,們需要更多地學(xué)習(xí)和掌握AI,而不是被AI所取代,在?ChatGPT?的背景下,我們今天來聊聊在小程序中怎么實現(xiàn)類似?chatGPT?的聊天打字效果,并且實現(xiàn)滾動效果
    2023-06-06
  • IntelliJ IDEA 2020最新注冊碼(親測有效,可激活至 2089 年)

    IntelliJ IDEA 2020最新注冊碼(親測有效,可激活至 2089 年

    這篇文章主要介紹了IntelliJ IDEA 2020最新注冊碼,親測有效,可激活至 2089 年,本文通過圖文并茂的形式給大家介紹的非常詳細(xì),對大家的學(xué)習(xí)或工作具有一定的參考借鑒價值,需要的朋友可以參考下
    2020-05-05
  • 基于chatgpt的微信自動回復(fù)功能實現(xiàn)

    基于chatgpt的微信自動回復(fù)功能實現(xiàn)

    這篇文章主要介紹了基于chatgpt的微信自動回復(fù)功能實現(xiàn),微信自動回復(fù)基于聊天api的實現(xiàn)代碼,本文通過實例代碼給大家介紹的非常詳細(xì),需要的朋友可以參考下
    2023-02-02
  • 全網(wǎng)最強下載神器IDM使用教程之利用IDM加速下載百度網(wǎng)盤大文件的方法

    全網(wǎng)最強下載神器IDM使用教程之利用IDM加速下載百度網(wǎng)盤大文件的方法

    自從不限速度盤下載工具Pandownload被封殺后,有些網(wǎng)友紛紛表示:幸好我們還有IDM,但是很多朋友對IDM不是多了解,下面小編給大家介紹下下載神器IDM使用教程之利用IDM加速下載百度網(wǎng)盤大文件的方法,感興趣的朋友跟隨小編一起看看吧
    2023-01-01
  • asp php 清空access mysql mssql數(shù)據(jù)庫的代碼

    asp php 清空access mysql mssql數(shù)據(jù)庫的代碼

    php清空mysql asp情況access或mssql
    2008-12-12
  • 256種編程語言大匯總

    256種編程語言大匯總

    這篇文章主要介紹了256種編程語言大匯總,想學(xué)編程語言的同學(xué)可以看一下,需要的朋友可以參考下
    2014-09-09
  • Git 標(biāo)簽使用詳解

    Git 標(biāo)簽使用詳解

    這篇文章主要介紹了Git 標(biāo)簽使用詳解,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧
    2020-07-07

最新評論