python實時分析日志的一個小腳本分享
前言
大家都知道Web運維總要關(guān)注相關(guān)域名的實時2xx/s、4xx/s、5xx/s、響應(yīng)時間、帶寬等這些指標(biāo),之前的日志是五分鐘一分割,簡單的用awk就可以了,現(xiàn)在由于要推送日志到ELK,繼續(xù)之前五分鐘一分割會有問題,就改為一天分割一次。改成一天一分割后,顯然再繼續(xù)用Shell就不合適了,于是就用Python寫了下。
方法如下:
腳本主要運用了文件的seek和tell函數(shù),原理如下:
1.加入crontab,每5分鐘執(zhí)行一次
2.只分析從上次讀取日志文件的結(jié)束位置到這次讀取文件時的末尾位置之間的日志,出結(jié)果
可以使用zabbix_sender把結(jié)果發(fā)送到zabbix server或者直接使用zabbix agent來讀取這個文件取數(shù)據(jù),配合zabbix出圖、做報警,代碼如下:
#!/usr/bin/env python #coding: utf-8 from __future__ import division import os LOG_FILE = '/data0/logs/nginx/xxxx-access_log' POSITION_FILE = '/tmp/position.log' STATUS_FILE = '/tmp/http_status' #crontab 執(zhí)行時間 CRON_TIME = 300 def get_position(): #第一次讀取日志文件,POSITION_FILE為空 if not os.path.exists(POSITION_FILE): start_position = str(0) end_position = str(os.path.getsize(LOG_FILE)) fh = open(POSITION_FILE,'w') fh.write('start_position: %s\n' % start_position) fh.write('end_position: %s\n' % end_position) fh.close() os._exit(1) else: fh = open(POSITION_FILE) se = fh.readlines() fh.close() #其他意外情況導(dǎo)致POSITION_FILE內(nèi)容不是兩行 if len(se) != 2: os.remove(POSITION_FILE) os._exit(1) last_start_position,last_end_position = [item.split(':')[1].strip() for item in se] start_position = last_end_position end_position = str(os.path.getsize(LOG_FILE)) #日志輪轉(zhuǎn)導(dǎo)致start_position > end_position #print start_position,end_position if start_position > end_position: start_position = 0 #日志停止?jié)L動時 elif start_position == end_position: os._exit(1) #print start_position,end_position fh = open(POSITION_FILE,'w') fh.write('start_position: %s\n' % start_position) fh.write('end_position: %s\n' % end_position) fh.close() return map(int,[start_position,end_position]) def write_status(content): fh = open(STATUS_FILE,'w') fh.write(content) fh.close() def handle_log(start_position,end_position): log = open(LOG_FILE) log.seek(start_position,0) status_2xx,status_403,status_404,status_500,status_502,status_503,status_504,status_all,rt,bandwidth = 0,0,0,0,0,0,0,0,0,0 while True: current_position = log.tell() if current_position >= end_position: break line = log.readline() line = line.split(' ') host,request_time,time_local,status,bytes_sent = line[1],line[3],line[5],line[10],line[11] #print host,request_time,time_local,status,bytes_sent status_all += 1 try: rt += float(request_time.strip('s')) bandwidth += int(bytes_sent) except: pass if status == '200' or status == '206': status_2xx += 1 elif status == '403': status_403 += 1 elif status == '404': status_404 += 1 elif status == '500': status_500 += 1 elif status == '502': status_502 += 1 elif status == '503': status_503 += 1 elif status == '504': status_504 += 1 log.close() #print "status_2xx: %s\nstatus_403: %s\nstatus_404: %s\nstatus_500: %s\nstatus_502: %s\nstatus_503: %s\nstatus_504: %s\nstatus_all: %s\nrt: %s\nbandwidth: %s\n" % (status_2xx/CRON_TIME,status_403/CRON_TIME,status_404/CRON_TIME,status_500/CRON_TIME,status_502/CRON_TIME,status_503/CRON_TIME,status_504/CRON_TIME,status_all/CRON_TIME,rt/status_all,bandwidth/CRON_TIME) write_status("status_2xx: %s\nstatus_403: %s\nstatus_404: %s\nstatus_500: %s\nstatus_502: %s\nstatus_503: %s\nstatus_504: %s\nstatus_all: %s\nrt: %s\nbandwidth: %s\n" % (status_2xx/CRON_TIME,status_403/CRON_TIME,status_404/CRON_TIME,status_500/CRON_TIME,status_502/CRON_TIME,status_503/CRON_TIME,status_504/CRON_TIME,status_all/CRON_TIME,rt/status_all,bandwidth/CRON_TIME)) if __name__ == '__main__': start_position,end_position = get_position() handle_log(start_position,end_position)
看下分析的結(jié)果:
cat /tmp/http_status status_2xx: 17.3333333333 status_403: 0.0 status_404: 1.0 status_500: 0.0 status_502: 0.0 status_503: 0.0 status_504: 0.0 status_all: 20.0 rt: 0.0782833333333 bandwidth: 204032.0
后來發(fā)現(xiàn)有點問題,start_position、end_position 使用字符串比較會有問題,如下:
In [5]: '99772400' > '100227572' Out[5]: True In [6]: int('99772400') > int('100227572') Out[6]: False
因此,更正為:
#日志輪轉(zhuǎn)導(dǎo)致start_position > end_position #print start_position,end_position if int(start_position) > int(end_position): start_position = 0 #日志停止?jié)L動時 elif int(start_position) == int(end_position): os._exit(1)
總結(jié)
以上就是這篇文章的全部內(nèi)容了,希望本文的內(nèi)容對大家的學(xué)習(xí)或者工作能帶來一定的幫助,如果有疑問大家可以留言交流,謝謝大家對腳本之家的支持。
相關(guān)文章
解決Python3錯誤:SyntaxError: unexpected EOF while
這篇文章主要介紹了解決Python3錯誤:SyntaxError: unexpected EOF while parsin問題,具有很好的參考價值,希望對大家有所幫助。如有錯誤或未考慮完全的地方,望不吝賜教2022-07-07Python嵌套式數(shù)據(jù)結(jié)構(gòu)實例淺析
這篇文章主要介紹了Python嵌套式數(shù)據(jù)結(jié)構(gòu),結(jié)合實例形式簡單分析了Python字典與列表元素的嵌套存儲相關(guān)定義與操作技巧,需要的朋友可以參考下2019-03-03Python基礎(chǔ)學(xué)習(xí)之認(rèn)識線程
這篇文章主要介紹了Python線程,這篇開始我們將進(jìn)入中級編程。處理更加復(fù)雜事情。比如本文的線程,咱們先從基礎(chǔ)知識入手,需要的朋友可以參考下下面文章的詳細(xì)內(nèi)容2022-02-02基于python實現(xiàn)自動化辦公學(xué)習(xí)筆記(CSV、word、Excel、PPT)
這篇文章主要介紹了基于python實現(xiàn)自動化辦公學(xué)習(xí)筆記,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2019-08-08用python + hadoop streaming 分布式編程(一) -- 原理介紹,樣例程序與本地調(diào)試
Hadoop 是一個實現(xiàn)了 MapReduce 計算模型的開源分布式并行編程框架,借助于 Hadoop, 程序員可以輕松地編寫分布式并行程序,將其運行于計算機集群上,完成海量數(shù)據(jù)的計算。2014-07-07python包實現(xiàn)?retrying?重復(fù)回調(diào)操作
這篇文章主要介紹了python包實現(xiàn)?retrying?重復(fù)回調(diào)操作,文章python的相關(guān)資料展開對retrying?重復(fù)回調(diào)的詳細(xì)介紹,需要的小伙伴可以參考一下,希望對你的學(xué)習(xí)有所幫助2022-04-04