欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

Nginx日志分析工具 v2.0 綠色中文免費(fèi)版

日志分析工具

  • 軟件大?。?span>535KB
  • 軟件語(yǔ)言:簡(jiǎn)體中文
  • 軟件類(lèi)型:國(guó)產(chǎn)軟件
  • 軟件授權(quán):免費(fèi)軟件
  • 軟件類(lèi)別:站長(zhǎng)工具
  • 應(yīng)用平臺(tái):Windows平臺(tái)
  • 更新時(shí)間:2014-05-04
  • 網(wǎng)友評(píng)分:
360通過(guò) 騰訊通過(guò) 金山通過(guò)

情介紹

Nginx日志分析工具是針對(duì)使用Nginx搭建網(wǎng)站的站長(zhǎng)們推出的一款網(wǎng)站日志分析工具,軟件可以完美適配N(xiāo)ginx日志規(guī)則,幫助站長(zhǎng)們輕松對(duì)Nginx日志進(jìn)行整理和統(tǒng)計(jì)。Nginx日志分析工具讓用戶(hù)可以更加清晰的分析網(wǎng)站的蜘蛛抓取情況,讓站長(zhǎng)們可以更好的對(duì)網(wǎng)站進(jìn)行SEO操作,有需要的朋友可以下載使用哦!

Nginx日志分析工具使用說(shuō)明

1、將從本站下載的壓縮包文件解壓,在解壓出來(lái)的文件夾中雙擊“Nginx日志分析工具.exe”文件就可以直接運(yùn)行軟件。

2、打開(kāi)軟件后點(diǎn)擊“選擇日志文件”按鈕導(dǎo)入需要進(jìn)行分析的Nginx日志文件,就可以讓軟件自動(dòng)對(duì)Nginx日志進(jìn)行整理和分析。

3、此外我們還可以在右側(cè)輸入匹配規(guī)則來(lái)對(duì)日志中的內(nèi)容進(jìn)行篩選分析,比如篩選出所有蜘蛛的訪(fǎng)問(wèn)記錄等等。

apache日志分析

以下內(nèi)容也是一些關(guān)于apache日志分析的東東,記錄下來(lái)。

1.什么是UV?

UV是unique visitor的簡(jiǎn)寫(xiě),是指獨(dú)立訪(fǎng)客,是以實(shí)際訪(fǎng)問(wèn)的電腦計(jì)數(shù)。

2.什么是IP?

IP是國(guó)際互聯(lián)網(wǎng)協(xié)議(Internet Protocol)的簡(jiǎn)稱(chēng),是通過(guò)網(wǎng)絡(luò)間信息地址定位具體計(jì)算機(jī)的方式之一。

3.UV和IP的概念有什么區(qū)別?

對(duì)于IP來(lái)說(shuō),它在同一級(jí)別的網(wǎng)絡(luò)(例如某個(gè)局域網(wǎng)、社區(qū)網(wǎng)、教學(xué)樓網(wǎng)或者INTERNET)范圍內(nèi)是唯一的,同一局域網(wǎng)內(nèi)的所有電腦都只有一個(gè)共同ip。

舉例來(lái)說(shuō),我在一個(gè)局域網(wǎng)里,對(duì)外的IP是219.129.170.111,那么跟我同一局域網(wǎng)里的所有電腦都是這個(gè)IP,也就是說(shuō)假如整個(gè)局域網(wǎng)的電腦都訪(fǎng)問(wèn)您的網(wǎng)站的話(huà),在24小時(shí)內(nèi)也只計(jì)算一個(gè)IP,所以相對(duì)UV來(lái)說(shuō)不是很精確。

而UV跟IP稍有不同,UV是訪(fǎng)問(wèn)你的網(wǎng)站的每一臺(tái)電腦客戶(hù)端?,F(xiàn)在很多朋友用的網(wǎng)絡(luò)都是局域網(wǎng),引入了UV后,就能更精確的統(tǒng)計(jì)。

總結(jié):

UV的統(tǒng)計(jì)數(shù)比IP更為準(zhǔn)確,能夠準(zhǔn)確的計(jì)數(shù)每一臺(tái)訪(fǎng)問(wèn)電腦,而IP把同一局域內(nèi)的所有電腦視為一個(gè)。

(PS:UV計(jì)數(shù)會(huì)涉及COOKIE。)

上次因工作的需求對(duì)一臺(tái)apache的log做了一次整體的分析,所以順便也對(duì)apache的日志分析做下簡(jiǎn)單的介紹,主要參考apache官網(wǎng)的Log Files

一.日志分析

如果apache的安裝時(shí)采用默認(rèn)的配置,那么在/logs目錄下就會(huì)生成兩個(gè)文件,分別是access_log和error_log

1.access_log

access_log為訪(fǎng)問(wèn)日志,記錄所有對(duì)apache服務(wù)器進(jìn)行請(qǐng)求的訪(fǎng)問(wèn),它的位置和內(nèi)容由CustomLog指令控制,LogFormat指令可以用來(lái)簡(jiǎn)化該日志的內(nèi)容和格式

例如,我的其中一臺(tái)服務(wù)器配置如下

CustomLog “| /usr/sbin/rotatelogs /var/log/apache2/%Y_%m_%d_other_vhosts_access.log 86400 480″ vhost_combined

-rw-r–r– 1 root root 22310750 12-05 23:59 2010_12_05_other_vhosts_access.log

-rw-r–r– 1 root root 26873180 12-06 23:59 2010_12_06_other_vhosts_access.log

-rw-r–r– 1 root root 26810003 12-07 23:59 2010_12_07_other_vhosts_access.log

-rw-r–r– 1 root root 24530219 12-08 23:59 2010_12_08_other_vhosts_access.log

-rw-r–r– 1 root root 24536681 12-09 23:59 2010_12_09_other_vhosts_access.log

-rw-r–r– 1 root root 14003409 12-10 14:57 2010_12_10_other_vhosts_access.log

通過(guò)CustomLog指令,每天一天生成一個(gè)獨(dú)立的日志文件,同時(shí)也寫(xiě)了定時(shí)器將一周前的日志文件全部清除,這樣可以顯得更清晰,既可以分離每一天的日志又可以清除一定時(shí)間以前的日志通過(guò)制,LogFormat定義日志的記錄格式

LogFormat “%h %l %u %t \”%r\” %>s %b \”%{Referer}i\” \”%{User-Agent}i\”" combined

LogFormat “%{X-Forwarded-For}i %l %u %t \”%r\” %>s %b \”%{Referer}i\” \”%{User-Agent}i\”" combinedproxy

LogFormat “%h %l %u %t \”%r\” %>s %b” common

LogFormat “%{Referer}i -> %U” referer

LogFormat “%{User-agent}i” agent

隨意的tail一個(gè)access_log文件,下面是一條經(jīng)典的訪(fǎng)問(wèn)記錄

218.19.140.242 – - [10/Dec/2010:09:31:17 +0800] “GET /query/trendxml/district/todayreturn/month/2009-12-14/2010-12-09/haizhu_tianhe.xml HTTP/1.1″ 200 1933 “-” “Mozilla/5.0 (Windows; U; Windows NT 5.1; zh-CN; rv:1.9.2.8) Gecko/20100722 Firefox/3.6.8 (.NET CLR 3.5.30729)”

一共是有9項(xiàng),將他們一一拆開(kāi)

218.19.140.242

-

-

[10/Dec/2010:09:31:17 +0800]

“GET /query/trendxml/district/todayreturn/month/2009-12-14/2010-12-09/haizhu_tianhe.xml HTTP/1.1″

200

1933

“-”

“Mozilla/5.0 (Windows; U; Windows NT 5.1; zh-CN; rv:1.9.2.8) Gecko/20100722 Firefox/3.6.8 (.NET CLR 3.5.30729)”

1) 218.19.140.242 這是一個(gè)請(qǐng)求到apache服務(wù)器的客戶(hù)端ip,默認(rèn)的情況下,第一項(xiàng)信息只是遠(yuǎn)程主機(jī)的ip地址,但我們?nèi)绻枰猘pache查出主機(jī)的名字,可以將 HostnameLookups設(shè)置為on,但這種做法是不推薦使用,因?yàn)樗蟠蟮臏p緩了服務(wù)器.另外這里的ip地址不一定就是客戶(hù)主機(jī)的ip地址,如果 客戶(hù)端使用了代理服務(wù)器,那么這里的ip就是代理服務(wù)器的地址,而不是原機(jī).

2) - 這一項(xiàng)是空白,使用”-”來(lái)代替,這個(gè)位置是用于標(biāo)注訪(fǎng)問(wèn)者的標(biāo)示,這個(gè)信息是由identd的客戶(hù)端存在,除非IdentityCheck為on,非則apache是不會(huì)去獲取該部分的信息(ps:不太理解,基本上這一項(xiàng)都是為空,奉上原文)

The “hyphen” in the output indicates that the requested piece of information is not available. In this case, the information that is not available is the RFC 1413 identity of the client determined by identd on the clients machine. This information is highly unreliable and should almost never be used except on tightly controlled internal networks. Apache httpd will not even attempt to determine this information unless IdentityCheck is set to On.

3) - 這一項(xiàng)又是為空白,不過(guò)這項(xiàng)是用戶(hù)記錄用戶(hù)HTTP的身份驗(yàn)證,如果某些網(wǎng)站要求用戶(hù)進(jìn)行身份雁陣,那么這一項(xiàng)就是記錄用戶(hù)的身份信息

4) [10/Dec/2010:09:31:17 +0800] 第四項(xiàng)是記錄請(qǐng)求的時(shí)間,格式為[day/month/year:hour:minute:second zone],最后的+0800表示服務(wù)器所處的時(shí)區(qū)為東八區(qū)

5) “GET /..haizhu_tianhe.xml HTTP/1.1″ 這一項(xiàng)整個(gè)記錄中最有用的信息,首先,它告訴我們的服務(wù)器收到的是一個(gè)GET請(qǐng)求,其次,是客戶(hù)端請(qǐng)求的資源路徑,第三,客戶(hù)端使用的協(xié)議時(shí)HTTP/1.1,整個(gè)格式為”%m %U%q %H”,即”請(qǐng)求方法/訪(fǎng)問(wèn)路徑/協(xié)議”

6) 200 這是一個(gè)狀態(tài)碼,由服務(wù)器端發(fā)送回客戶(hù)端,它告訴我們客戶(hù)端的請(qǐng)求是否成功,或者是重定向,或者是碰到了什么樣的錯(cuò)誤,這項(xiàng)值為200,表示服務(wù)器已經(jīng)成 功的響應(yīng)了客戶(hù)端的請(qǐng)求,一般來(lái)說(shuō),這項(xiàng)值以2開(kāi)頭的表示請(qǐng)求成功,以3開(kāi)頭的表示重定向,以4開(kāi)頭的標(biāo)示客戶(hù)端存在某些的錯(cuò)誤,以5開(kāi)頭的標(biāo)示服務(wù)器端 存在某些錯(cuò)誤

7) 1933 這項(xiàng)表示服務(wù)器向客戶(hù)端發(fā)送了多少的字節(jié),在日志分析統(tǒng)計(jì)的時(shí)侯,把這些字節(jié)加起來(lái)就可以得知服務(wù)器在某點(diǎn)時(shí)間內(nèi)總的發(fā)送數(shù)據(jù)量是多少

8) - 暫不知

9) “Mozilla/5.0 (Windows; U; Windows NT 5.1; zh-CN; rv:1.9.2.8) Gecko/20100722 Firefox/3.6.8 (.NET CLR 3.5.30729)” 這項(xiàng)主要記錄客戶(hù)端的瀏覽器信息

2.error_log

error_log為錯(cuò)誤日志,記錄下任何錯(cuò)誤的處理請(qǐng)求,它的位置和內(nèi)容由ErrorLog指令控制,通常服務(wù)器出現(xiàn)什么錯(cuò)誤,首先對(duì)它進(jìn)行查閱,是一個(gè)最重要的日志文件

tail error_log,隨意摘取一個(gè)記錄

[Fri Dec 10 15:03:59 2010] [error] [client 218.19.140.242] File does not exist: /home/htmlfile/tradedata/favicon.ico

同樣也是分為幾個(gè)項(xiàng)

[Fri Dec 10 15:03:59 2010]

[error]

[client 218.19.140.242]

File does not exist: /home/htmlfile/tradedata/favicon.ico

1) [Fri Dec 10 15:03:59 2010] 記錄錯(cuò)誤發(fā)生的時(shí)間,注意,它跟我們上面access_log記錄的時(shí)間格式是不同的

2) [error] 這一項(xiàng)為錯(cuò)誤的級(jí)別,根據(jù)LogLevel指令來(lái)控制錯(cuò)誤的類(lèi)別,上面的404是屬于error級(jí)別

3) [client 218.19.140.242] 記錄客戶(hù)端的ip地址

4) File does not exist: /home/htmlfile/tradedata/favicon.ico 這一項(xiàng)首先對(duì)錯(cuò)誤進(jìn)行了描述,例如客戶(hù)端訪(fǎng)問(wèn)一個(gè)不存在或路徑錯(cuò)誤的文件,就會(huì)給出404的提示錯(cuò)誤

二.實(shí)用的日志分析腳本

了解日志的各種定義后,這里分享一下從網(wǎng)上淘來(lái)的一些對(duì)日志分析的腳本

1.查看apache的進(jìn)程數(shù)

ps -aux | grep httpd | wc -l

2.分析日志查看當(dāng)天的ip連接數(shù)

cat default-access_log | grep “10/Dec/2010″ | awk ‘{print $2}’ | sort | uniq -c | sort -nr

3.查看指定的ip在當(dāng)天究竟訪(fǎng)問(wèn)了什么url

cat default-access_log | grep “10/Dec/2010″ | grep “218.19.140.242″ | awk ‘{print $7}’ | sort | uniq -c | sort -nr

4.查看當(dāng)天訪(fǎng)問(wèn)排行前10的url

cat default-access_log | grep “10/Dec/2010″ | awk ‘{print $7}’ | sort | uniq -c | sort -nr | head -n 10

5.看到指定的ip究竟干了什么

cat default-access_log | grep 218.19.140.242 | awk ‘{print $1″\t”$8}’ | sort | uniq -c | sort -nr | less

6.查看訪(fǎng)問(wèn)次數(shù)最多的幾個(gè)分鐘(找到熱點(diǎn))

awk ‘{print $4}’ default-access_log |cut -c 14-18|sort|uniq -c|sort -nr|head

三.使用awstats自動(dòng)分析日志

當(dāng)然啦,如果想最簡(jiǎn)單和最直觀(guān)的分析日志還是用工具,現(xiàn)在網(wǎng)上較流行的工具是awstats,一個(gè)基于perl的web日志分析工具,功能很強(qiáng)大也支持IIS等服務(wù)器

載地址

下載錯(cuò)誤?【投訴報(bào)錯(cuò)】

Nginx日志分析工具 v2.0 綠色中文免費(fèi)版

      氣軟件

      關(guān)文章

      載聲明

      ☉ 解壓密碼:www.dbjr.com.cn 就是本站主域名,希望大家看清楚,[ 分享碼的獲取方法 ]可以參考這篇文章
      ☉ 推薦使用 [ 迅雷 ] 下載,使用 [ WinRAR v5 ] 以上版本解壓本站軟件。
      ☉ 如果這個(gè)軟件總是不能下載的請(qǐng)?jiān)谠u(píng)論中留言,我們會(huì)盡快修復(fù),謝謝!
      ☉ 下載本站資源,如果服務(wù)器暫不能下載請(qǐng)過(guò)一段時(shí)間重試!或者多試試幾個(gè)下載地址
      ☉ 如果遇到什么問(wèn)題,請(qǐng)?jiān)u論留言,我們定會(huì)解決問(wèn)題,謝謝大家支持!
      ☉ 本站提供的一些商業(yè)軟件是供學(xué)習(xí)研究之用,如用于商業(yè)用途,請(qǐng)購(gòu)買(mǎi)正版。
      ☉ 本站提供的Nginx日志分析工具 v2.0 綠色中文免費(fèi)版資源來(lái)源互聯(lián)網(wǎng),版權(quán)歸該下載資源的合法擁有者所有。