詳解如何使用Spark和Scala分析Apache訪問日志
安裝
首先需要安裝好Java和Scala,然后下載Spark安裝,確保PATH 和JAVA_HOME 已經(jīng)設(shè)置,然后需要使用Scala的SBT 構(gòu)建Spark如下:
$ sbt/sbt assembly
構(gòu)建時間比較長。構(gòu)建完成后,通過運(yùn)行下面命令確證安裝成功:
$ ./bin/spark-shell
scala> val textFile = sc.textFile("README.md") // 創(chuàng)建一個指向 README.md 引用 scala> textFile.count // 對這個文件內(nèi)容行數(shù)進(jìn)行計數(shù) scala> textFile.first // 打印出第一行
Apache訪問日志分析器
首先我們需要使用Scala編寫一個對Apache訪問日志的分析器,所幸已經(jīng)有人編寫完成,下載Apache logfile parser code。使用SBT進(jìn)行編譯打包:
sbt compile sbt test sbt package
打包名稱假設(shè)為AlsApacheLogParser.jar。
然后在Linux命令行啟動Spark:
// this works $ MASTER=local[4] SPARK_CLASSPATH=AlsApacheLogParser.jar ./bin/spark-shell
對于Spark 0.9,有些方式并不起效:
// does not work $ MASTER=local[4] ADD_JARS=AlsApacheLogParser.jar ./bin/spark-shell // does not work spark> :cp AlsApacheLogParser.jar
上傳成功后,在Spark REPL創(chuàng)建AccessLogParser 實(shí)例:
import com.alvinalexander.accesslogparser._ val p = new AccessLogParser
現(xiàn)在就可以像之前讀取readme.cmd一樣讀取apache訪問日志accesslog.small:
scala> val log = sc.textFile("accesslog.small") 14/03/09 11:25:23 INFO MemoryStore: ensureFreeSpace(32856) called with curMem=0, maxMem=309225062 14/03/09 11:25:23 INFO MemoryStore: Block broadcast_0 stored as values to memory (estimated size 32.1 KB, free 294.9 MB) log: org.apache.spark.rdd.RDD[String] = MappedRDD[1] at textFile at <console>:15 scala> log.count (a lot of output here) res0: Long = 100000
分析Apache日志
我們可以分析Apache日志中404有多少個,創(chuàng)建方法如下:
def getStatusCode(line: Option[AccessLogRecord]) = { line match { case Some(l) => l.httpStatusCode case None => "0" } }
其中Option[AccessLogRecord]是分析器的返回值。
然后在Spark命令行使用如下:
log.filter(line => getStatusCode(p.parseRecord(line)) == "404").count
這個統(tǒng)計將返回httpStatusCode是404的行數(shù)。
深入挖掘
下面如果我們想知道哪些URL是有問題的,比如URL中有一個空格等導(dǎo)致404錯誤,顯然需要下面步驟:
- 過濾出所有 404 記錄
- 從每個404記錄得到request字段(分析器請求的URL字符串是否有空格等)
- 不要返回重復(fù)的記錄
創(chuàng)建下面方法:
// get the `request` field from an access log record def getRequest(rawAccessLogString: String): Option[String] = { val accessLogRecordOption = p.parseRecord(rawAccessLogString) accessLogRecordOption match { case Some(rec) => Some(rec.request) case None => None } }
將這些代碼貼入Spark REPL,再運(yùn)行如下代碼:
log.filter(line => getStatusCode(p.parseRecord(line)) == "404").map(getRequest(_)).count val recs = log.filter(line => getStatusCode(p.parseRecord(line)) == "404").map(getRequest(_)) val distinctRecs = log.filter(line => getStatusCode(p.parseRecord(line)) == "404").map(getRequest(_)).distinct distinctRecs.foreach(println)
總結(jié)
對于訪問日志簡單分析當(dāng)然是要grep比較好,但是更復(fù)雜的查詢就需要Spark了。很難判斷 Spark在單個系統(tǒng)上的性能。這是因?yàn)镾park是針對分布式系統(tǒng)大文件。
以上就是本文的全部內(nèi)容,希望對大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。
相關(guān)文章
linux下通過rsync+inotify 實(shí)現(xiàn)數(shù)據(jù)實(shí)時備份(遠(yuǎn)程容災(zāi)備份系統(tǒng))
linux下為了數(shù)據(jù)安全或者網(wǎng)站同步鏡像,不得不考慮一些實(shí)時備份的問題,這篇linux下通過rsync+inotify 實(shí)現(xiàn)數(shù)據(jù)實(shí)時備份配置過程記錄下來,防止遺忘2013-09-09Linux用戶自定義at、cron計劃任務(wù)執(zhí)行的方法
今天小編就為大家分享一篇Linux用戶自定義at、cron計劃任務(wù)執(zhí)行的方法,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2019-07-07Linux利用traceroute命令發(fā)現(xiàn)負(fù)載均衡的實(shí)戰(zhàn)案例
在網(wǎng)絡(luò)管理和故障排除中,了解數(shù)據(jù)包的路徑和識別負(fù)載均衡節(jié)點(diǎn)是非常重要的,traceroute 命令是一個用于跟蹤數(shù)據(jù)包在網(wǎng)絡(luò)中經(jīng)過的路由路徑的工具,本文將詳細(xì)介紹如何利用 traceroute 命令發(fā)現(xiàn)網(wǎng)絡(luò)中的負(fù)載均,需要的朋友可以參考下2024-07-07Apache中偽靜態(tài)Rewrite的使用方法和URL重寫規(guī)則表達(dá)式講解
apache中的mod_rewrite模塊提供了一個基于正則表達(dá)式分析器的重寫引擎來實(shí)時重寫URL請求,主要的功能就是實(shí)現(xiàn)URL的跳轉(zhuǎn),它的正則表達(dá)式是基于Perl語言??苫诜?wù)器級的(httpd.conf)和目錄級的(.htaccess)兩種方式,允許通過它來改變Apache?Web服務(wù)器的配置。2022-11-11CentOS6.4 下安裝SVN的詳細(xì)教程(超詳細(xì))
這篇文章主要介紹了CentOS6.4 下安裝SVN的詳細(xì)教程,在安裝之前需要檢查是否已經(jīng)安裝過了,然后使用yum install subversion安裝,具體操作詳細(xì)過程請參考本文2016-10-10使用腳本實(shí)現(xiàn)故障時自動重啟Apache
這篇文章主要介紹了使用腳本實(shí)現(xiàn)故障時自動重啟Apache,需要的朋友可以參考下2014-12-12