Python 爬蟲(chóng)學(xué)習(xí)筆記之正則表達(dá)式
正則表達(dá)式的使用
想要學(xué)習(xí) Python 爬蟲(chóng) , 首先需要了解一下正則表達(dá)式的使用,下面我們就來(lái)看看如何使用。
. 的使用這個(gè)時(shí)候的點(diǎn)就相當(dāng)于一個(gè)占位符,可以匹配任意一個(gè)字符,什么意思呢?看個(gè)例子就知道
import re content = "helloworld" b = re.findall('w.',content) print b`
注意了,我們首先導(dǎo)入了 re,這個(gè)時(shí)候大家猜一下輸出結(jié)果是什么?因?yàn)?. 相當(dāng)于一個(gè)占位符,所以理所當(dāng)然的這個(gè)時(shí)候的輸出結(jié)果是 wo 。
* 的使用跟上面的 . 不同,* 可以匹配前一個(gè)字符任意次數(shù),看個(gè)例子
content = "helloworldhelloworld" b = re.findall('w*',content) print b
這個(gè)時(shí)候的輸出結(jié)果是 ['', '', '', '', '', 'w', '', '', '', '', '', '', '', '', '', 'w', '', '', '', '', ''],可見(jiàn)是一個(gè)列表,長(zhǎng)度和匹配的字符串一致,遇到要匹配的字符就打印出來(lái)。
.* 的使用.* 是一種組合使用,它可以盡可能多的匹配內(nèi)容,比如下面這個(gè)例子
content = "helloworldhelloworldworld" b = re.findall('he.*ld',content) print b
它會(huì)輸出 ['helloworldhelloworldworld'],它為什么不只打印一個(gè) helloworld,為什么全部打印下來(lái)了?這就是一種貪心算法,也就是說(shuō)我要找到最長(zhǎng)的那個(gè)符合條件的內(nèi)容。
.*? 的使用與 上面相反,這個(gè)符號(hào)會(huì)找到盡可能短的符合條件的內(nèi)容,然后放到一個(gè)列表中去,如下所示
content = 'xxhelloworldxxxxhelloworldxx' b = re.findall('xx.*?xx',content) print b
輸出的結(jié)果為 ['xxhelloworldxx', 'xxhelloworldxx'],可見(jiàn),有個(gè) xx 在前面好煩,怎么才能去掉呢?很簡(jiǎn)單,加個(gè)括號(hào)即可,括號(hào)加在哪?
content = 'xxhelloworldxxxxhelloworldxx' b = re.findall('xx(.*?)xx',content) print b
以上我們討論的都是內(nèi)容不包含換行符的情況,如果有了換行符結(jié)果又會(huì)發(fā)生什么變化呢?
content = '''xxhelloworld xx''' b = re.findall('xx(.*?)xx',content) print b
這個(gè)時(shí)候的輸出結(jié)果為一個(gè)空列表,那怎么辦???如果我們寫(xiě)網(wǎng)絡(luò)爬蟲(chóng)的時(shí)候,網(wǎng)頁(yè)源代碼肯定不止是一行啊,如果換一行我們就讀不出來(lái)了,那就好尷尬了,當(dāng)然有解決辦法~
content = '''xxhelloworld xx''' b = re.findall('xx(.*?)xx',content,re.S) print b
這樣就可以了,還有一個(gè)非常方便的提取數(shù)字的技巧,如下所示
content = '''xx123456 xx''' b = re.findall('(d+)',content,re.S) print b
在網(wǎng)頁(yè)源代碼中爬取圖片鏈接并下載
這篇文章中只是網(wǎng)絡(luò)爬蟲(chóng)的第一步,所以講解的也比較淺,所以現(xiàn)在我們先來(lái)利用正則表達(dá)式實(shí)現(xiàn)一個(gè)手動(dòng)的網(wǎng)絡(luò)爬蟲(chóng),什么是手動(dòng)的呢?就是我們自己把網(wǎng)頁(yè)源代碼復(fù)制下來(lái),保存在一個(gè) txt 文件中,然后利用正則表達(dá)式去過(guò)濾信息,然后去下載。
首先我搜索了一下 Linux 桌面,然后找到了如下一個(gè)網(wǎng)頁(yè)
右擊查看網(wǎng)絡(luò)源代碼,按 ctrl+f 搜索 img src 找到中間一部分進(jìn)行復(fù)制,并且粘貼到一個(gè) txt 文件中去,
然后就可以利用我們上述的知識(shí)去提取我們想要的信息,源代碼如下
import re import requests f = open('source.txt', 'r') html = f.read() f.close() pattern = '<img src="(.*?)"' pic_url = re.findall(pattern, html, re.S) i = 0 for each in pic_url: print 'Downloading :' + each pic = requests.get(each) fp = open('picture\\' + str(i) + '.jpg', 'wb') fp.write(pic.content) fp.close() i = i + 1
首先打開(kāi)我們保存網(wǎng)絡(luò)源代碼的 txt文件,進(jìn)行讀取,關(guān)閉文件流,然后就是利用正則表達(dá)式提取圖片鏈接,最后利用requests 中的 get() 方法進(jìn)行圖片下載,注意這個(gè) requests 不是Python 中自帶的,我們需要下載指定的文件,然后將其放入到 Python 的Lib 目錄下,此處下載,進(jìn)入網(wǎng)站后,按ctrl+f 搜索關(guān)鍵詞 requests 就可以看到如下頁(yè)面
,可以看出,我們下載的是 .whl 后綴的文件,手動(dòng)將其改成 .zip 后綴,然后解壓,就可以得到兩個(gè)目錄,將名為 requests 的目錄復(fù)制粘貼到上面講的目錄即可使用。
好了介紹完了,我們?nèi)タ聪逻\(yùn)行結(jié)果
C:Python27python.exe E:/PythonCode/20160820/Spider.py Downloading:http://n1.itc.cn/img8/wb/smccloud/fetch/2015/07/04/112732422680200576.JPG Downloading :http://n1.itc.cn/img8/wb/smccloud/fetch/2015/07/04/112640070563900918.JPG Downloading :http://n1.itc.cn/img8/wb/smccloud/fetch/2015/07/04/112547718465744154.JPG Downloading :http://n1.itc.cn/img8/wb/smccloud/fetch/2015/07/04/112455366330382227.JPG Downloading :http://n1.itc.cn/img8/wb/smccloud/fetch/2015/07/04/112363014254719641.JPG Downloading :http://n1.itc.cn/img8/wb/smccloud/fetch/2015/07/04/112270662197888742.JPG Downloading :http://n1.itc.cn/img8/wb/smccloud/fetch/2015/07/04/112178310031994750.JPG Downloading :http://n1.itc.cn/img8/wb/smccloud/fetch/2015/07/04/112085957910403853.JPG Process finished with exit code 0
這個(gè)時(shí)候就下載成功了,到我們的 picture 目錄下去查看下載的圖片
下載成功了。注意,自己找網(wǎng)頁(yè)源代碼實(shí)驗(yàn)的時(shí)候,最好不要讓鏈接中帶有中文,否則可能會(huì)出現(xiàn)亂碼,由于我本身學(xué)習(xí) Python 也才很短的時(shí)間,關(guān)于中文亂碼問(wèn)題,應(yīng)對(duì)起來(lái)還不是那么得心應(yīng)手,所以在此也就不再講解,本文暫時(shí)告以段落,有意見(jiàn)或疑問(wèn)可留言或者私聊我。
- 零基礎(chǔ)寫(xiě)python爬蟲(chóng)之神器正則表達(dá)式
- Python的爬蟲(chóng)包Beautiful Soup中用正則表達(dá)式來(lái)搜索
- python3爬蟲(chóng)之入門(mén)基礎(chǔ)和正則表達(dá)式
- python爬蟲(chóng) 正則表達(dá)式使用技巧及爬取個(gè)人博客的實(shí)例講解
- python爬蟲(chóng)正則表達(dá)式之處理?yè)Q行符
- 玩轉(zhuǎn)python爬蟲(chóng)之正則表達(dá)式
- Python爬蟲(chóng)正則表達(dá)式常用符號(hào)和方法
- Python爬蟲(chóng)之正則表達(dá)式基本用法實(shí)例分析
- Python爬蟲(chóng)教程之利用正則表達(dá)式匹配網(wǎng)頁(yè)內(nèi)容
- Pyhton爬蟲(chóng)知識(shí)之正則表達(dá)式詳解
相關(guān)文章
Python實(shí)現(xiàn)微信好友數(shù)據(jù)爬取及分析
這篇文章會(huì)基于Python對(duì)微信好友進(jìn)行數(shù)據(jù)分析,這里選擇的維度主要有:性別、頭像、簽名、位置,主要采用圖表和詞云兩種形式來(lái)呈現(xiàn)結(jié)果,其中,對(duì)文本類(lèi)信息會(huì)采用詞頻分析和情感分析兩種方法,感興趣的小伙伴可以了解一下2021-12-12Python垃圾回收機(jī)制三種實(shí)現(xiàn)方法
這篇文章主要介紹了Python垃圾回收機(jī)制三種實(shí)現(xiàn)方法,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下2020-04-04python中數(shù)據(jù)爬蟲(chóng)requests庫(kù)使用方法詳解
本篇文章主要介紹了python中數(shù)據(jù)爬蟲(chóng)requests庫(kù)使用方法詳解,小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,也給大家做個(gè)參考。一起跟隨小編過(guò)來(lái)看看吧2018-02-02python print()函數(shù)的end參數(shù)和sep參數(shù)的用法說(shuō)明
這篇文章主要介紹了python print()函數(shù)的end參數(shù)和sep參數(shù)的用法說(shuō)明,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教2021-05-05