Python實現(xiàn)爬取知乎神回復簡單爬蟲代碼分享
看知乎的時候發(fā)現(xiàn)了一個 “如何正確地吐槽” 收藏夾,里面的一些神回復實在很搞笑,但是一頁一頁地看又有點麻煩,而且每次都要打開網頁,于是想如果全部爬下來到一個文件里面,是不是看起來很爽,并且隨時可以看到全部的,于是就開始動手了。
工具
1.Python 2.7
2.BeautifulSoup
分析網頁
我們先來看看知乎上該網頁的情況
網址:,容易看到,網址是有規(guī)律的,page慢慢遞增,這樣就能夠實現(xiàn)全部爬取了。
再來看一下我們要爬取的內容:
我們要爬取兩個內容:問題和回答,回答僅限于顯示了全部內容的回答,如下面這種就不能爬取,因為好像無法展開(反正我不會。。),再說答案不全的話爬來也沒用,所以就不爬答案不全的了吧。
好,那么下面我們要找到他們在網頁源代碼中的位置:
即我們找到問題的內容包含在<h2 class = "zm-item-title"><a tar...>中,那么我們等會就可以在這個標簽里面找問題。
然后是回復:
有兩個地方都有回復的內容,因為上面那個的內容還包括了<span..>等一些內容,不方便處理,我們爬下面那個的內容,因為那個里面的內容純正無污染。
代碼
好,這時候我們試著寫出python代碼:
# -*- coding: cp936 -*-
import urllib2
from BeautifulSoup import BeautifulSoup
f = open('howtoTucao.txt','w') #打開文件
for pagenum in range(1,21): #從第1頁爬到第20頁
strpagenum = str(pagenum) #頁數(shù)的str表示
print "Getting data for Page " + strpagenum #shell里面顯示的,表示已爬到多少頁
url = " #網址
page = urllib2.urlopen(url) #打開網頁
soup = BeautifulSoup(page) #用BeautifulSoup解析網頁
#找到具有class屬性為下面兩個的所有Tag
ALL = soup.findAll(attrs = {'class' : ['zm-item-title','zh-summary summary clearfix'] })
for each in ALL : #枚舉所有的問題和回答
#print type(each.string)
#print each.name
if each.name == 'h2' : #如果Tag為h2類型,說明是問題
print each.a.string #問題中還有一個<a..>,所以要each.a.string取出內容
if each.a.string: #如果非空,才能寫入
f.write(each.a.string)
else : #否則寫"No Answer"
f.write("No Answer")
else : #如果是回答,同樣寫入
print each.string
if each.string:
f.write(each.string)
else :
f.write("No Answer")
f.close() #關閉文件
代碼雖然不常,可是寫了我半天,開始各種出問題。
運行
然后我們運行就可以爬了:
結果
等運行完畢,我們打開文件howtoTucao.txt,可以看到,這樣就爬取成功了。只是格式可能還是有點問題,原來是我No Answer沒加換行,所以No Answer還會混到文本里面去,加兩個換行就可以了。
相關文章
python使用threading.Condition交替打印兩個字符
這篇文章主要為大家詳細介紹了python使用threading.Condition交替打印兩個字符,具有一定的參考價值,感興趣的小伙伴們可以參考一下2019-05-05