python2爬取百度貼吧指定關(guān)鍵字和圖片代碼實例
更新時間:2019年08月14日 10:17:20 作者:silence-cc
這篇文章主要介紹了python2爬取百度貼吧指定關(guān)鍵字和圖片代碼實例,文中通過示例代碼介紹的非常詳細,對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友可以參考下
目的:在百度貼吧輸入關(guān)鍵字和要查找的起始結(jié)束頁,獲取帖子里面樓主所發(fā)的圖片
思路:
- 獲取分頁里面的帖子鏈接列表
- 獲取帖子里面樓主所發(fā)的圖片鏈接列表
- 保存圖片到本地
注意事項:
- 問題:在谷歌瀏覽器使用xpath helper插件時有匹配結(jié)果,但在程序里面使用python內(nèi)帶的xpath匹配卻為空的原因。
- 原因:不同服務(wù)器會對不同的瀏覽器返回不同的數(shù)據(jù),導(dǎo)致在谷歌瀏覽器看到的和服務(wù)器返回的有區(qū)別
- 解決方法:使用IE瀏覽器的User-agenet,而且越老的版本,報錯幾率相對越小
#!/usr/bin/env python # -*- coding:utf-8 -*- import urllib2 import urllib import os from lxml import etree keyword = raw_input('請輸入要查詢的關(guān)鍵字: ') keyword = {'kw':keyword} kw = urllib.urlencode(keyword) startpage = raw_input('請輸入開始頁數(shù): ') endpage = raw_input('請輸入結(jié)束頁數(shù): ') url = 'https://tieba.baidu.com/f' + '?' + kw print('開始下載...') # 計算下載的圖片個數(shù),注意:變量n如放在最外層循環(huán),可以統(tǒng)計每個分頁圖片個數(shù) n = 0 # 獲取分頁里面帖子鏈接列表,獲取每個帖子里樓主所發(fā)的圖片鏈接列表,保存圖片 # 獲取帖子鏈接列表 for page in range(int(startpage),int(endpage)+1): pnumber = {'pn': str((page - 1)*50)} pnumber = urllib.urlencode(pnumber) fullurl = url + '&' + pnumber # 發(fā)現(xiàn)使用谷歌瀏覽器的User-Agent,會導(dǎo)致后面的xpath匹配結(jié)果有時為空。原因:服務(wù)器會對不同的瀏覽器發(fā)出的同一請求返回不同格式的數(shù)據(jù),此時返回的數(shù)據(jù)和在谷歌瀏覽器里面看到的數(shù)據(jù)不同。 # 解決辦法:使用IE瀏覽器的User-Agent,因為IE的相對來說更標(biāo)準,而且版本越老問題越少。 headers = {"User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64; Trident/7.0; rv:11.0) like Gecko"} request = urllib2.Request(fullurl,headers=headers) response = urllib2.urlopen(request) html = response.read() # 解析html 為 HTML DOM文檔 content = etree.HTML(html) # xpath使用下面括號內(nèi)容進行匹配,使用a的屬性使用了class='j_th_tit'去過濾廣告則匹配結(jié)果為空;換成a的屬性rel="noreferrer"就解決。為啥換不清楚。思路,這個屬性不行換個屬性。 # 獲取每個分頁里面的帖子的鏈接列表 link_list = content.xpath('//div[@class="threadlist_lz clearfix"]/div/a[@rel="noreferrer"]/@href') # 獲取該帖子樓主所發(fā)的圖片鏈接列表 for link in link_list: link = 'https://tieba.baidu.com' + link request2 = urllib2.Request(link,headers=headers) response2 = urllib2.urlopen(request2) html2 = response2.read() # 把html字符串解析為html dom content2 = etree.HTML(html2) # 使用xpath匹配其里面層主所發(fā)的圖片的鏈接 link_list2 = content2.xpath('//img[@class="BDE_Image"]/@src') # 遍歷圖片鏈接列表,保存圖片到文件夾images內(nèi) for link2 in link_list2: request3 = urllib2.Request(link2,headers=headers) response3 = urllib2.urlopen(request3) html3 = response3.read() # 指定文件名 filename = link2[-10:] n += 1 print('正在保存第 %3d 張圖片'%n) # html3為返回的圖片內(nèi)容,把圖片寫入images2文件夾內(nèi) with open('images' + '/' + filename,'wb') as f: f.write(html3) print('下載結(jié)束!')
以上就是本文的全部內(nèi)容,希望對大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。
相關(guān)文章
Python中用pyinstaller打包時的圖標(biāo)問題及解決方法
這篇文章主要介紹了python中用pyinstaller打包時的圖標(biāo)問題及解決方法,本文從兩方面給大家分析原因所在,通過截圖實例代碼給大家介紹的非常詳細,需要的朋友可以參考下2020-02-02解決python3中的requests解析中文頁面出現(xiàn)亂碼問題
requests是一個很實用的Python HTTP客戶端庫,編寫爬蟲和測試服務(wù)器響應(yīng)數(shù)據(jù)時經(jīng)常會用到。這篇文章給大家介紹了解決python3中的requests解析中文頁面出現(xiàn)亂碼問題,感興趣的朋友一起看看吧2019-04-04python 創(chuàng)建彈出式菜單的實現(xiàn)代碼
這篇文章主要介紹了python 創(chuàng)建彈出式菜單的實現(xiàn)代碼的相關(guān)資料,需要的朋友可以參考下2017-07-07Python利用heapq實現(xiàn)一個優(yōu)先級隊列的方法
今天小編就為大家分享一篇Python利用heapq實現(xiàn)一個優(yōu)先級隊列的方法,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2019-02-02Python中使用urllib2防止302跳轉(zhuǎn)的代碼例子
這篇文章主要介紹了Python中使用urllib2防止302跳轉(zhuǎn)的代碼例子,即避免302跳轉(zhuǎn)的實現(xiàn),需要的朋友可以參考下2014-07-07詳解將Pandas中的DataFrame類型轉(zhuǎn)換成Numpy中array類型的三種方法
這篇文章主要介紹了詳解將Pandas中的DataFrame類型轉(zhuǎn)換成Numpy中array類型的三種方法,文中通過示例代碼介紹的非常詳細,對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2019-07-07