python2爬取百度貼吧指定關(guān)鍵字和圖片代碼實(shí)例
目的:在百度貼吧輸入關(guān)鍵字和要查找的起始結(jié)束頁(yè),獲取帖子里面樓主所發(fā)的圖片
思路:
- 獲取分頁(yè)里面的帖子鏈接列表
- 獲取帖子里面樓主所發(fā)的圖片鏈接列表
- 保存圖片到本地
注意事項(xiàng):
- 問(wèn)題:在谷歌瀏覽器使用xpath helper插件時(shí)有匹配結(jié)果,但在程序里面使用python內(nèi)帶的xpath匹配卻為空的原因。
- 原因:不同服務(wù)器會(huì)對(duì)不同的瀏覽器返回不同的數(shù)據(jù),導(dǎo)致在谷歌瀏覽器看到的和服務(wù)器返回的有區(qū)別
- 解決方法:使用IE瀏覽器的User-agenet,而且越老的版本,報(bào)錯(cuò)幾率相對(duì)越小
#!/usr/bin/env python # -*- coding:utf-8 -*- import urllib2 import urllib import os from lxml import etree keyword = raw_input('請(qǐng)輸入要查詢的關(guān)鍵字: ') keyword = {'kw':keyword} kw = urllib.urlencode(keyword) startpage = raw_input('請(qǐng)輸入開(kāi)始頁(yè)數(shù): ') endpage = raw_input('請(qǐng)輸入結(jié)束頁(yè)數(shù): ') url = 'https://tieba.baidu.com/f' + '?' + kw print('開(kāi)始下載...') # 計(jì)算下載的圖片個(gè)數(shù),注意:變量n如放在最外層循環(huán),可以統(tǒng)計(jì)每個(gè)分頁(yè)圖片個(gè)數(shù) n = 0 # 獲取分頁(yè)里面帖子鏈接列表,獲取每個(gè)帖子里樓主所發(fā)的圖片鏈接列表,保存圖片 # 獲取帖子鏈接列表 for page in range(int(startpage),int(endpage)+1): pnumber = {'pn': str((page - 1)*50)} pnumber = urllib.urlencode(pnumber) fullurl = url + '&' + pnumber # 發(fā)現(xiàn)使用谷歌瀏覽器的User-Agent,會(huì)導(dǎo)致后面的xpath匹配結(jié)果有時(shí)為空。原因:服務(wù)器會(huì)對(duì)不同的瀏覽器發(fā)出的同一請(qǐng)求返回不同格式的數(shù)據(jù),此時(shí)返回的數(shù)據(jù)和在谷歌瀏覽器里面看到的數(shù)據(jù)不同。 # 解決辦法:使用IE瀏覽器的User-Agent,因?yàn)镮E的相對(duì)來(lái)說(shuō)更標(biāo)準(zhǔn),而且版本越老問(wèn)題越少。 headers = {"User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64; Trident/7.0; rv:11.0) like Gecko"} request = urllib2.Request(fullurl,headers=headers) response = urllib2.urlopen(request) html = response.read() # 解析html 為 HTML DOM文檔 content = etree.HTML(html) # xpath使用下面括號(hào)內(nèi)容進(jìn)行匹配,使用a的屬性使用了class='j_th_tit'去過(guò)濾廣告則匹配結(jié)果為空;換成a的屬性rel="noreferrer"就解決。為啥換不清楚。思路,這個(gè)屬性不行換個(gè)屬性。 # 獲取每個(gè)分頁(yè)里面的帖子的鏈接列表 link_list = content.xpath('//div[@class="threadlist_lz clearfix"]/div/a[@rel="noreferrer"]/@href') # 獲取該帖子樓主所發(fā)的圖片鏈接列表 for link in link_list: link = 'https://tieba.baidu.com' + link request2 = urllib2.Request(link,headers=headers) response2 = urllib2.urlopen(request2) html2 = response2.read() # 把html字符串解析為html dom content2 = etree.HTML(html2) # 使用xpath匹配其里面層主所發(fā)的圖片的鏈接 link_list2 = content2.xpath('//img[@class="BDE_Image"]/@src') # 遍歷圖片鏈接列表,保存圖片到文件夾images內(nèi) for link2 in link_list2: request3 = urllib2.Request(link2,headers=headers) response3 = urllib2.urlopen(request3) html3 = response3.read() # 指定文件名 filename = link2[-10:] n += 1 print('正在保存第 %3d 張圖片'%n) # html3為返回的圖片內(nèi)容,把圖片寫入images2文件夾內(nèi) with open('images' + '/' + filename,'wb') as f: f.write(html3) print('下載結(jié)束!')
以上就是本文的全部?jī)?nèi)容,希望對(duì)大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。
- Python Scrapy圖片爬取原理及代碼實(shí)例
- python3 requests庫(kù)實(shí)現(xiàn)多圖片爬取教程
- Python3直接爬取圖片URL并保存示例
- Python爬蟲爬取煎蛋網(wǎng)圖片代碼實(shí)例
- Python爬取知乎圖片代碼實(shí)現(xiàn)解析
- python協(xié)程gevent案例 爬取斗魚圖片過(guò)程解析
- python實(shí)現(xiàn)知乎高顏值圖片爬取
- python實(shí)現(xiàn)爬取百度圖片的方法示例
- Python實(shí)現(xiàn)的爬取百度貼吧圖片功能完整示例
- python根據(jù)用戶需求輸入想爬取的內(nèi)容及頁(yè)數(shù)爬取圖片方法詳解
相關(guān)文章
Python中用pyinstaller打包時(shí)的圖標(biāo)問(wèn)題及解決方法
這篇文章主要介紹了python中用pyinstaller打包時(shí)的圖標(biāo)問(wèn)題及解決方法,本文從兩方面給大家分析原因所在,通過(guò)截圖實(shí)例代碼給大家介紹的非常詳細(xì),需要的朋友可以參考下2020-02-02解決python3中的requests解析中文頁(yè)面出現(xiàn)亂碼問(wèn)題
requests是一個(gè)很實(shí)用的Python HTTP客戶端庫(kù),編寫爬蟲和測(cè)試服務(wù)器響應(yīng)數(shù)據(jù)時(shí)經(jīng)常會(huì)用到。這篇文章給大家介紹了解決python3中的requests解析中文頁(yè)面出現(xiàn)亂碼問(wèn)題,感興趣的朋友一起看看吧2019-04-04python 統(tǒng)計(jì)代碼耗時(shí)的幾種方法分享
本文實(shí)例講述了Python中統(tǒng)計(jì)代碼片段、函數(shù)運(yùn)行耗時(shí)的幾種方法,分享給大家,僅供參考。2021-04-04python 創(chuàng)建彈出式菜單的實(shí)現(xiàn)代碼
這篇文章主要介紹了python 創(chuàng)建彈出式菜單的實(shí)現(xiàn)代碼的相關(guān)資料,需要的朋友可以參考下2017-07-07Python利用heapq實(shí)現(xiàn)一個(gè)優(yōu)先級(jí)隊(duì)列的方法
今天小編就為大家分享一篇Python利用heapq實(shí)現(xiàn)一個(gè)優(yōu)先級(jí)隊(duì)列的方法,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2019-02-02Python實(shí)現(xiàn)簡(jiǎn)單猜拳游戲
這篇文章主要為大家詳細(xì)介紹了Python實(shí)現(xiàn)簡(jiǎn)單猜拳游戲,文中示例代碼介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下2022-01-01Python中使用urllib2防止302跳轉(zhuǎn)的代碼例子
這篇文章主要介紹了Python中使用urllib2防止302跳轉(zhuǎn)的代碼例子,即避免302跳轉(zhuǎn)的實(shí)現(xiàn),需要的朋友可以參考下2014-07-07Python OpenCV實(shí)現(xiàn)邊緣檢測(cè)
這篇文章主要為大家詳細(xì)介紹了Python OpenCV實(shí)現(xiàn)邊緣檢測(cè),文中示例代碼介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下2021-08-08詳解將Pandas中的DataFrame類型轉(zhuǎn)換成Numpy中array類型的三種方法
這篇文章主要介紹了詳解將Pandas中的DataFrame類型轉(zhuǎn)換成Numpy中array類型的三種方法,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧2019-07-07