python爬蟲爬取某站上海租房圖片
對于一個net開發(fā)這爬蟲真真的以前沒有寫過。這段時間開始學(xué)習(xí)python爬蟲,今天周末無聊寫了一段代碼爬取上海租房圖片,其實(shí)很簡短就是利用爬蟲的第三方庫Requests與BeautifulSoup。python 版本:python3.6 ,IDE :pycharm。其實(shí)就幾行代碼,但希望沒有開發(fā)基礎(chǔ)的人也能一下子看明白,所以大神請繞行。
第三方庫首先安裝
我是用的pycharm所以另為的腳本安裝我這就不介紹了。

如上圖打開默認(rèn)設(shè)置選擇Project Interprecter,雙擊pip或者點(diǎn)擊加號,搜索要安裝的第三方庫。其中如果建立的項目多記得Project Interprecter要選擇正確的安裝位置不然無法導(dǎo)入。
Requests庫
requests庫的官方定義:Requests 唯一的一個非轉(zhuǎn)基因的 Python HTTP 庫,人類可以安全享用。其實(shí)他就是請求網(wǎng)絡(luò)獲取網(wǎng)頁數(shù)據(jù)的。
import requests
header={'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36'}
res=requests.get('http://sh.58.com/zufang/',headers=header)
try:
print(res.text);
except ConnectionError:
print('訪問被拒絕?。?!')
結(jié)果如下:

其中Request Headers的參數(shù)如下:

#headers的一些屬性: #Accept:指定客戶端能夠接收的內(nèi)容類型,內(nèi)容類型的先后次序表示客戶都接收的先后次序 #Accept-Lanuage:指定HTTP客戶端瀏覽器用來展示返回信息優(yōu)先選擇的語言 #Accept-Encoding指定客戶端瀏覽器可以支持的web服務(wù)器返回內(nèi)容壓縮編碼類型。表示允許服務(wù)器在將輸出內(nèi)容發(fā)送到客戶端以前進(jìn)行壓縮,以節(jié)約帶寬。而這里設(shè)置的就是客戶端瀏覽器所能夠支持的返回壓縮格式。 #Accept-Charset:HTTP客戶端瀏覽器可以接受的字符編碼集 # User-Agent : 有些服務(wù)器或 Proxy 會通過該值來判斷是否是瀏覽器發(fā)出的請求 # Content-Type : 在使用 REST 接口時,服務(wù)器會檢查該值,用來確定 HTTP Body 中的內(nèi)容該怎樣解析。 # application/xml : 在 XML RPC,如 RESTful/SOAP 調(diào)用時使用 # application/json : 在 JSON RPC 調(diào)用時使用 # application/x-www-form-urlencoded : 瀏覽器提交 Web 表單時使用 # 在使用服務(wù)器提供的 RESTful 或 SOAP 服務(wù)時, Content-Type 設(shè)置錯誤會導(dǎo)致服務(wù)器拒絕服務(wù)
BeautifulSoup庫
BeautifulSoup可以輕松的解析Requests庫請求的頁面,并把頁面源代碼解析為Soup文檔,一邊過濾提取數(shù)據(jù)。這是bs4.2的文檔。
Beautiful Soup支持Python標(biāo)準(zhǔn)庫中的HTML解析器,還支持一些第三方的解析器,如果我們不安裝它,則 Python 會使用 Python默認(rèn)的解析器,其中l(wèi)xml 據(jù)說是相對而言比較強(qiáng)大的我下面的暗示是python 標(biāo)準(zhǔn)庫的。

選擇器select
# 選擇所有div標(biāo)簽
soup.select("div")
# 選擇所有p標(biāo)簽中的第三個標(biāo)簽
soup.select("p:nth-of-type(3)")
相當(dāng)于soup.select(p)[2]
# 選擇div標(biāo)簽下的所有img標(biāo)簽
soup.select("div img")
# 選擇div標(biāo)簽下的直接a子標(biāo)簽
soup.select("div > a")
# 選擇id=link1后的所有兄弟節(jié)點(diǎn)標(biāo)簽
soup.select("#link1 ~ .mybro")
# 選擇id=link1后的下一個兄弟節(jié)點(diǎn)標(biāo)簽
soup.select("#link1 + .mybro")
# 選擇a標(biāo)簽,其類屬性為className的標(biāo)簽
soup.select("a .className")
# 選擇a標(biāo)簽,其id屬性為idName的標(biāo)簽
soup.select("a #idName")
# 選擇a標(biāo)簽,其屬性中存在attrName的所有標(biāo)簽
soup.select("a[attrName]")
# 選擇a標(biāo)簽,其屬性href=http://wangyanling.com的所有標(biāo)簽
soup.select("a[)
# 選擇a標(biāo)簽,其href屬性以http開頭
soup.select('a[href^="http"]')
# 選擇a標(biāo)簽,其href屬性以lacie結(jié)尾
soup.select('a[href$="lacie"]')
# 選擇a標(biāo)簽,其href屬性包含.com
soup.select('a[href*=".com"]')
# 從html中排除某標(biāo)簽,此時soup中不再有script標(biāo)簽
[s.extract() for s in soup('script')]
# 如果想排除多個呢
[s.extract() for s in soup(['script','fram']
BeautifulSoup庫需要學(xué)習(xí)的知識點(diǎn),請參考bs4.2的文檔。在這不再過多敘述。
import requests
from bs4 import BeautifulSoup
header={'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36'}
res=requests.get('http://cd.58.com/zufang/',headers=header)
soup=BeautifulSoup(res.text,'html.parser')
print(soup.prettify())
案例:爬取上海租房圖片
import requests
import urllib.request
import os
import time
from bs4 import BeautifulSoup
header={'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.62 Safari/537.36'}
url=['http://sh.58.com/zufang/pn{}/?ClickID=2'.format(number) for number in range(6,51)]#分頁抓取
adminCout=6
for arurl in url:
adminCout=adminCout+1
res=requests.get(arurl,headers=header)
soup=BeautifulSoup(res.text,'html.parser')
arryImg=soup.select('.img_list img')
print(arryImg)
count = 0;
for img in arryImg:
print(img['lazy_src'])
_url = img['lazy_src']
pathName = "E:\\2333\\" + str(adminCout)+"_"+str(count) + ".jpg" # 設(shè)置路徑和文件名
result = urllib.request.urlopen(_url) # 打開鏈接,和python2.x不同請注意了
data = result.read() # 否則開始下載到本地
with open(pathName, "wb") as code:
code.write(data)
code.close()
count = count + 1 # 計數(shù)+1
print("正在下載第:", count)
time.sleep(30)
只是實(shí)現(xiàn)功能,至于代碼結(jié)果如下:

結(jié)語:
對于python并非為了從net跳出來,學(xué)習(xí)python只是感興趣,但是通過這段時間的學(xué)習(xí)確實(shí)有些思想從net的思路中跳了出來,接下來一年的業(yè)余時間應(yīng)該都會花在學(xué)習(xí)python上,還希望自己能堅持下去。這應(yīng)該是2017年最后一篇文章,在這給大家拜個早年。
- python模擬新浪微博登陸功能(新浪微博爬蟲)
- Python爬蟲實(shí)現(xiàn)簡單的爬取有道翻譯功能示例
- Python實(shí)現(xiàn)爬蟲爬取NBA數(shù)據(jù)功能示例
- Python實(shí)現(xiàn)爬取百度貼吧帖子所有樓層圖片的爬蟲示例
- Python使用Scrapy爬蟲框架全站爬取圖片并保存本地的實(shí)現(xiàn)代碼
- python爬蟲爬取淘寶商品信息(selenum+phontomjs)
- Python爬蟲實(shí)例_城市公交網(wǎng)絡(luò)站點(diǎn)數(shù)據(jù)的爬取方法
- 使用python爬蟲實(shí)現(xiàn)網(wǎng)絡(luò)股票信息爬取的demo
- Python實(shí)現(xiàn)爬取知乎神回復(fù)簡單爬蟲代碼分享
- python爬蟲實(shí)戰(zhàn)之爬取京東商城實(shí)例教程
- Python爬蟲爬取新浪微博內(nèi)容示例【基于代理IP】
相關(guān)文章
pycharm運(yùn)行程序時看不到任何結(jié)果顯示的解決
今天小編就為大家分享一篇pycharm運(yùn)行程序時看不到任何結(jié)果顯示的解決,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2020-02-02
pandas pd.cut()與pd.qcut()的具體實(shí)現(xiàn)
本文主要介紹了pandas pd.cut()與pd.qcut()的具體實(shí)現(xiàn),文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2023-01-01
Python實(shí)現(xiàn)迷宮自動尋路實(shí)例
大家好,本篇文章主要講的是Python實(shí)現(xiàn)迷宮自動尋路實(shí)例,感興趣的同學(xué)趕快來看一看吧,對你有幫助的話記得收藏一下2022-02-02
解決jupyter notebook 前面書寫后面內(nèi)容消失的問題
這篇文章主要介紹了解決jupyter notebook 前面書寫后面內(nèi)容消失的問題,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2020-04-04

