簡(jiǎn)單的抓取淘寶圖片的Python爬蟲(chóng)
寫(xiě)了一個(gè)抓taobao圖片的爬蟲(chóng),全是用if,for,while寫(xiě)的,比較簡(jiǎn)陋,入門(mén)作品。
從網(wǎng)頁(yè)http://mm.taobao.com/json/request_top_list.htm?type=0&page=中提取taobao模特的照片。
# -*- coding: cp936 -*-
import urllib2
import urllib
mmurl=" i=0#第二頁(yè)有個(gè)人的頁(yè)面沒(méi)圖片,會(huì)出現(xiàn)IO錯(cuò)誤
while i<15:
url=mmurl+str(i)
#print url #打印出列表的url
up=urllib2.urlopen(url)#打開(kāi)頁(yè)面,存入句柄中
cont=up.read()
#print len(cont)#頁(yè)面的長(zhǎng)度
ahref='<a href="http'#篩選頁(yè)面內(nèi)網(wǎng)頁(yè)鏈接的關(guān)鍵字
target="target"
pa=cont.find(ahref)#找出網(wǎng)頁(yè)鏈接的頭部位置
pt=cont.find(target,pa)#找出網(wǎng)頁(yè)鏈接的尾部位置
for a in range(0,20):#如才能不把20硬編碼進(jìn)去?如何找到文件結(jié)尾?
urlx=cont[pa+len(ahref)-4:pt-2]#從頭部到尾部,將網(wǎng)頁(yè)鏈接存入變量
if len(urlx) < 60:#如果網(wǎng)頁(yè)鏈接長(zhǎng)度適合【len()!?。?!】
urla=urlx #那么就準(zhǔn)備將其打印出來(lái)
print urla #這是想要的model個(gè)人URL
#########以下開(kāi)始對(duì)model個(gè)人的URL進(jìn)行操作#########
mup=urllib2.urlopen(urla)#打開(kāi)model個(gè)人的頁(yè)面,存入句柄中
mcont=mup.read()#對(duì)model頁(yè)面的句柄進(jìn)行讀出操作,存入mcont字符串
imgh="<img style=" #篩選頁(yè)面內(nèi)【圖片】鏈接的關(guān)鍵字
imgt=".jpg"
iph=mcont.find(imgh)#找出【圖片】鏈接的頭部位置
ipt=mcont.find(imgt,iph)#找出【圖片】鏈接的尾部位置
for b in range(0,10):#又是硬編碼····
mpic=mcont[iph:ipt+len(imgt)]#原始圖片鏈接,鏈接字符的噪聲太大
iph1=mpic.find("http")#對(duì)上面的鏈接再過(guò)濾一次
ipt1=mpic.find(imgt) #同上
picx=mpic[iph1:ipt1+len(imgt)]
if len(picx)<150:#仍有一些URL是“http:ss.png><dfsdf>.jpg”(設(shè)為100竟然會(huì)誤傷)
pica=picx #【是len(picx)<100而不是picx!!】不然會(huì)不顯示
print pica
############################
###########開(kāi)始下載pica這個(gè)圖片
urllib.urlretrieve(pica,"pic\\tb"+str(i)+"x"+str(a)+"x"+str(b)+".jpg")
########### pica圖片下載完畢.(加上各循環(huán)體的數(shù)字,以免名字重復(fù))
############################
iph=mcont.find(imgh,iph+len(imgh))#開(kāi)始下一個(gè)循環(huán)
ipt=mcont.find(imgt,iph)
############model個(gè)人URL內(nèi)的【圖片鏈接】提取完畢##########
pa=cont.find(ahref,pa+len(ahref))#將原來(lái)的頭部位作為起始點(diǎn),繼續(xù)向后找下一個(gè)頭部
pt=cont.find(target,pa)#繼續(xù)找下一個(gè)尾部
i+=1
是不是很簡(jiǎn)單呢,小伙伴們稍微修改下就可以抓取其他內(nèi)容了的。。。
- 編寫(xiě)Python腳本抓取網(wǎng)絡(luò)小說(shuō)來(lái)制作自己的閱讀器
- Python實(shí)現(xiàn)的爬取小說(shuō)爬蟲(chóng)功能示例
- python制作小說(shuō)爬蟲(chóng)實(shí)錄
- Python制作爬蟲(chóng)采集小說(shuō)
- 零基礎(chǔ)寫(xiě)python爬蟲(chóng)之抓取糗事百科代碼分享
- 實(shí)踐Python的爬蟲(chóng)框架Scrapy來(lái)抓取豆瓣電影TOP250
- Python制作爬蟲(chóng)抓取美女圖
- 編寫(xiě)Python爬蟲(chóng)抓取暴走漫畫(huà)上gif圖片的實(shí)例分享
- Python爬蟲(chóng)之網(wǎng)頁(yè)圖片抓取的方法
- python實(shí)現(xiàn)爬蟲(chóng)抓取小說(shuō)功能示例【抓取金庸小說(shuō)】
相關(guān)文章
python?web.py啟動(dòng)https端口的方式
這篇文章主要介紹了python?web.py啟動(dòng)https端口,本文通過(guò)實(shí)例代碼給大家介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或工作具有一定的參考借鑒價(jià)值,需要的朋友可以參考下2023-05-05tensorflow入門(mén):TFRecordDataset變長(zhǎng)數(shù)據(jù)的batch讀取詳解
今天小編就為大家分享一篇tensorflow入門(mén):TFRecordDataset變長(zhǎng)數(shù)據(jù)的batch讀取詳解,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2020-01-01詳解pandas數(shù)據(jù)合并與重塑(pd.concat篇)
這篇文章主要介紹了詳解pandas數(shù)據(jù)合并與重塑(pd.concat篇),文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧2019-07-07python爬蟲(chóng)爬取股票的北上資金持倉(cāng)數(shù)據(jù)
這篇文章主要介紹了python爬蟲(chóng)爬取股票的北上資金持倉(cāng)數(shù)據(jù),文章基于python的相關(guān)資料展開(kāi)爬取數(shù)據(jù)的詳細(xì)內(nèi)容,具有一定的參考價(jià)值,需要的小伙伴可以參考一下2022-05-05Django 響應(yīng)數(shù)據(jù)response的返回源碼詳解
這篇文章主要介紹了Django 響應(yīng)數(shù)據(jù)response的返回源碼詳解,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下2019-08-08Python實(shí)現(xiàn)簡(jiǎn)單拆分PDF文件的方法
這篇文章主要介紹了Python實(shí)現(xiàn)簡(jiǎn)單拆分PDF文件的方法,可實(shí)現(xiàn)將一個(gè)PDF文件拆分成指定份數(shù)的功能,涉及pyPdf模塊的使用技巧,需要的朋友可以參考下2015-07-07windows下搭建python scrapy爬蟲(chóng)框架步驟
在本文內(nèi)容里小編給大家分享的是關(guān)于windows下搭建python scrapy爬蟲(chóng)框架的教學(xué)內(nèi)容,需要的朋友們學(xué)習(xí)下。2018-12-12嘗試用最短的Python代碼來(lái)實(shí)現(xiàn)服務(wù)器和代理服務(wù)器
"人生苦短、我用Python",Python最大的特點(diǎn)便是代碼簡(jiǎn)潔,得益于Python自帶的wsgiref包和socket模塊,這里我們將嘗試用最短的Python代碼來(lái)實(shí)現(xiàn)服務(wù)器和代理服務(wù)器:2016-06-06Python實(shí)現(xiàn)個(gè)人微信號(hào)自動(dòng)監(jiān)控告警的示例
今天小編就為大家分享一篇Python實(shí)現(xiàn)個(gè)人微信號(hào)自動(dòng)監(jiān)控告警的示例,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2019-07-07