python自動下載圖片的方法示例
近日閑來無事,總有一種無形的力量縈繞在朕身邊,讓朕精神渙散,昏昏欲睡。

可是,像朕這么有職業(yè)操守的社畜怎么能在上班期間睡瞌睡呢,我不禁陷入了沉思。。。。

突然旁邊的IOS同事問:‘嘿,兄弟,我發(fā)現(xiàn)一個(gè)網(wǎng)站的圖片很有意思啊,能不能幫我保存下來提升我的開發(fā)靈感?'
作為一個(gè)堅(jiān)強(qiáng)的社畜怎么能說自己不行呢,當(dāng)時(shí)朕就不假思索的答應(yīng):‘oh, It's simple. Wait for me a few minute.'

點(diǎn)開同事給的圖片網(wǎng)站,
網(wǎng)站大概長這樣:

在朕翻看了幾十頁之后,朕突然覺得有點(diǎn)上頭。心中一想'不對啊,朕不是來學(xué)習(xí)的嗎?可是看美女圖片這個(gè)事情怎么才可以和學(xué)習(xí)關(guān)聯(lián)起來呢‘

冥思苦想一番之后,突然腦中靈光一閃,'要不用python寫個(gè)爬蟲吧,將此網(wǎng)站的圖片一網(wǎng)打盡‘。

說干就干,身體力行,要問爬蟲哪家強(qiáng),‘人生苦短,我用python'。
首先找到我的電腦里面半年前下載的python安裝包,無情的點(diǎn)擊了安裝,環(huán)境裝好之后,略一分析網(wǎng)頁結(jié)構(gòu)。先擼一個(gè)簡易版爬蟲
#抓取愛小姐姐網(wǎng)圖片保存到本地
import requests
from lxml import etree as et
import os
#請求頭
headers = {
#用戶代理
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.108 Safari/537.36'
}
#待抓取網(wǎng)頁基地址
base_url = ''
#保存圖片基本路徑
base_dir = 'D:/python/code/aixjj/'
#保存圖片
def savePic(pic_url):
#如果目錄不存在,則新建
if not os.path.exists(base_dir):
os.makedirs(base_dir)
arr = pic_url.split('/')
file_name = base_dir+arr[-2]+arr[-1]
print(file_name)
#獲取圖片內(nèi)容
response = requests.get(pic_url, headers = headers)
#寫入圖片
with open(file_name,'wb') as fp:
for data in response.iter_content(128):
fp.write(data)
#觀察此網(wǎng)站總共只有62頁,所以循環(huán)62次
for k in range(1,63):
#請求頁面地址
url = base_url+str(k)
response = requests.get(url = url, headers = headers)
#請求狀態(tài)碼
code = response.status_code
if code == 200:
html = et.HTML(response.text)
#獲取頁面所有圖片地址
r = html.xpath('//li/a/img/@src')
#獲取下一頁url
#t = html.xpath('//div[@class="page"]/a[@class="ch"]/@href')[-1]
for pic_url in r:
a = 'http:'+pic_url
savePic(a)
print('第%d頁圖片下載完成' % (k))
print('The End!')
嘗試運(yùn)行爬蟲,嘿,沒想到行了:


過了一會兒,旁邊的哥們兒又來:‘嘿 bro 你這個(gè)可以是可以,就是速度太慢了啊,我的靈感會被長時(shí)間的等待磨滅,你給改進(jìn)改進(jìn)?'

怎么提升爬蟲的效率呢?略一思索,公司的電腦可是偉大的四核CPU啊,要不擼個(gè)多進(jìn)程版本試試。然后就產(chǎn)生了下面這個(gè)多進(jìn)程版本
#多進(jìn)程版——抓取愛小姐姐網(wǎng)圖片保存到本地
import requests
from lxml import etree as et
import os
import time
from multiprocessing import Pool
#請求頭
headers = {
#用戶代理
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.108 Safari/537.36'
}
#待抓取網(wǎng)頁基地址
base_url = ''
#保存圖片基本路徑
base_dir = 'D:/python/code/aixjj1/'
#保存圖片
def savePic(pic_url):
#如果目錄不存在,則新建
if not os.path.exists(base_dir):
os.makedirs(base_dir)
arr = pic_url.split('/')
file_name = base_dir+arr[-2]+arr[-1]
print(file_name)
#獲取圖片內(nèi)容
response = requests.get(pic_url, headers = headers)
#寫入圖片
with open(file_name,'wb') as fp:
for data in response.iter_content(128):
fp.write(data)
def geturl(url):
#請求頁面地址
#url = base_url+str(k)
response = requests.get(url = url, headers = headers)
#請求狀態(tài)碼
code = response.status_code
if code == 200:
html = et.HTML(response.text)
#獲取頁面所有圖片地址
r = html.xpath('//li/a/img/@src')
#獲取下一頁url
#t = html.xpath('//div[@class="page"]/a[@class="ch"]/@href')[-1]
for pic_url in r:
a = 'http:'+pic_url
savePic(a)
if __name__ == '__main__':
#獲取要爬取的鏈接列表
url_list = [base_url+format(i) for i in range(1,100)]
a1 = time.time()
#利用進(jìn)程池方式創(chuàng)建進(jìn)程,默認(rèn)創(chuàng)建進(jìn)程數(shù)量=電腦核數(shù)
#自己定義進(jìn)程數(shù)量方式 pool = Pool(4)
pool = Pool()
pool.map(geturl,url_list)
pool.close()
pool.join()
b1 = time.time()
print('運(yùn)行時(shí)間:',b1-a1)
抱著試一試的心態(tài),運(yùn)行了多進(jìn)程版本爬蟲,嘿沒想到又行了,在朕偉大的四核CPU的加持下,爬蟲速度提升了3~4倍。
又過了一會兒,那哥們兒又偏過頭來:‘你這個(gè)快是快了不少,但是還不是最理想的狀態(tài),能不能一眨眼就能爬取百八十個(gè)圖片,畢竟我的靈感來的快去的也快'
我:‘…'
悄悄打開Google,搜索如何提升爬蟲效率,給出結(jié)論:
多進(jìn)程:密集CPU任務(wù),需要充分使用多核CPU資源(服務(wù)器,大量的并行計(jì)算)的時(shí)候,用多進(jìn)程。
多線程:密集I/O任務(wù)(網(wǎng)絡(luò)I/O,磁盤I/O,數(shù)據(jù)庫I/O)使用多線程合適。
呵,我這可不就是I/O密集任務(wù)嗎,趕緊寫一個(gè)多線程版爬蟲先。于是,又誕生了第三款:
import threading # 導(dǎo)入threading模塊
from queue import Queue #導(dǎo)入queue模塊
import time #導(dǎo)入time模塊
import requests
import os
from lxml import etree as et
#請求頭
headers = {
#用戶代理
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.108 Safari/537.36'
}
#待抓取網(wǎng)頁基地址
base_url = ''
#保存圖片基本路徑
base_dir = 'D:/python/code/aixjj/'
#保存圖片
def savePic(pic_url):
#如果目錄不存在,則新建
if not os.path.exists(base_dir):
os.makedirs(base_dir)
arr = pic_url.split('/')
file_name = base_dir+arr[-2]+arr[-1]
print(file_name)
#獲取圖片內(nèi)容
response = requests.get(pic_url, headers = headers)
#寫入圖片
with open(file_name,'wb') as fp:
for data in response.iter_content(128):
fp.write(data)
# 爬取文章詳情頁
def get_detail_html(detail_url_list, id):
while True:
url = detail_url_list.get() #Queue隊(duì)列的get方法用于從隊(duì)列中提取元素
response = requests.get(url = url, headers = headers)
#請求狀態(tài)碼
code = response.status_code
if code == 200:
html = et.HTML(response.text)
#獲取頁面所有圖片地址
r = html.xpath('//li/a/img/@src')
#獲取下一頁url
#t = html.xpath('//div[@class="page"]/a[@class="ch"]/@href')[-1]
for pic_url in r:
a = 'http:'+pic_url
savePic(a)
# 爬取文章列表頁
def get_detail_url(queue):
for i in range(1,100):
#time.sleep(1) # 延時(shí)1s,模擬比爬取文章詳情要快
#Queue隊(duì)列的put方法用于向Queue隊(duì)列中放置元素,由于Queue是先進(jìn)先出隊(duì)列,所以先被Put的URL也就會被先get出來。
page_url = base_url+format(i)
queue.put(page_url)
print("put page url {id} end".format(id = page_url))#打印出得到了哪些文章的url
#主函數(shù)
if __name__ == "__main__":
detail_url_queue = Queue(maxsize=1000) #用Queue構(gòu)造一個(gè)大小為1000的線程安全的先進(jìn)先出隊(duì)列
#A線程負(fù)責(zé)抓取列表url
thread = threading.Thread(target=get_detail_url, args=(detail_url_queue,))
html_thread= []
#另外創(chuàng)建三個(gè)線程負(fù)責(zé)抓取圖片
for i in range(20):
thread2 = threading.Thread(target=get_detail_html, args=(detail_url_queue,i))
html_thread.append(thread2)#B C D 線程抓取文章詳情
start_time = time.time()
# 啟動四個(gè)線程
thread.start()
for i in range(20):
html_thread[i].start()
# 等待所有線程結(jié)束,thread.join()函數(shù)代表子線程完成之前,其父進(jìn)程一直處于阻塞狀態(tài)。
thread.join()
for i in range(20):
html_thread[i].join()
print("last time: {} s".format(time.time()-start_time))#等ABCD四個(gè)線程都結(jié)束后,在主進(jìn)程中計(jì)算總爬取時(shí)間。
粗略測試一下,得出結(jié)論: ‘Oh my god,這也太快了吧'。
將多線程版本爬蟲扔到同事QQ頭像的臉上,并附文:‘拿去,速滾'
到此這篇關(guān)于python自動下載圖片的方法示例的文章就介紹到這了,更多相關(guān)python 自動下載圖片內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
利用Python實(shí)現(xiàn)簡單的Excel統(tǒng)計(jì)函數(shù)
這篇文章主要介紹了利用Python實(shí)現(xiàn)簡單的Excel統(tǒng)計(jì)函數(shù),文章圍繞主題展開詳細(xì)的內(nèi)容介紹,具有一定的參考價(jià)值,需要的小伙伴可以參考一下2022-07-07
python中如何利用matplotlib畫多個(gè)并列的柱狀圖
python是一個(gè)很有趣的語言,可以在命令行窗口運(yùn)行,下面這篇文章主要給大家介紹了關(guān)于python中如何利用matplotlib畫多個(gè)并列的柱狀圖的相關(guān)資料,需要的朋友可以參考下2022-01-01
django 解決model中類寫不到數(shù)據(jù)庫中,數(shù)據(jù)庫無此字段的問題
這篇文章主要介紹了django 解決model中類寫不到數(shù)據(jù)庫中,數(shù)據(jù)庫無此字段的問題,具有很好的參考價(jià)值,希望對大家有所幫助。一起跟隨想過來看看吧2020-05-05
Django Haystack 全文檢索與關(guān)鍵詞高亮的實(shí)現(xiàn)
這篇文章主要介紹了Django Haystack 全文檢索與關(guān)鍵詞高亮的實(shí)現(xiàn),文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2020-02-02
python內(nèi)置HTTP Server如何實(shí)現(xiàn)及原理解析
這篇文章主要為大家介紹了python內(nèi)置HTTP Server如何實(shí)現(xiàn)及原理解析,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步,早日升職加薪2023-11-11
PyQt5 QListWidget選擇多項(xiàng)并返回的實(shí)例
今天小編就為大家分享一篇PyQt5 QListWidget選擇多項(xiàng)并返回的實(shí)例,具有很好的參考價(jià)值,希望對大家有所幫助。一起跟隨小編過來看看吧2019-06-06

