欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

python批量爬取圖片的方法詳解

 更新時間:2023年12月11日 09:17:17   作者:開心就好啦啦啦  
這篇文章給大家介紹了如何使用python批量爬取圖片,文中通過代碼示例給大家介紹的非常詳細,對大家的學習或工作有一定的幫助,需要的朋友可以參考下

在這里插入圖片描述

爬取的目標網站為

https://sc.chinaz.com/tupian/qinglvtupian.html

如果爬取多頁,需要依次遍歷每一頁,經過分析跳轉其它頁面的規(guī)律如下

https://sc.chinaz.com/tupian/qinglvtupian_N.html
N從2開始,除了第一頁不同,后面跳轉其它頁面規(guī)律相同

爬蟲步驟

  • 根據請求url地址獲取網頁源碼,使用requests庫
  • 通過xpath解析源碼獲取需要的數據
  • 獲取到數據下載到本地

爬取前十頁圖片到本地

根據頁碼獲取網絡源碼

def create_request(page):
    if page == 1:
        url = 'https://sc.chinaz.com/tupian/qinglvtupian.html'
    else:
        url = 'https://sc.chinaz.com/tupian/qinglvtupian_'+str(page)+'.html'
    header = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/119.0.0.0 Safari/537.36'
    }
    request = urllib.request.Request(url,headers=header)
    #獲取網絡源碼
    response = urllib.request.urlopen(request)
    content = response.read().decode('utf-8')
    return content

使用xpath解析網頁

使用xpath需要在chrome中安裝此插件,安裝xpath完成后,按alt+shift+x就會出現(xiàn)黑框

//img[@class="lazy"]/@alt  #獲取圖片名稱
//img[@class="lazy"]/@data-original  #獲取圖片地址

在這里插入圖片描述

解析網頁并下載圖片

下載圖片、網頁、視頻使用的函數為urllib.request.urlretrieve()

def down_load(content):
    tree = etree.HTML(content) #解析網頁數據   解析本地的html文件  etree.parse('D:/pages/test.html')
    name_list = tree.xpath('//img[@class="lazy"]/@alt')
    # 圖片會進行懶加載
    src_list = tree.xpath('//img[@class="lazy"]/@data-original')
    for i in range(len(name_list)):
        name = name_list[i]
        src = src_list[i]
        url = 'https:'+src
        urllib.request.urlretrieve(url,filename='../loveImg/'+name+'.jpg')#先在當前目錄下創(chuàng)建loveImg文件夾

主函數如下

if __name__ == '__main__':
    start_page = int(input("開始頁"))
    end_page = int(input("結束頁"))
    for page in range(start_page,end_page+1):
        context = create_request(page)
        down_load(context)

下載的圖片會在loveImg目錄

在這里插入圖片描述

以上就是python批量爬取圖片的方法詳解的詳細內容,更多關于python批量爬取圖片的資料請關注腳本之家其它相關文章!

相關文章

  • python爬蟲的一個常見簡單js反爬詳解

    python爬蟲的一個常見簡單js反爬詳解

    這篇文章主要介紹了python爬蟲的一個常見簡單js反爬詳解我們在寫爬蟲是遇到最多的應該就是js反爬了,今天分享一個比較常見的js反爬,我把js反爬分為參數由js加密生成和js生成cookie等來操作瀏覽器這兩部分,需要的朋友可以參考下
    2019-07-07
  • Python模擬登錄12306的方法

    Python模擬登錄12306的方法

    這篇文章主要介紹了Python模擬登錄12306的方法,是非常實用的技巧,具有一定參考借鑒價值,需要的朋友可以參考下
    2014-12-12
  • Python 制作自動化翻譯工具

    Python 制作自動化翻譯工具

    這篇文章主要介紹了Python 實現(xiàn)自動化翻譯和替換的腳本,幫助大家更好的理解和學習使用python,提高辦公效率感興趣的朋友可以了解下
    2021-04-04
  • python單例模式實例分析

    python單例模式實例分析

    這篇文章主要介紹了python單例模式,實例分析了單例模式的原理與使用技巧,具有一定參考借鑒價值,需要的朋友可以參考下
    2015-04-04
  • python爬蟲基礎之urllib的使用

    python爬蟲基礎之urllib的使用

    這篇文章主要介紹了python爬蟲基礎之urllib的使用,幫助大家更好的理解和使用python,感興趣的朋友可以了解下
    2020-12-12
  • python使用Faker進行隨機數據生成

    python使用Faker進行隨機數據生成

    大家好,本篇文章主要講的是python使用Faker進行隨機數據生成,感興趣的同學趕快來看一看吧,對你有幫助的話記得收藏一下
    2022-02-02
  • python實現(xiàn)高斯判別分析算法的例子

    python實現(xiàn)高斯判別分析算法的例子

    今天小編就為大家分享一篇python實現(xiàn)高斯判別分析算法的例子,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2019-12-12
  • Python列表生成式和字典生成式實例

    Python列表生成式和字典生成式實例

    這篇文章主要介紹了Python列表生成式和字典生成式實例,具有很好的參考價值,希望對大家有所幫助,如有錯誤或未考慮完全的地方,望不吝賜教
    2024-06-06
  • Django中日期處理注意事項與自定義時間格式轉換詳解

    Django中日期處理注意事項與自定義時間格式轉換詳解

    這篇文章主要給大家介紹了關于Django中日期處理注意事項與自定義時間格式轉換的相關資料,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧
    2018-08-08
  • Scrapy抓取京東商品、豆瓣電影及代碼分享

    Scrapy抓取京東商品、豆瓣電影及代碼分享

    Scrapy,Python開發(fā)的一個快速、高層次的屏幕抓取和web抓取框架,用于抓取web站點并從頁面中提取結構化的數據。Scrapy用途廣泛,可以用于數據挖掘、監(jiān)測和自動化測試。
    2017-11-11

最新評論