Python 50行爬蟲抓取并處理圖靈書目過程詳解
前言
使用 requests進(jìn)行爬取、BeautifulSoup進(jìn)行數(shù)據(jù)提取。
主要分成兩步: 第一步是解析圖書列表頁,并解析出里面的圖書詳情頁鏈接。 第二步是解析圖書詳情頁,提取出感興趣的內(nèi)容,本例中根據(jù)不同的數(shù)據(jù)情況,采用了不同的提取方法,總的感覺就是BeautifulSoup用起來很方便
以下是幾個典型HTML內(nèi)容提取的Python代碼片段
1、提取詳情頁鏈接
列表頁中的詳情頁鏈接片段
<h4 class="name"> <a href="/book/1921" rel="external nofollow" title="深度學(xué)習(xí)入門:基于Python的理論與實現(xiàn)"> 深度學(xué)習(xí)入門:基于Python的理論與實現(xiàn) </a> </h4>
提取詳情頁鏈接的Python代碼
# bs是BeautifulSoup的instance bs.select('.name') for 詳情鏈接信息 in bs.select('.name'): # 提取出鏈接 print(詳情鏈接信息.a.get('href'))
2、提取詳情頁中的圖書名稱
詳情頁中圖書名稱HTML代碼
<h2> 深度學(xué)習(xí)入門:基于Python的理論與實現(xiàn) </h2>
提取圖書名稱的Python代碼
# 因為提取出來的文字前后還帶了很多空格,所以要用strip去掉 bs.h2.get_text().strip()
3、提取電子書價格信息
詳情頁中電子書價格HTML代碼
<dt>電子書</dt> <dd> <span class="price">¥29.99</span> </dd>
提取電子書價格的Python代碼
# 因為不是每本書都有電子書,所以要判斷一下 有電子書 = bs.find("dt", text="電子書") if 有電子書: 價格=有電子書.next_sibling.next_sibling.find("span", {"class": "price"}).get_text().strip()[1:] print(float(價格))
完整代碼
# ituring.py,python3版本,默認(rèn)只抓兩頁,可以通過啟動參數(shù)控制要抓的列表頁范圍 import sys import requests import time from bs4 import BeautifulSoup def 輸出圖書列表中的詳情鏈接(bs): # 找到頁面中所有的 <h4 class="name"><a href="/book/..." rel="external nofollow" >...</a></h4> for 詳情鏈接信息 in bs.select('.name'): # 提取出鏈接 yield 詳情鏈接信息.a.get('href') def 獲取圖書詳情(鏈接): 詳情頁 = requests.get('http://www.ituring.com.cn%s' %鏈接) if 詳情頁.ok: bs = BeautifulSoup(詳情頁.content, features="html.parser") 圖書 = {} 圖書['title'] = bs.h2.get_text().strip() 圖書['status'] = bs.find("strong", text="出版狀態(tài)").next_sibling 有定價 = bs.find("strong", text="定 價") if 有定價: 圖書['price'] = 有定價.next_sibling 有電子書 = bs.find("dt", text="電子書") if 有電子書: 圖書['ePrice'] = float(有電子書.next_sibling.next_sibling.find("span", {"class": "price"}).get_text().strip()[1:]) 有出版日期 = bs.find("strong", text="出版日期") if 有出版日期: 圖書['date'] = 有出版日期.next_sibling 圖書['tags'] = [] for tag in bs.select('.post-tag'): 圖書['tags'].append(tag.string) return 圖書 else: print('❌ 詳情頁 http://www.ituring.com.cn%s' %鏈接) def 解析圖書列表頁(起始頁, 終止頁): for 頁序號 in range(起始頁 - 1, 終止頁): # 逐一訪問圖書列表頁面 列表頁 = requests.get('http://www.ituring.com.cn/book?tab=book&sort=new&page=%s' %頁序號) if 列表頁.ok: # 創(chuàng)建 BeautifulSoup 的 instance bs = BeautifulSoup(列表頁.content, features="html.parser") # 提取 列表頁中的 詳情頁鏈接,并逐一分析 for 詳情頁面鏈接 in 輸出圖書列表中的詳情鏈接(bs): 圖書信息 = 獲取圖書詳情(詳情頁面鏈接) # 得到的圖書信息,按照自己的需求去處理吧 print(圖書信息) # 抓完一本書休息一下 time.sleep(0.1) print('✅ 第%s頁獲取完畢\n\t' %(頁序號 + 1)) else: print('❌ 第%s頁獲取出錯\n\t' %(頁序號 + 1)) if __name__ == '__main__': # 默認(rèn)圖書列表起始頁 和 終止頁 起始圖書列表頁碼 = 1 終止圖書列表頁碼 = 2 # ⚠️ 改改代碼頁可以實現(xiàn)自動獲得最后一頁 # 獲取輸入?yún)?shù); ⚠️此處未對輸入?yún)?shù)的類型做檢測 if(len(sys.argv)==2): # 只有一個參數(shù)時,輸入的是終止頁碼,起始頁碼默認(rèn)為 0 終止圖書列表頁碼 = int(sys.argv[1]) if(len(sys.argv)==3): # 有兩個參數(shù)時, 第一個參數(shù)是起始頁碼,第二個參數(shù)是終止頁碼 起始圖書列表頁碼 = int(sys.argv[1]) 終止圖書列表頁碼 = int(sys.argv[2]) 解析圖書列表頁(起始圖書列表頁碼, 終止圖書列表頁碼)
以上就是本文的全部內(nèi)容,希望對大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。
相關(guān)文章
解決Pycharm下面出現(xiàn)No R interpreter defined的問題
今天小編就為大家分享一篇解決Pycharm下面出現(xiàn)No R interpreter defined的問題,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2018-10-10Python處理和解析CLIXML數(shù)據(jù)的方法
在使用Windows的Windows Remote Management (WinRM)服務(wù)與PowerShell交互時,經(jīng)常會遇到CLIXML(即CLI XML)格式的數(shù)據(jù),本文將介紹如何在Python中處理和解析CLIXML數(shù)據(jù),并提供一種方法來從數(shù)據(jù)中提取有效信息,需要的朋友可以參考下2024-04-04python中強(qiáng)制關(guān)閉線程與協(xié)程與進(jìn)程方法
python使用中多線程、多進(jìn)程、多協(xié)程使用是比較常見的。那么如果在多線程等的使用,我們這個時候我們想從外部強(qiáng)制殺掉該線程請問如何操作?這篇文章帶你介紹,感興趣的同學(xué)可以參考閱讀2023-03-03Python標(biāo)準(zhǔn)庫sched模塊使用指南
這篇文章主要介紹了Python標(biāo)準(zhǔn)庫sched模塊使用的相關(guān)資料,需要的朋友可以參考下2017-07-07Python創(chuàng)建SQL數(shù)據(jù)庫流程逐步講解
會寫SQL很重要,能高效地查詢數(shù)據(jù)庫被認(rèn)為是數(shù)據(jù)分析師/科學(xué)家最基本的技能之一。SQL不僅重要,而且非常常用,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友們下面隨著小編來一起學(xué)習(xí)吧2022-09-09python爬蟲MeterSphere平臺執(zhí)行報告流程解析
這篇文章主要為大家介紹了python爬蟲MeterSphere平臺執(zhí)行報告流程解析,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步,早日升職加薪2023-12-12