python爬蟲之bs4數(shù)據(jù)解析
一、實現(xiàn)數(shù)據(jù)解析
因為正則表達式本身有難度,所以在這里為大家介紹一下 bs4 實現(xiàn)數(shù)據(jù)解析。除此之外還有 xpath 解析。因為 xpath 不僅可以在 python 中使用,所以 bs4 和 正則解析一樣,僅僅是簡單地寫兩個案例(爬取可翻頁的圖片,以及爬取三國演義)。以后的重點會在 xpath 上。
二、安裝庫
閑話少說,我們先來安裝 bs4 相關的外來庫。比較簡單。
1.首先打開 cmd 命令面板,依次安裝bs4 和 lxml。
2. 命令分別是 pip install bs4 和 pip install lxml 。
3. 安裝完成后我們可以試著調(diào)用他們,看看會不會報錯。
因為本人水平有限,所以如果出現(xiàn)報錯,兄弟們還是百度一下好啦。(總不至于 cmd 命令打錯了吧 ~~)
三、bs4 的用法
閑話少說,先簡單介紹一下 bs4 的用法。
四、爬取圖片
import requests from bs4 import BeautifulSoup import os if __name__ == "__main__": # 創(chuàng)建文件夾 if not os.path.exists("./糗圖(bs4)"): os.mkdir("./糗圖(bs4)") # UA偽裝 header = { "user-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/90.0.4430.72 Safari/537.36" } # 指定 url for i in range(1, 3): # 翻兩頁 url = "https://www.qiushibaike.com/imgrank/page/%s/" % str(i) # 獲取源碼數(shù)據(jù) page = requests.get(url = url, headers = header).text # 數(shù)據(jù)解析 soup = BeautifulSoup(page, "lxml") data_list = soup.select(".thumb > a") for data in data_list: url = data.img["src"] title = url.split("/")[-1] new_url = "https:" + url photo = requests.get(url = new_url, headers = header).content # 存儲 with open("./糗圖(bs4)/" + title, "wb") as fp: fp.write(photo) print(title, "下載完成?。?!") print("over!!!")
五、爬取三國演義
import requests from bs4 import BeautifulSoup if __name__ == "__main__": # UA 偽裝 header = { "user-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.90 Safari/537.36" } # URL url = "http://sanguo.5000yan.com/" # 請求命令 page_text = requests.get(url = url, headers = header) page_text.encoding = "utf-8" page_text = page_text.text soup = BeautifulSoup(page_text, "lxml") # bs4 解析 li_list = soup.select(".sidamingzhu-list-mulu > ul > li") for li in li_list: print(li) new_url = li.a["href"] title = li.a.text # 新的請求命令 response = requests.get(url = new_url, headers = header) response.encoding = "utf-8" new_page_text = response.text new_soup = BeautifulSoup(new_page_text, "lxml") page = new_soup.find("div", class_ = "grap").text with open("./三國演義.txt", "a", encoding = "utf-8") as fp: fp.write("\n" + title + ":" + "\n" + "\n" + page) print(title + "下載完成?。?!")
到此這篇關于python爬蟲之bs4數(shù)據(jù)解析的文章就介紹到這了,更多相關python bs4數(shù)據(jù)解析內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關文章希望大家以后多多支持腳本之家!
相關文章
解決Python中導入自己寫的類,被劃紅線,但不影響執(zhí)行的問題
這篇文章主要介紹了解決Python中導入自己寫的類,被劃紅線,但不影響執(zhí)行的問題,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2020-07-07多線程爬蟲批量下載pcgame圖片url 保存為xml的實現(xiàn)代碼
用Python寫的多線程爬蟲批量下載pcgame的圖片url并保存為xml格式,主要是邏輯代碼,喜歡的朋友可以測試下2013-01-01Python實現(xiàn)爬蟲從網(wǎng)絡上下載文檔的實例代碼
小編最近在研究python,接觸到了爬蟲,本文給大家?guī)砹薖ython實現(xiàn)爬蟲從網(wǎng)絡上下載文檔的知識。下面小編把具體實例代碼分享到腳本之家平臺,感興趣的朋友參考下吧2018-06-06Python使用sklearn庫實現(xiàn)的各種分類算法簡單應用小結
這篇文章主要介紹了Python使用sklearn庫實現(xiàn)的各種分類算法,結合實例形式分析了Python使用sklearn庫實現(xiàn)的KNN、SVM、LR、決策樹、隨機森林等算法實現(xiàn)技巧,需要的朋友可以參考下2019-07-07python生成多個只含0,1元素的隨機數(shù)組或列表的實例
今天小編就為大家分享一篇python生成多個只含0,1元素的隨機數(shù)組或列表的實例,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2018-11-11Python Selenium 之關閉窗口close與quit的方法
今天小編就為大家分享一篇Python Selenium 之關閉窗口close與quit的方法,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2019-02-02Python 中如何實現(xiàn)參數(shù)化測試的方法示例
這篇文章主要介紹了Python 中如何實現(xiàn)參數(shù)化測試的方法示例,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧2019-12-12Python+AutoIt實現(xiàn)界面工具開發(fā)過程詳解
這篇文章主要介紹了Python+AutoIt實現(xiàn)界面工具開發(fā)過程詳解,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友可以參考下2019-08-08