Python?頁面解析Beautiful?Soup庫的使用方法
1.Beautiful Soup庫簡(jiǎn)介
Beautiful Soup 簡(jiǎn)稱 BS4(其中 4 表示版本號(hào))是一個(gè) Python 中常用的頁面解析庫,它可以從 HTML 或 XML 文檔中快速地提取指定的數(shù)據(jù)。
相比于之前講過的
lxml
庫,Beautiful Soup 更加簡(jiǎn)單易用,不像正則和 XPath 需要刻意去記住很多特定語法,盡管那樣會(huì)效率更高更直接。
對(duì)大多數(shù) Python 使用者來說,好用會(huì)比高效更重要。
Beautiful Soup庫為第三方庫,需要我們通過
pip
命令安裝:
pip install bs4
BS4 解析頁面時(shí)需要依賴文檔解析器,所以還需要一個(gè)文檔解析器。
Python 自帶了一個(gè)文檔解析庫html.parser
, 但是其解析速度稍慢,所以我們結(jié)合上篇內(nèi)容(Python 文檔解析:lxml庫的使用),安裝lxml
作為文檔解析庫:
pip install lxml
2.Beautiful Soup庫方法介紹
使用 bs4 的初始化操作,是用文本創(chuàng)建一個(gè)
BeautifulSoup
對(duì)象,并指定文檔解析器:
from bs4 import BeautifulSoup html_str = ''' <div> <ul> <li class="web" id="0"><a href="www.python.org" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" >Python</a></li> <li class="web" id="1"><a href="www.java.com" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" >Java</a></li> <li class="web" id="2"><a href="www.csdn.net" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" >CSDN</a></li> </ul> </div> ''' soup = BeautifulSoup(html_str, 'lxml') # prettify()用于格式化輸出HTML/XML文檔 print(soup.prettify())
bs4 提供了
find_all()
與find()
兩個(gè)常用的查找方法它們的用法如下:
2.1 find_all()
find_all()
方法用來搜索當(dāng)前tag
的所有子節(jié)點(diǎn),并判斷這些節(jié)點(diǎn)是否符合過濾條件,最后以列表形式將符合條件的內(nèi)容返回,語法格式如下:
find_all(name, attrs, recursive, text, limit)
參數(shù)說明:
name:查找所有名字為 name 的 tag 標(biāo)簽,字符串對(duì)象會(huì)被自動(dòng)忽略。attrs:按照屬性名和屬性值搜索 tag 標(biāo)簽,注意由于 class 是 Python 的關(guān)鍵字,所以要使用 “class_”。recursive:find_all() 會(huì)搜索 tag 的所有子孫節(jié)點(diǎn),設(shè)置 recursive=False 可以只搜索 tag 的直接子節(jié)點(diǎn)。text:用來搜文檔中的字符串內(nèi)容,該參數(shù)可以接受字符串 、正則表達(dá)式 、列表、True。limit:由于 find_all() 會(huì)返回所有的搜索結(jié)果,這樣會(huì)影響執(zhí)行效率,通過 limit 參數(shù)可以限制返回結(jié)果的數(shù)量。
from bs4 import BeautifulSoup html_str = ''' <div> <ul> <li class="web" id="0"><a href="www.python.org" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" >Python</a></li> <li class="web" id="1"><a href="www.java.com" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" >Java</a></li> <li class="web" id="2"><a href="www.csdn.net" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" >CSDN</a></li> </ul> </div> ''' soup = BeautifulSoup(html_str, 'lxml') print(soup.find_all("li")) print(soup.find_all("a")) print(soup.find_all(text="Python"))
上面程序使用
find_all()
方法,來查找頁面中所有的<li></li>
標(biāo)簽、<a></a>
標(biāo)簽和"Python"
字符串內(nèi)容。
2.2 find()
find()
方法與find_all()
方法極其相似,不同之處在于find()
僅返回第一個(gè)符合條件的結(jié)果,因此find()
方法也沒有limit
參數(shù),語法格式如下:
find(name, attrs, recursive, text)
除了和
find_all()
相同的使用方式以外,bs4 為find()
方法提供了一種簡(jiǎn)寫方式:
soup.find("li") soup.li
這兩行代碼的功能相同,都是返回第一個(gè)
<li></li>
標(biāo)簽,完整程序:
from bs4 import BeautifulSoup html_str = ''' <div> <ul> <li class="web" id="0"><a href="www.python.org" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" >Python</a></li> <li class="web" id="1"><a href="www.java.com" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" >Java</a></li> <li class="web" id="2"><a href="www.csdn.net" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" >CSDN</a></li> </ul> </div> ''' soup = BeautifulSoup(html_str, 'lxml') print(soup.li) print(soup.a)
上面的程序會(huì)打印出第一個(gè)
<li></li>
標(biāo)簽和第一個(gè)<a></a>
標(biāo)簽。
2.3 select()
bs4 支持大部分的 CSS 選擇器,比如常見的標(biāo)簽選擇器、類選擇器、id 選擇器,以及層級(jí)選擇器。Beautiful Soup 提供了一個(gè)
select()
方法,通過向該方法中添加選擇器,就可以在 HTML 文檔中搜索到與之對(duì)應(yīng)的內(nèi)容。
應(yīng)用如下:
from bs4 import BeautifulSoup html_str = ''' <div> <ul> <li class="web" id="web0"><a href="www.python.org" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" >Python</a></li> <li class="web" id="web1"><a href="www.java.com" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" >Java</a></li> <li class="web" id="web2"><a href="www.csdn.net" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" >CSDN</a></li> </ul> </div> ''' soup = BeautifulSoup(html_str, 'lxml') #根據(jù)元素標(biāo)簽查找 print(soup.select('body')) #根據(jù)屬性選擇器查找 print(soup.select('a[href]')) #根據(jù)類查找 print(soup.select('.web')) #后代節(jié)點(diǎn)查找 print(soup.select('div ul')) #根據(jù)id查找 print(soup.select('#web1'))
更多方法及其詳細(xì)使用說明,請(qǐng)參見官方文檔:
https://beautiful-soup-4.readthedocs.io/en/latest/
3.代碼實(shí)例
學(xué)會(huì)了 Beautiful Soup ,讓我們?cè)囍膶懸幌律洗蔚呐老x代碼吧:
import os import sys import requests from bs4 import BeautifulSoup x = requests.get('https://www.csdn.net/') soup = BeautifulSoup(x.text, 'lxml') img_list = soup.select('img[src]') # 創(chuàng)建img文件夾 os.chdir(os.path.dirname(sys.argv[0])) if not os.path.exists('img'): os.mkdir('img') print('創(chuàng)建文件夾成功') else: print('文件夾已存在') # 下載圖片 for i in range(len(img_list)): item = img_list[i]['src'] img = requests.get(item).content if item.endswith('jpg'): with open(f'./img/{i}.jpg', 'wb') as f: f.write(img) elif item.endswith('jpeg'): with open(f'./img/{i}.jpeg', 'wb') as f: f.write(img) elif item.endswith('png'): with open(f'./img/{i}.png', 'wb') as f: f.write(img) else: print(f'第{i + 1}張圖片格式不正確') continue print(f'第{i + 1}張圖片下載成功')
這就是本文的全部?jī)?nèi)容了,快去動(dòng)手試試吧!
到此這篇關(guān)于Python 頁面解析Beautiful Soup庫的使用的文章就介紹到這了,更多相關(guān)Python Beautiful Soup庫內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
Python3簡(jiǎn)單實(shí)例計(jì)算同花的概率代碼
這篇文章主要介紹了Python3簡(jiǎn)單實(shí)例計(jì)算同花的概率代碼,具有一定參考價(jià)值,需要的朋友可以了解下。2017-12-12python調(diào)用另外一個(gè)py文件中函數(shù)的具體步驟
這篇文章主要給大家介紹了關(guān)于python調(diào)用另外一個(gè)py文件中函數(shù)的具體步驟,要在一個(gè)Python文件中調(diào)用其他Python文件中的方法,可以使用Python的模塊導(dǎo)入功能,需要的朋友可以參考下2023-11-11Python 實(shí)現(xiàn)中值濾波、均值濾波的方法
今天小編就為大家分享一篇Python 實(shí)現(xiàn)中值濾波、均值濾波的方法,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過來看看吧2019-01-01Python面向?qū)ο蟪绦蛟O(shè)計(jì)類的多態(tài)用法詳解
這篇文章主要介紹了Python面向?qū)ο蟪绦蛟O(shè)計(jì)類的多態(tài)用法,結(jié)合實(shí)例形式詳細(xì)分析了Python面向?qū)ο蟪绦蛟O(shè)計(jì)中類的多態(tài)概念、原理、用法及相關(guān)操作注意事項(xiàng),需要的朋友可以參考下2019-04-04Python實(shí)現(xiàn)matplotlib顯示中文的方法詳解
這篇文章主要介紹了Python實(shí)現(xiàn)matplotlib顯示中文的方法,結(jié)合實(shí)例形式詳細(xì)總結(jié)分析了Python使用matplotlib庫繪圖時(shí)顯示中文的相關(guān)操作技巧與注意事項(xiàng),需要的朋友可以參考下2018-02-02Python如何生成指定區(qū)間中的隨機(jī)數(shù)
這篇文章主要介紹了Python如何生成指定區(qū)間中的隨機(jī)數(shù),具有很好的參考價(jià)值,希望對(duì)大家有所幫助。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教2022-07-07PyTorch搭建LSTM實(shí)現(xiàn)時(shí)間序列負(fù)荷預(yù)測(cè)
這篇文章主要為大家介紹了PyTorch搭建LSTM實(shí)現(xiàn)時(shí)間序列負(fù)荷預(yù)測(cè),有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步,早日升職加薪2022-05-05