欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

Python實現(xiàn)解析Html的方法與對比

 更新時間:2024年03月22日 15:51:42   作者:microhex  
在最近需要的需求中,需要?python?獲取網頁內容,并從html中獲取到想要的內容,本文主要介紹了兩種常用方法并進行了對比,感興趣的可以了解下

在最近需要的需求中,需要 python 獲取網頁內容,并從html中獲取到想要的內容。這里記錄一下兩個比較常用的python庫對html的解析。

1. BeautifulSoup

它是一個非常流行的python腳本庫,用于解析HTML和XML文檔。如果你對 java 很熟悉,那么就會容易想到java中也存在一個類似的java庫,叫Jsoup,名稱相似,效果也差不多。BeautifulSoup提供了簡單易用的API,可以通過標簽名、屬性、CSS選擇器等各種方式查找和提取HTML元素.

安裝

pip install beautifulsoup4

實例代碼:

from bs4 import BeautifulSoup
import requests

# 發(fā)送請求獲取到 html 內容
response = requests.get("https://www.example.com")
html_content = response.text 

# 創(chuàng)建 BeautifulSoup 對象
soup = BeautifulSoup(html,'html.parser')

# 創(chuàng)建 CSS 選擇器查找元素
elements = soup.select(".class-name")
for element in elements:
  print(element.text)

比如我現(xiàn)在想獲取新浪新聞的列表:

對 html 進行分析,我們可以發(fā)現(xiàn) class name:

那么我們可以直接填入代碼:

def try_to_get_world_news() :
    response = requests.get("https://news.sina.com.cn/world/")
    response.encoding = "utf-8"
    html_data = response.text
    # 創(chuàng)建 BeautifulSoup 對象
    soup = BeautifulSoup(html_data, "html.parser")
    # 通過css選擇器cha查找元素
    elements =  soup.select(".news-item")
    for element in elements:
        if element is not None:
           a_links = element.find_all('a')
           if a_links is not None and len(a_links) > 0 :
              a_link = a_links[0]
              a_text = a_link.text.strip()
              a_href = a_link.get('href')
              print("文本:" + a_text + ",鏈接:" + a_href)

2. lxml

另外一個強大的python庫,也是用來處理 HTML 和 XML 文檔。當然,它提供了XPath和CSS選擇器等功能,也可以很方面的定位和提取HTML庫。

安裝

pip install lxml

?當然你還可能需要安裝一下 cssselect 這個庫

pip install cssselect

代碼實例

from lxml import html
import requests
import cssselect

# 創(chuàng)建請求對象,獲取請求內容
response = requests.get("https://www.example.com")
html_content = response.text

# 創(chuàng)建 lxml 的 HTML 對象
tree = html.fromstring(html_content)

# 通過 css 選擇器查找
elements = tree.cssselect(".class-name")
for element in elements:
  print(element.text)

demo:

同樣也是上面的例子,直接貼代碼:

    response = requests.get("https://news.sina.com.cn/world/")
    response.encoding = "utf-8"
    html_data = response.text
    tree = html.fromstring(html_data)
    elements =  tree.cssselect(".news-item")
    for element in elements:
        print(element)

直接看結果

3. BeautifulSoup 和 lxml 優(yōu)缺點

BeautifulSoup和lxml都是Python中廣泛使用的HTML和XML解析庫,它們各自有其優(yōu)勢和特點。以下是BeautifulSoup和lxml的主要區(qū)別和優(yōu)勢:

BeautifulSoup的優(yōu)勢:

  • 簡單易用:BeautifulSoup提供了一個簡單而直觀的API,使得解析HTML和XML文檔變得非常容易。它的語法簡潔明了,即使是初學者也可以快速上手。
  • 強大的解析能力:BeautifulSoup可以處理不規(guī)范的HTML和XML文檔,即使文檔中存在錯誤或不完整的標簽,它仍然能夠正確解析。
  • 支持多種解析器:BeautifulSoup支持多種底層解析器,如lxml、html.parser和html5lib等。你可以根據需要選擇合適的解析器來提高解析性能或處理特定的文檔。
  • 靈活的導航和搜索:BeautifulSoup提供了多種方法來導航和搜索文檔樹,如通過標簽名、屬性、CSS選擇器等。它還支持使用正則表達式進行搜索和匹配。
  • 對Python開發(fā)者友好:BeautifulSoup是一個純Python庫,它與Python的數(shù)據結構和編程風格緊密集成。對于Python開發(fā)者來說,使用BeautifulSoup更加自然和便捷。

lxml的優(yōu)勢:

  • 高性能:lxml是一個高性能的HTML和XML解析庫,它使用C語言編寫的libxml2和libxslt庫作為底層引擎,因此解析速度非???。
  • 支持XPath:lxml內置了對XPath的支持,XPath是一種強大的語言,用于在XML和HTML文檔中進行導航和查詢。使用XPath可以方便地定位和提取所需的元素。
  • 支持CSS選擇器:lxml同樣支持使用CSS選擇器來查找和提取元素,這對于Web開發(fā)者來說非常熟悉和便捷。
  • 支持XML和HTML的轉換:lxml可以將HTML文檔轉換為well-formed的XML文檔,也可以將XML文檔轉換為HTML文檔,這在某些情況下非常有用。
  • 與其他庫的集成:lxml可以與其他Python庫很好地集成,如pandas、NumPy等,可以方便地進行數(shù)據處理和分析。

區(qū)別:

解析速度:lxml的解析速度通常比BeautifulSoup更快,特別是在處理大型文檔時。如果性能是主要考慮因素,lxml可能是更好的選擇;

易用性:BeautifulSoup的API更加簡單和直觀,對于初學者來說更容易上手。而lxml的API相對更加底層和復雜,需要一定的學習成本。

文檔支持:BeautifulSoup對于處理不規(guī)范的HTML文檔更加寬容,而lxml更傾向于處理well-formed的XML文檔。

依賴項:BeautifulSoup是一個純Python庫,沒有外部依賴。而lxml依賴于C語言編寫的libxml2和libxslt庫,需要單獨安裝。

當然,我們的選擇就是看自己的需求和偏好了。如果你是性能要求高,追求XPath和其它庫的繼承,lxml將會是一個比較好的選擇;當然,就像我,比較重視簡單易用,而且面對的HTML并不是特別的規(guī)范,我就會選擇 BeautifulSoup。

以上就是Python實現(xiàn)解析Html的方法與對比的詳細內容,更多關于Python解析Html的資料請關注腳本之家其它相關文章!

相關文章

  • Python測試框架pytest核心庫pluggy詳解

    Python測試框架pytest核心庫pluggy詳解

    這篇文章主要為大家介紹了Python測試框架pytest核心庫pluggy使用示例詳解,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進步,早日升職加薪
    2022-08-08
  • Pytorch建模過程中的DataLoader與Dataset示例詳解

    Pytorch建模過程中的DataLoader與Dataset示例詳解

    這篇文章主要介紹了Pytorch建模過程中的DataLoader與Dataset,同時PyTorch針對不同的專業(yè)領域,也提供有不同的模塊,例如?TorchText,?TorchVision,?TorchAudio,這些模塊中也都包含一些真實數(shù)據集示例,本文給大家介紹的非常詳細,需要的朋友參考下吧
    2023-01-01
  • Python輕量級定時任務調度APScheduler的使用

    Python輕量級定時任務調度APScheduler的使用

    Apscheduler是一個基于Quartz的python定時任務框架,本文主要介紹了Python輕量級定時任務調度APScheduler的使用,具有一定的參考價值,感興趣的可以了解一下
    2024-02-02
  • Tornado路由與Application的實現(xiàn)

    Tornado路由與Application的實現(xiàn)

    本文主要介紹了Tornado路由與Application的實現(xiàn),文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧
    2023-05-05
  • Linux上使用Python統(tǒng)計每天的鍵盤輸入次數(shù)

    Linux上使用Python統(tǒng)計每天的鍵盤輸入次數(shù)

    這篇文章主要介紹了Linux上使用Python統(tǒng)計每天的鍵盤輸入次數(shù),非常不錯,具有一定的參考借鑒價值,需要的朋友可以參考下
    2019-04-04
  • Pyhton模塊和包相關知識總結

    Pyhton模塊和包相關知識總結

    文中詳細整理了關于Python模塊和包的相關知識點,剛入門Python的小伙伴們可以學習一下,有助于加深Python基礎的理解.而且有詳細說明及代碼示例,需要的朋友可以參考下
    2021-05-05
  • python?selenium實現(xiàn)登錄豆瓣示例詳解

    python?selenium實現(xiàn)登錄豆瓣示例詳解

    大家好,本篇文章主要講的是python?selenium登錄豆瓣示例詳解,感興趣的同學趕快來看一看吧,對你有幫助的話記得收藏一下
    2022-01-01
  • Python利用pdfplumber庫提取pdf中的文字

    Python利用pdfplumber庫提取pdf中的文字

    pdfplumber是一個用于從PDF文檔中提取文本和表格數(shù)據的Python庫,它可以幫助用戶輕松地從PDF文件中提取有用的信息,例如表格、文本、元數(shù)據等,本文將給大家介紹如何通過Python的pdfplumber庫提取pdf中的文字,需要的朋友可以參考下
    2023-05-05
  • Pytorch torch.repeat_interleave()用法示例詳解

    Pytorch torch.repeat_interleave()用法示例詳解

    torch.repeat_interleave() 是 PyTorch 中的一個函數(shù),用于按指定的方式重復張量中的元素,這篇文章主要介紹了Pytorch torch.repeat_interleave()用法示例詳解,需要的朋友可以參考下
    2024-01-01
  • python用win32gui遍歷窗口并設置窗口位置的方法

    python用win32gui遍歷窗口并設置窗口位置的方法

    今天小編就為大家分享一篇python用win32gui遍歷窗口并設置窗口位置的方法,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2019-07-07

最新評論