欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

從入門(mén)到精通詳解LangChain加載HTML內(nèi)容的全攻略

 更新時(shí)間:2025年07月20日 10:01:15   作者:都叫我大帥哥  
這篇文章主要為大家詳細(xì)介紹了如何用LangChain優(yōu)雅地處理HTML內(nèi)容,文中的示例代碼講解詳細(xì),感興趣的小伙伴可以跟隨小編一起學(xué)習(xí)一下

引言:當(dāng)大語(yǔ)言模型遇見(jiàn)HTML

想象一下,你邀請(qǐng)了一位學(xué)識(shí)淵博的教授來(lái)家里做客,結(jié)果他進(jìn)門(mén)后徑直走向你的書(shū)架——但書(shū)架被透明保鮮膜裹得嚴(yán)嚴(yán)實(shí)實(shí)!這就是大語(yǔ)言模型(LLM)面對(duì)HTML內(nèi)容時(shí)的窘境。HTML就像這層保鮮膜,包裹著寶貴的內(nèi)容,卻讓LLM無(wú)從下口。別擔(dān)心,LangChain就是你的"HTML開(kāi)箱刀"!

在這篇全面指南中,我們將深入探索如何用LangChain優(yōu)雅地處理HTML內(nèi)容。準(zhǔn)備好迎接代碼、原理和實(shí)用技巧的盛宴吧!

一、HTML加載器

為什么需要專(zhuān)門(mén)的HTML加載器

  • 標(biāo)簽污染:HTML中60%的內(nèi)容是標(biāo)簽而非有效文本
  • 結(jié)構(gòu)信息:標(biāo)題、段落等語(yǔ)義結(jié)構(gòu)對(duì)理解至關(guān)重要
  • 動(dòng)態(tài)內(nèi)容:現(xiàn)代網(wǎng)頁(yè)大量依賴JavaScript渲染
  • 資源分離:CSS/JS文件與內(nèi)容分離

LangChain提供多種加載器應(yīng)對(duì)這些挑戰(zhàn):

from langchain.document_loaders import (
    UnstructuredHTMLLoader,
    BSHTMLLoader,
    WebBaseLoader,
    AsyncHtmlLoader
)

核心加載器對(duì)比表

加載器優(yōu)點(diǎn)缺點(diǎn)適用場(chǎng)景
UnstructuredHTMLLoader保留結(jié)構(gòu)信息依賴外部服務(wù)復(fù)雜文檔處理
BSHTMLLoader純Python實(shí)現(xiàn)功能較基礎(chǔ)簡(jiǎn)單HTML提取
WebBaseLoader內(nèi)置JS渲染需要瀏覽器動(dòng)態(tài)網(wǎng)頁(yè)
AsyncHtmlLoader異步高效僅獲取原始HTML批量處理

二、實(shí)戰(zhàn)演練:四種加載方式詳解

1. 基礎(chǔ)加載 - BSHTMLLoader

適合處理靜態(tài)HTML文件:

from langchain.document_loaders import BSHTMLLoader

loader = BSHTMLLoader("example.html")
data = loader.load()

print(f"文檔內(nèi)容:{data[0].page_content[:200]}...")
print(f"元數(shù)據(jù):{data[0].metadata}")

2. 保留結(jié)構(gòu) - UnstructuredHTMLLoader

使用Unstructured API保持文檔結(jié)構(gòu):

from langchain.document_loaders import UnstructuredHTMLLoader

# 使用元素模式保留結(jié)構(gòu)
loader = UnstructuredHTMLLoader("blog_post.html", mode="elements")
docs = loader.load()

# 打印檢測(cè)到的元素類(lèi)型
for doc in docs:
    print(f"元素類(lèi)型: {doc.metadata['category']}")
    print(f"內(nèi)容: {doc.page_content[:80]}{'...' if len(doc.page_content) > 80 else ''}")
    print("-" * 50)

3. 動(dòng)態(tài)網(wǎng)頁(yè) - WebBaseLoader

處理需要JavaScript渲染的頁(yè)面:

from langchain.document_loaders import WebBaseLoader

loader = WebBaseLoader([
    "https://example.com/dynamic-content",
    "https://web.with-js.com"
])
loader.requests_per_second = 2  # 禮貌爬取
docs = loader.load()

print(f"加載了{(lán)len(docs)}個(gè)文檔")

4. 批量抓取 - AsyncHtmlLoader

高效處理大量網(wǎng)頁(yè):

from langchain.document_loaders import AsyncHtmlLoader
from langchain.document_transformers import Html2TextTransformer

urls = [f"https://news-site.com/page/{i}" for i in range(1, 6)]
loader = AsyncHtmlLoader(urls)
html = loader.load()

# 轉(zhuǎn)換為純凈文本
html2text = Html2TextTransformer()
docs_transformed = html2text.transform_documents(html)

print(f"第一頁(yè)標(biāo)題:{docs_transformed[0].page_content.splitlines()[0]}")

三、內(nèi)部揭秘:HTML加載器如何工作

處理流程解析

關(guān)鍵技術(shù)解析

DOM樹(shù)遍歷:深度優(yōu)先搜索算法提取文本節(jié)點(diǎn)

內(nèi)容分類(lèi)器:基于規(guī)則和機(jī)器學(xué)習(xí)識(shí)別標(biāo)題/正文

動(dòng)態(tài)渲染:無(wú)頭瀏覽器執(zhí)行JavaScript

文本規(guī)范化

  • 合并相鄰文本節(jié)點(diǎn)
  • 智能空格處理
  • Unicode規(guī)范化

元數(shù)據(jù)提取

  • <title>標(biāo)簽內(nèi)容
  • <meta>描述信息
  • OpenGraph協(xié)議數(shù)據(jù)

四、避坑指南:HTML加載的七個(gè)致命錯(cuò)誤

忽略編碼問(wèn)題

# 錯(cuò)誤做法:默認(rèn)utf-8
loader = BSHTMLLoader("gbk_page.html")

# 正確做法:指定編碼
loader = BSHTMLLoader("gbk_page.html", encoding="gbk")

過(guò)度請(qǐng)求被封IP

# 添加延遲和偽裝頭
loader = WebBaseLoader(
    urls,
    header_template={
        "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36",
        "Accept-Language": "en-US,en;q=0.9"
    },
    requests_per_second=2
)

遺漏動(dòng)態(tài)內(nèi)容

# 確保啟用JS渲染
loader = WebBaseLoader("https://react-app.example")
loader.scrapejs = True  # 默認(rèn)已啟用

處理登錄墻

# 使用會(huì)話保持cookies
from requests.sessions import Session

session = Session()
session.post("https://site.com/login", data={"user": "...", "pass": "..."})

loader = WebBaseLoader("https://site.com/protected", session=session)

無(wú)限滾動(dòng)陷阱

# 手動(dòng)處理滾動(dòng)
from playwright.sync_api import sync_playwright

with sync_playwright() as p:
    browser = p.chromium.launch()
    page = browser.new_page()
    page.goto("https://infinite-scroll.site")
    
    # 滾動(dòng)5次
    for _ in range(5):
        page.evaluate("window.scrollTo(0, document.body.scrollHeight)")
        page.wait_for_timeout(2000)  # 等待加載
    
    content = page.content()
    loader = BSHTMLLoader.from_string(content)

忽略反爬機(jī)制

# 使用代理輪詢
proxies = ["http://proxy1:port", "http://proxy2:port"]
loader = AsyncHtmlLoader(urls, proxies=proxies, rotate_proxy=True)

內(nèi)存爆炸

# 分批處理大文件
from langchain.text_splitter import RecursiveCharacterTextSplitter

splitter = RecursiveCharacterTextSplitter(
    chunk_size=2000,
    chunk_overlap=200
)

docs = loader.load()
chunks = splitter.split_documents(docs)

五、最佳實(shí)踐:工業(yè)級(jí)HTML處理方案

完整處理流水線

from langchain.document_loaders import WebBaseLoader
from langchain.document_transformers import Html2TextTransformer
from langchain.text_splitter import RecursiveCharacterTextSplitter
from langchain.embeddings import OpenAIEmbeddings
from langchain.vectorstores import Chroma

def html_processing_pipeline(url):
    # 1. 加載
    loader = WebBaseLoader(url)
    raw_docs = loader.load()
    
    # 2. 轉(zhuǎn)換
    html2text = Html2TextTransformer()
    cleaned_docs = html2text.transform_documents(raw_docs)
    
    # 3. 分塊
    splitter = RecursiveCharacterTextSplitter(
        chunk_size=1500,
        chunk_overlap=200,
        separators=["\n\n", "\n", "。", "!", "?"]
    )
    chunks = splitter.split_documents(cleaned_docs)
    
    # 4. 向量化
    embeddings = OpenAIEmbeddings()
    vectorstore = Chroma.from_documents(chunks, embeddings)
    
    return vectorstore

# 使用示例
store = html_processing_pipeline("https://example.com")
retriever = store.as_retriever(search_kwargs={"k": 3})

智能內(nèi)容提取技巧

# 使用CSS選擇器精準(zhǔn)定位
from bs4 import BeautifulSoup

def extract_main_content(html):
    soup = BeautifulSoup(html, 'html.parser')
    
    # 策略1:嘗試常見(jiàn)內(nèi)容容器
    selectors = [
        'article', 
        '.post-content', 
        '.article-body',
        'main',
        '[role="main"]'
    ]
    
    for selector in selectors:
        element = soup.select_one(selector)
        if element and len(element.text) > 500:
            return element.get_text()
    
    # 策略2:回退到正文密度檢測(cè)
    all_text = soup.get_text()
    return all_text  # 實(shí)際應(yīng)用中應(yīng)實(shí)現(xiàn)正文密度算法

# 集成到LangChain
class SmartHTMLLoader(BSHTMLLoader):
    def load(self):
        raw_docs = super().load()
        for doc in raw_docs:
            doc.page_content = extract_main_content(doc.page_content)
        return raw_docs

六、面試考點(diǎn):HTML加載的深度問(wèn)答

Q: 如何處理需要登錄的網(wǎng)頁(yè)? A: 需要維護(hù)會(huì)話狀態(tài),典型方案有:

  • 使用requests.Session保持cookies
  • Playwright的存儲(chǔ)狀態(tài)重用
  • 模擬登錄后保存身份令牌

Q: 大型HTML文檔導(dǎo)致內(nèi)存溢出怎么辦?

A: 采用流式處理:

from langchain.document_loaders import UnstructuredFileIOLoader

with open("large.html", "rb") as f:
    loader = UnstructuredFileIOLoader(f, strategy="fast")
    for chunk in loader.lazy_load():
        process(chunk)

Q: 如何保證網(wǎng)頁(yè)內(nèi)容的最新性?

A: 實(shí)現(xiàn)緩存策略:

from datetime import timedelta
from langchain.cache import SQLiteCache

loader = WebBaseLoader("https://news.com")
loader.cache = SQLiteCache(
    ttl=timedelta(hours=1),  # 1小時(shí)緩存
    db_path=".cache.db"
)

Q: 如何處理多語(yǔ)言HTML內(nèi)容?

A: 需要語(yǔ)言檢測(cè)和特殊處理:

from langdetect import detect

docs = loader.load()
for doc in docs:
    lang = detect(doc.page_content)
    doc.metadata["language"] = lang
    if lang == "ja":  # 日語(yǔ)需要不同分句
        custom_split_japanese(doc)

七、未來(lái)展望:HTML處理的進(jìn)化方向

AI增強(qiáng)解析

  • 使用LLM識(shí)別內(nèi)容區(qū)域
  • 自動(dòng)過(guò)濾廣告/推薦內(nèi)容

視覺(jué)感知處理

# 結(jié)合截圖理解布局
from playwright.sync_api import sync_playwright

with sync_playwright() as p:
    browser = p.chromium.launch()
    page = browser.new_page()
    page.goto(url)
    page.screenshot(path="screenshot.png")
    
    # 使用CV模型分析布局
    layout = analyze_layout("screenshot.png")
    content = extract_by_coordinates(html, layout)

交互式抓取

# 自動(dòng)化交互操作
loader = WebBaseLoader("https://dashboard.example")
loader.playwright_actions = [
    {"action": "click", "selector": "#load-more"},
    {"action": "type", "selector": "#search", "text": "keyword"},
    {"action": "wait_for", "selector": ".results"}
]

八、結(jié)語(yǔ):HTML處理的終極藝術(shù)

LangChain的HTML加載器就像一位經(jīng)驗(yàn)豐富的考古學(xué)家——他能從HTML的廢墟中挖掘出知識(shí)的寶藏,拂去標(biāo)簽的塵埃,還原內(nèi)容的真容。通過(guò)本指南,你已經(jīng)掌握了:

  • 四類(lèi)加載器的精準(zhǔn)選擇
  • 動(dòng)態(tài)內(nèi)容的完整處理方案
  • 工業(yè)級(jí)處理流水線搭建
  • 復(fù)雜場(chǎng)景的應(yīng)對(duì)策略
  • 面試深度問(wèn)題的解答思路

記住,優(yōu)秀的HTML處理不是簡(jiǎn)單地移除標(biāo)簽,而是理解內(nèi)容背后的結(jié)構(gòu)和語(yǔ)義。

到此這篇關(guān)于從入門(mén)到精通詳解LangChain加載HTML內(nèi)容的全攻略的文章就介紹到這了,更多相關(guān)LangChain加載HTML內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!

相關(guān)文章

  • Python和Matlab實(shí)現(xiàn)蝙蝠算法的示例代碼

    Python和Matlab實(shí)現(xiàn)蝙蝠算法的示例代碼

    蝙蝠算法是一種搜索全局最優(yōu)解的有效方法,本文主要介紹了Python和Matlab實(shí)現(xiàn)蝙蝠算法的示例代碼,文中通過(guò)示例代碼介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下
    2022-03-03
  • Python使用MySQLdb for Python操作數(shù)據(jù)庫(kù)教程

    Python使用MySQLdb for Python操作數(shù)據(jù)庫(kù)教程

    這篇文章主要介紹了Python使用MySQLdb for Python操作數(shù)據(jù)庫(kù)教程,詳細(xì)講述了MySQLdb的用法,針對(duì)Python操作MySQL數(shù)據(jù)庫(kù)程序設(shè)計(jì)具有很好的參考借鑒價(jià)值,需要的朋友可以參考下
    2014-10-10
  • 給keras層命名,并提取中間層輸出值,保存到文檔的實(shí)例

    給keras層命名,并提取中間層輸出值,保存到文檔的實(shí)例

    這篇文章主要介紹了給keras層命名,并提取中間層輸出值,保存到文檔的實(shí)例,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧
    2020-05-05
  • PyTorch 如何自動(dòng)計(jì)算梯度

    PyTorch 如何自動(dòng)計(jì)算梯度

    這篇文章主要介紹了PyTorch 如何自動(dòng)計(jì)算梯度的操作,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教
    2021-05-05
  • 微信 用腳本查看是否被微信好友刪除

    微信 用腳本查看是否被微信好友刪除

    這篇文章主要介紹了微信 用腳本查看是否被微信好友刪除的相關(guān)資料,需要的朋友可以參考下
    2016-10-10
  • python中實(shí)現(xiàn)控制小數(shù)點(diǎn)位數(shù)的方法

    python中實(shí)現(xiàn)控制小數(shù)點(diǎn)位數(shù)的方法

    今天小編就為大家分享一篇python中實(shí)現(xiàn)控制小數(shù)點(diǎn)位數(shù)的方法,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧
    2019-01-01
  • Django上傳xlsx文件直接轉(zhuǎn)化為DataFrame或直接保存的方法

    Django上傳xlsx文件直接轉(zhuǎn)化為DataFrame或直接保存的方法

    這篇文章主要介紹了Django上傳xlsx文件直接轉(zhuǎn)化為DataFrame或直接保存的方法,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧
    2021-05-05
  • python爬取氣象臺(tái)每日天氣圖代碼

    python爬取氣象臺(tái)每日天氣圖代碼

    大家好,本篇文章主要講的是python爬取氣象臺(tái)每日天氣圖代碼,感興趣的同學(xué)趕快來(lái)看一看吧,對(duì)你有幫助的話記得收藏一下,方便下次瀏覽
    2022-01-01
  • python鏈接Oracle數(shù)據(jù)庫(kù)的方法

    python鏈接Oracle數(shù)據(jù)庫(kù)的方法

    這篇文章主要介紹了python鏈接Oracle數(shù)據(jù)庫(kù)的方法,實(shí)例分析了Python使用cx_Oracle模塊操作Oracle數(shù)據(jù)庫(kù)的相關(guān)技巧,需要的朋友可以參考下
    2015-06-06
  • 使用k8s部署Django項(xiàng)目的方法步驟

    使用k8s部署Django項(xiàng)目的方法步驟

    這篇文章主要介紹了使用k8s部署Django項(xiàng)目的方法步驟,小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,也給大家做個(gè)參考。一起跟隨小編過(guò)來(lái)看看吧
    2019-01-01

最新評(píng)論