htmlcleaner使用方法及xpath語法初探
在編程的時候或者寫網(wǎng)絡(luò)爬蟲的時候,經(jīng)常需要對html進行解析,抽取其中有用的數(shù)據(jù)。一款好的工具是特別有用的,能提供很多的幫助,網(wǎng)上有很多這樣的工具,比如:htmlcleaner、htmlparser
經(jīng)使用比較:感覺 htmlcleaner 比 htmlparser 好用,尤其是htmlcleaner 的 xpath特好用。
下面針對htmlcleaner進行舉例說明,需求為:取出title,name=”my_href” 的鏈接,div的class=”d_1″下的所有l(wèi)i內(nèi)容。
一、HtmlCleaner使用:
1、HtmlCleaner
HtmlCleaner是一個開源的Java語言的Html文檔解析器。HtmlCleaner能夠重新整理HTML文檔的每個元素并生成結(jié)構(gòu)良好(Well-Formed)的 HTML 文檔。默認(rèn)它遵循的規(guī)則是類似于大部份web瀏覽器為創(chuàng)文檔對象模型所使用的規(guī)則。然而,用戶可以提供自定義tag和規(guī)則組來進行過濾和匹配。
主頁地址:http://htmlcleaner.sourceforge.net/
下載地址:http://www.dbjr.com.cn/softs/364983.html
2、基本示例,在wikipedia中抓取機場信息
html-clean-demo.html
html-clean-demo.html <!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd "> <html xmlns = "http://www.w3.org/1999/xhtml " xml:lang = "zh-CN" dir = "ltr"> <head> <meta http-equiv = "Content-Type" content = "text/html; charset=GBK" /> <meta http-equiv = "Content-Language" content = "zh-CN" /> <title>html clean demo </title> </head> <body> <div class = "d_1"> <ul> <li>bar </li> <li>foo </li> <li>gzz </li> </ul> </div> <div> <ul> <li><a name = "my_href" href = "1.html">text-1 </a></li> <li><a name = "my_href" href = "2.html">text-2 </a></li> <li><a name = "my_href" href = "3.html">text-3 </a></li> <li><a name = "my_href" href = "4.html">text-4 </a></li> </ul> </div> </body> </html>
HtmlCleanerDemo.java
package com.chenlb; import java.io.File; import org.htmlcleaner.HtmlCleaner; import org.htmlcleaner.TagNode; /** * htmlcleaner 使用示例. * */ public class HtmlCleanerDemo { public static void main(String[] args) throws Exception { HtmlCleaner cleaner = new HtmlCleaner(); TagNode node = cleaner.clean(new File("html/html-clean-demo.html"), "GBK"); //按tag取. Object[] ns = node.getElementsByName("title", true); //標(biāo)題 if(ns.length > 0) { System.out.println("title="+((TagNode)ns[0]).getText()); } System.out.println("ul/li:"); //按xpath取 ns = node.evaluateXPath("http://div[@class='d_1']//li"); for(Object on : ns) { TagNode n = (TagNode) on; System.out.println("\ttext="+n.getText()); } System.out.println("a:"); //按屬性值取 ns = node.getElementsByAttValue("name", "my_href", true, true); for(Object on : ns) { TagNode n = (TagNode) on; System.out.println("\thref="+n.getAttributeByName("href")+", text="+n.getText()); } } }
cleaner.clean()中的參數(shù),可以是文件,可以是url,可以是字符串內(nèi)容。比較常用的應(yīng)該是evaluateXPath、 getElementsByAttValue、getElementsByName方法了。另外說明下,htmlcleaner 對不規(guī)范的html兼容性比較好。
在wikipedia中抓取機場信息
import java.io.UnsupportedEncodingException; import org.htmlcleaner.HtmlCleaner; import org.htmlcleaner.TagNode; import org.htmlcleaner.XPatherException; import org.slf4j.Logger; import org.slf4j.LoggerFactory; //import com.moore.index.BabyStory; import com.moore.util.HttpClientUtil; /** * 用途:TODO * * @author bbdtek */ public class ParserAirport { private static Logger log = LoggerFactory.getLogger(ParserAirport.class); /** * @param args * @throws UnsupportedEncodingException * @throws XPatherException */ public static void main(String[] args) throws UnsupportedEncodingException, XPatherException { String url = "http://zh.wikipedia.org/wiki/%E4%B8%AD%E5%8D%8E%E4%BA%BA%E6%B0%91%E5%85%B1%E5%92%8C%E5%9B%BD%E6%9C%BA%E5%9C%BA%E5%88%97%E8%A1%A8"; String contents = HttpClientUtil.getUtil().getCon(url); HtmlCleaner hc = new HtmlCleaner(); TagNode tn = hc.clean(contents); String xpath = "http://div[@class='mw-content-ltr']//table[@class='wikitable + sortable']//tbody//tr[@align='right']"; Object[] objarr = null; objarr = tn.evaluateXPath(xpath); if (objarr != null && objarr.length > 0) { for (Object obj : objarr) { TagNode tntr = (TagNode) obj; String xptr = "http://td[@align='left']//a"; Object[] objarrtr = null; objarrtr = tntr.evaluateXPath(xptr); if (objarrtr != null && objarrtr.length > 0) { for (Object obja : objarrtr) { TagNode tna = (TagNode) obja; String str = tna.getText().toString(); log.info(str); } } } } } }
二、XPath初探
1、XPath簡介:
XPath 是一門在 XML 文檔中查找信息的語言。XPath 可用來在 XML 文檔中對元素和屬性進行遍歷。
2、XPath節(jié)點選取
XPath 使用路徑表達式在 XML 文檔中選取節(jié)點。節(jié)點是通過沿著路徑或者 step 來選取的。
下面列出了最有用的路徑表達式:
表達式 | 描述 |
---|---|
nodename | 選取此節(jié)點的所有子節(jié)點。 |
/ | 從根節(jié)點選取。 |
// | 從匹配選擇的當(dāng)前節(jié)點選擇文檔中的節(jié)點,而不考慮它們的位置。 |
. | 選取當(dāng)前節(jié)點。 |
.. | 選取當(dāng)前節(jié)點的父節(jié)點。 |
@ | 選取屬性。 |
一些常用表達式
路徑表達式 | 結(jié)果 |
---|---|
/bookstore/book[1] | 選取屬于 bookstore 子元素的第一個 book 元素。 |
/bookstore/book[last()] | 選取屬于 bookstore 子元素的最后一個 book 元素。 |
/bookstore/book[last()-1] | 選取屬于 bookstore 子元素的倒數(shù)第二個 book 元素。 |
/bookstore/book[position()<3] | 選取最前面的兩個屬于 bookstore 元素的子元素的 book 元素。 |
//title[@lang] | 選取所有擁有名為 lang 的屬性的 title 元素。 |
//title[@lang='eng'] | 選取所有 title 元素,且這些元素?fù)碛兄禐?eng 的 lang 屬性。 |
/bookstore/book[price>35.00] | 選取 bookstore 元素的所有 book 元素,且其中的 price 元素的值須大于 35.00。 |
/bookstore/book[price>35.00]/title | 選取 bookstore 元素中的 book 元素的所有 title 元素,且其中的 price 元素的值須大于 35.00。 |
相關(guān)文章
Spring MVC中處理ajax請求的跨域問題與注意事項詳解
跨域問題是我們大家在開發(fā)中會經(jīng)常遇到的一個問題,所以下面這篇文章主要給大家介紹了關(guān)于Spring MVC中處理ajax請求的跨域問題與注意事項的相關(guān)資料,文中通過示例代碼介紹的非常詳細(xì),需要的朋友可以參考借鑒,下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧。2017-11-11Retrofit+Rxjava下載文件進度的實現(xiàn)
這篇文章主要介紹了Retrofit+Rxjava下載文件進度的實現(xiàn),非常不錯,具有參考借鑒價值,需要的朋友可以參考下2017-11-11親手教你IDEA2020.3創(chuàng)建Javaweb項目的步驟詳解
這篇文章主要介紹了IDEA2020.3創(chuàng)建Javaweb項目的步驟詳解,本文是小編手把手教你,通過圖文并茂的形式給大家介紹的非常詳細(xì),對大家的學(xué)習(xí)或工作具有一定的參考借鑒價值,需要的朋友參考下吧2021-03-03Spring實戰(zhàn)之Qualifier注解用法示例
這篇文章主要介紹了Spring實戰(zhàn)之Qualifier注解用法,結(jié)合實例形式詳細(xì)分析了spring Qualifier注解相關(guān)配置、定義與使用方法,需要的朋友可以參考下2019-12-12使用java web 在jsp文件及Class中連接MySQL和SQLserver 的驅(qū)動方法
這篇文章主要介紹了使用java web 在jsp文件及Class中連接MySQL和SQLserver的驅(qū)動方法的相關(guān)資料,本文介紹的非常詳細(xì),具有參考借鑒價值,需要的朋友可以參考下2016-10-10基于Beanutils.copyProperties()的用法及重寫提高效率
這篇文章主要介紹了Beanutils.copyProperties( )的用法及重寫提高效率的操作,具有很好的參考價值,希望對大家有所幫助。如有錯誤或未考慮完全的地方,望不吝賜教2021-09-09JavaWeb請求轉(zhuǎn)發(fā)和請求包含實現(xiàn)過程解析
這篇文章主要介紹了JavaWeb請求轉(zhuǎn)發(fā)和請求包含實現(xiàn)過程解析,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友可以參考下2020-02-02swagger的請求參數(shù)不顯示,@Apimodel的坑點及解決
這篇文章主要介紹了swagger的請求參數(shù)不顯示,@Apimodel的坑點及解決方案,具有很好的參考價值,希望對大家有所幫助,如有錯誤或未考慮完全的地方,望不吝賜教2023-11-11