htmlcleaner使用方法及xpath語法初探
在編程的時候或者寫網絡爬蟲的時候,經常需要對html進行解析,抽取其中有用的數(shù)據(jù)。一款好的工具是特別有用的,能提供很多的幫助,網上有很多這樣的工具,比如:htmlcleaner、htmlparser
經使用比較:感覺 htmlcleaner 比 htmlparser 好用,尤其是htmlcleaner 的 xpath特好用。
下面針對htmlcleaner進行舉例說明,需求為:取出title,name=”my_href” 的鏈接,div的class=”d_1″下的所有l(wèi)i內容。
一、HtmlCleaner使用:
1、HtmlCleaner
HtmlCleaner是一個開源的Java語言的Html文檔解析器。HtmlCleaner能夠重新整理HTML文檔的每個元素并生成結構良好(Well-Formed)的 HTML 文檔。默認它遵循的規(guī)則是類似于大部份web瀏覽器為創(chuàng)文檔對象模型所使用的規(guī)則。然而,用戶可以提供自定義tag和規(guī)則組來進行過濾和匹配。
主頁地址:http://htmlcleaner.sourceforge.net/
下載地址:http://www.dbjr.com.cn/softs/364983.html
2、基本示例,在wikipedia中抓取機場信息
html-clean-demo.html
html-clean-demo.html <!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd "> <html xmlns = "http://www.w3.org/1999/xhtml " xml:lang = "zh-CN" dir = "ltr"> <head> <meta http-equiv = "Content-Type" content = "text/html; charset=GBK" /> <meta http-equiv = "Content-Language" content = "zh-CN" /> <title>html clean demo </title> </head> <body> <div class = "d_1"> <ul> <li>bar </li> <li>foo </li> <li>gzz </li> </ul> </div> <div> <ul> <li><a name = "my_href" href = "1.html">text-1 </a></li> <li><a name = "my_href" href = "2.html">text-2 </a></li> <li><a name = "my_href" href = "3.html">text-3 </a></li> <li><a name = "my_href" href = "4.html">text-4 </a></li> </ul> </div> </body> </html>
HtmlCleanerDemo.java
package com.chenlb;
import java.io.File;
import org.htmlcleaner.HtmlCleaner;
import org.htmlcleaner.TagNode;
/**
* htmlcleaner 使用示例.
*
*/
public class HtmlCleanerDemo {
public static void main(String[] args) throws Exception {
HtmlCleaner cleaner = new HtmlCleaner();
TagNode node = cleaner.clean(new File("html/html-clean-demo.html"), "GBK");
//按tag取.
Object[] ns = node.getElementsByName("title", true); //標題
if(ns.length > 0) {
System.out.println("title="+((TagNode)ns[0]).getText());
}
System.out.println("ul/li:");
//按xpath取
ns = node.evaluateXPath("http://div[@class='d_1']//li");
for(Object on : ns) {
TagNode n = (TagNode) on;
System.out.println("\ttext="+n.getText());
}
System.out.println("a:");
//按屬性值取
ns = node.getElementsByAttValue("name", "my_href", true, true);
for(Object on : ns) {
TagNode n = (TagNode) on;
System.out.println("\thref="+n.getAttributeByName("href")+", text="+n.getText());
}
}
}
cleaner.clean()中的參數(shù),可以是文件,可以是url,可以是字符串內容。比較常用的應該是evaluateXPath、 getElementsByAttValue、getElementsByName方法了。另外說明下,htmlcleaner 對不規(guī)范的html兼容性比較好。
在wikipedia中抓取機場信息
import java.io.UnsupportedEncodingException;
import org.htmlcleaner.HtmlCleaner;
import org.htmlcleaner.TagNode;
import org.htmlcleaner.XPatherException;
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;
//import com.moore.index.BabyStory;
import com.moore.util.HttpClientUtil;
/**
* 用途:TODO
*
* @author bbdtek
*/
public class ParserAirport {
private static Logger log = LoggerFactory.getLogger(ParserAirport.class);
/**
* @param args
* @throws UnsupportedEncodingException
* @throws XPatherException
*/
public static void main(String[] args) throws UnsupportedEncodingException,
XPatherException {
String url = "http://zh.wikipedia.org/wiki/%E4%B8%AD%E5%8D%8E%E4%BA%BA%E6%B0%91%E5%85%B1%E5%92%8C%E5%9B%BD%E6%9C%BA%E5%9C%BA%E5%88%97%E8%A1%A8";
String contents = HttpClientUtil.getUtil().getCon(url);
HtmlCleaner hc = new HtmlCleaner();
TagNode tn = hc.clean(contents);
String xpath = "http://div[@class='mw-content-ltr']//table[@class='wikitable + sortable']//tbody//tr[@align='right']";
Object[] objarr = null;
objarr = tn.evaluateXPath(xpath);
if (objarr != null && objarr.length > 0) {
for (Object obj : objarr) {
TagNode tntr = (TagNode) obj;
String xptr = "http://td[@align='left']//a";
Object[] objarrtr = null;
objarrtr = tntr.evaluateXPath(xptr);
if (objarrtr != null && objarrtr.length > 0) {
for (Object obja : objarrtr) {
TagNode tna = (TagNode) obja;
String str = tna.getText().toString();
log.info(str);
}
}
}
}
}
}
二、XPath初探
1、XPath簡介:
XPath 是一門在 XML 文檔中查找信息的語言。XPath 可用來在 XML 文檔中對元素和屬性進行遍歷。
2、XPath節(jié)點選取
XPath 使用路徑表達式在 XML 文檔中選取節(jié)點。節(jié)點是通過沿著路徑或者 step 來選取的。
下面列出了最有用的路徑表達式:
| 表達式 | 描述 |
|---|---|
| nodename | 選取此節(jié)點的所有子節(jié)點。 |
| / | 從根節(jié)點選取。 |
| // | 從匹配選擇的當前節(jié)點選擇文檔中的節(jié)點,而不考慮它們的位置。 |
| . | 選取當前節(jié)點。 |
| .. | 選取當前節(jié)點的父節(jié)點。 |
| @ | 選取屬性。 |
一些常用表達式
| 路徑表達式 | 結果 |
|---|---|
| /bookstore/book[1] | 選取屬于 bookstore 子元素的第一個 book 元素。 |
| /bookstore/book[last()] | 選取屬于 bookstore 子元素的最后一個 book 元素。 |
| /bookstore/book[last()-1] | 選取屬于 bookstore 子元素的倒數(shù)第二個 book 元素。 |
| /bookstore/book[position()<3] | 選取最前面的兩個屬于 bookstore 元素的子元素的 book 元素。 |
| //title[@lang] | 選取所有擁有名為 lang 的屬性的 title 元素。 |
| //title[@lang='eng'] | 選取所有 title 元素,且這些元素擁有值為 eng 的 lang 屬性。 |
| /bookstore/book[price>35.00] | 選取 bookstore 元素的所有 book 元素,且其中的 price 元素的值須大于 35.00。 |
| /bookstore/book[price>35.00]/title | 選取 bookstore 元素中的 book 元素的所有 title 元素,且其中的 price 元素的值須大于 35.00。 |
相關文章
Spring MVC中處理ajax請求的跨域問題與注意事項詳解
跨域問題是我們大家在開發(fā)中會經常遇到的一個問題,所以下面這篇文章主要給大家介紹了關于Spring MVC中處理ajax請求的跨域問題與注意事項的相關資料,文中通過示例代碼介紹的非常詳細,需要的朋友可以參考借鑒,下面隨著小編來一起學習學習吧。2017-11-11
Retrofit+Rxjava下載文件進度的實現(xiàn)
這篇文章主要介紹了Retrofit+Rxjava下載文件進度的實現(xiàn),非常不錯,具有參考借鑒價值,需要的朋友可以參考下2017-11-11
親手教你IDEA2020.3創(chuàng)建Javaweb項目的步驟詳解
這篇文章主要介紹了IDEA2020.3創(chuàng)建Javaweb項目的步驟詳解,本文是小編手把手教你,通過圖文并茂的形式給大家介紹的非常詳細,對大家的學習或工作具有一定的參考借鑒價值,需要的朋友參考下吧2021-03-03
Spring實戰(zhàn)之Qualifier注解用法示例
這篇文章主要介紹了Spring實戰(zhàn)之Qualifier注解用法,結合實例形式詳細分析了spring Qualifier注解相關配置、定義與使用方法,需要的朋友可以參考下2019-12-12
使用java web 在jsp文件及Class中連接MySQL和SQLserver 的驅動方法
這篇文章主要介紹了使用java web 在jsp文件及Class中連接MySQL和SQLserver的驅動方法的相關資料,本文介紹的非常詳細,具有參考借鑒價值,需要的朋友可以參考下2016-10-10
基于Beanutils.copyProperties()的用法及重寫提高效率
這篇文章主要介紹了Beanutils.copyProperties( )的用法及重寫提高效率的操作,具有很好的參考價值,希望對大家有所幫助。如有錯誤或未考慮完全的地方,望不吝賜教2021-09-09
JavaWeb請求轉發(fā)和請求包含實現(xiàn)過程解析
這篇文章主要介紹了JavaWeb請求轉發(fā)和請求包含實現(xiàn)過程解析,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友可以參考下2020-02-02
swagger的請求參數(shù)不顯示,@Apimodel的坑點及解決
這篇文章主要介紹了swagger的請求參數(shù)不顯示,@Apimodel的坑點及解決方案,具有很好的參考價值,希望對大家有所幫助,如有錯誤或未考慮完全的地方,望不吝賜教2023-11-11

