欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

Java爬蟲 信息抓取的實現(xiàn)

 更新時間:2016年09月07日 10:14:56   作者:鴻洋_  
本文主要介紹 Java爬蟲 信息抓取的實現(xiàn),這里詳細(xì)介紹了如何實現(xiàn)該方法,并附示例代碼供大家學(xué)習(xí)參考,有興趣的小伙伴可以參考下

今天公司有個需求,需要做一些指定網(wǎng)站查詢后的數(shù)據(jù)的抓取,于是花了點(diǎn)時間寫了個demo供演示使用。

思想很簡單:就是通過Java訪問的鏈接,然后拿到html字符串,然后就是解析鏈接等需要的數(shù)據(jù)。技術(shù)上使用Jsoup方便頁面的解析,當(dāng)然Jsoup很方便,也很簡單,一行代碼就能知道怎么用了:

Document doc = Jsoup.connect("http://www.oschina.net/")  
 .data("query", "Java")  // 請求參數(shù) 
 .userAgent("I ' m jsoup") // 設(shè)置 User-Agent  
 .cookie("auth", "token") // 設(shè)置 cookie  
 .timeout(3000)      // 設(shè)置連接超時時間 
 .post();         // 使用 POST 方法訪問 URL  

下面介紹整個實現(xiàn)過程:

1、分析需要解析的頁面:

網(wǎng)址:http://www1.sxcredit.gov.cn/public/infocomquery.do?method=publicIndexQuery

頁面:

先在這個頁面上做一次查詢:觀察下請求的url,參數(shù),method等。

這里我們使用chrome內(nèi)置的開發(fā)者工具(快捷鍵F12),下面是查詢的結(jié)果:

我們可以看到url,method,以及參數(shù)。知道了如何或者查詢的URL,下面就開始代碼了,為了重用與擴(kuò)展,我定義了幾個類:

1、Rule.java用于指定查詢url,method,params等

package com.zhy.spider.rule; 
 
/** 
 * 規(guī)則類 
 * 
 * @author zhy 
 * 
 */ 
public class Rule 
{ 
  /** 
   * 鏈接 
   */ 
  private String url; 
 
  /** 
   * 參數(shù)集合 
   */ 
  private String[] params; 
  /** 
   * 參數(shù)對應(yīng)的值 
   */ 
  private String[] values; 
 
  /** 
   * 對返回的HTML,第一次過濾所用的標(biāo)簽,請先設(shè)置type 
   */ 
  private String resultTagName; 
 
  /** 
   * CLASS / ID / SELECTION 
   * 設(shè)置resultTagName的類型,默認(rèn)為ID 
   */ 
  private int type = ID ; 
   
  /** 
   *GET / POST 
   * 請求的類型,默認(rèn)GET 
   */ 
  private int requestMoethod = GET ;  
   
  public final static int GET = 0 ; 
  public final static int POST = 1 ; 
   
 
  public final static int CLASS = 0; 
  public final static int ID = 1; 
  public final static int SELECTION = 2; 
 
  public Rule() 
  { 
  } 
 
   
  public Rule(String url, String[] params, String[] values, 
      String resultTagName, int type, int requestMoethod) 
  { 
    super(); 
    this.url = url; 
    this.params = params; 
    this.values = values; 
    this.resultTagName = resultTagName; 
    this.type = type; 
    this.requestMoethod = requestMoethod; 
  } 
 
  public String getUrl() 
  { 
    return url; 
  } 
 
  public void setUrl(String url) 
  { 
    this.url = url; 
  } 
 
  public String[] getParams() 
  { 
    return params; 
  } 
 
  public void setParams(String[] params) 
  { 
    this.params = params; 
  } 
 
  public String[] getValues() 
  { 
    return values; 
  } 
 
  public void setValues(String[] values) 
  { 
    this.values = values; 
  } 
 
  public String getResultTagName() 
  { 
    return resultTagName; 
  } 
 
  public void setResultTagName(String resultTagName) 
  { 
    this.resultTagName = resultTagName; 
  } 
 
  public int getType() 
  { 
    return type; 
  } 
 
  public void setType(int type) 
  { 
    this.type = type; 
  } 
 
  public int getRequestMoethod() 
  { 
    return requestMoethod; 
  } 
 
  public void setRequestMoethod(int requestMoethod) 
  { 
    this.requestMoethod = requestMoethod; 
  } 
 
} 

簡單說一下:這個規(guī)則類定義了我們查詢過程中需要的所有信息,方便我們的擴(kuò)展,以及代碼的重用,我們不可能針對每個需要抓取的網(wǎng)站寫一套代碼。

2、需要的數(shù)據(jù)對象,目前只需要鏈接,LinkTypeData.java

package com.zhy.spider.bean; 
 
public class LinkTypeData 
{ 
  private int id; 
  /** 
   * 鏈接的地址 
   */ 
  private String linkHref; 
  /** 
   * 鏈接的標(biāo)題 
   */ 
  private String linkText; 
  /** 
   * 摘要 
   */ 
  private String summary; 
  /** 
   * 內(nèi)容 
   */ 
  private String content; 
  public int getId() 
  { 
    return id; 
  } 
  public void setId(int id) 
  { 
    this.id = id; 
  } 
  public String getLinkHref() 
  { 
    return linkHref; 
  } 
  public void setLinkHref(String linkHref) 
  { 
    this.linkHref = linkHref; 
  } 
  public String getLinkText() 
  { 
    return linkText; 
  } 
  public void setLinkText(String linkText) 
  { 
    this.linkText = linkText; 
  } 
  public String getSummary() 
  { 
    return summary; 
  } 
  public void setSummary(String summary) 
  { 
    this.summary = summary; 
  } 
  public String getContent() 
  { 
    return content; 
  } 
  public void setContent(String content) 
  { 
    this.content = content; 
  } 
} 

3、核心的查詢類:ExtractService.java

package com.zhy.spider.core; 
 
import java.io.IOException; 
import java.util.ArrayList; 
import java.util.List; 
import java.util.Map; 
 
import javax.swing.plaf.TextUI; 
 
import org.jsoup.Connection; 
import org.jsoup.Jsoup; 
import org.jsoup.nodes.Document; 
import org.jsoup.nodes.Element; 
import org.jsoup.select.Elements; 
 
import com.zhy.spider.bean.LinkTypeData; 
import com.zhy.spider.rule.Rule; 
import com.zhy.spider.rule.RuleException; 
import com.zhy.spider.util.TextUtil; 
 
/** 
 * 
 * @author zhy 
 * 
 */ 
public class ExtractService 
{ 
  /** 
   * @param rule 
   * @return 
   */ 
  public static List<LinkTypeData> extract(Rule rule) 
  { 
 
    // 進(jìn)行對rule的必要校驗 
    validateRule(rule); 
 
    List<LinkTypeData> datas = new ArrayList<LinkTypeData>(); 
    LinkTypeData data = null; 
    try 
    { 
      /** 
       * 解析rule 
       */ 
      String url = rule.getUrl(); 
      String[] params = rule.getParams(); 
      String[] values = rule.getValues(); 
      String resultTagName = rule.getResultTagName(); 
      int type = rule.getType(); 
      int requestType = rule.getRequestMoethod(); 
 
      Connection conn = Jsoup.connect(url); 
      // 設(shè)置查詢參數(shù) 
 
      if (params != null) 
      { 
        for (int i = 0; i < params.length; i++) 
        { 
          conn.data(params[i], values[i]); 
        } 
      } 
 
      // 設(shè)置請求類型 
      Document doc = null; 
      switch (requestType) 
      { 
      case Rule.GET: 
        doc = conn.timeout(100000).get(); 
        break; 
      case Rule.POST: 
        doc = conn.timeout(100000).post(); 
        break; 
      } 
 
      //處理返回數(shù)據(jù) 
      Elements results = new Elements(); 
      switch (type) 
      { 
      case Rule.CLASS: 
        results = doc.getElementsByClass(resultTagName); 
        break; 
      case Rule.ID: 
        Element result = doc.getElementById(resultTagName); 
        results.add(result); 
        break; 
      case Rule.SELECTION: 
        results = doc.select(resultTagName); 
        break; 
      default: 
        //當(dāng)resultTagName為空時默認(rèn)去body標(biāo)簽 
        if (TextUtil.isEmpty(resultTagName)) 
        { 
          results = doc.getElementsByTag("body"); 
        } 
      } 
 
      for (Element result : results) 
      { 
        Elements links = result.getElementsByTag("a"); 
 
        for (Element link : links) 
        { 
          //必要的篩選 
          String linkHref = link.attr("href"); 
          String linkText = link.text(); 
 
          data = new LinkTypeData(); 
          data.setLinkHref(linkHref); 
          data.setLinkText(linkText); 
 
          datas.add(data); 
        } 
      } 
 
    } catch (IOException e) 
    { 
      e.printStackTrace(); 
    } 
 
    return datas; 
  } 
 
  /** 
   * 對傳入的參數(shù)進(jìn)行必要的校驗 
   */ 
  private static void validateRule(Rule rule) 
  { 
    String url = rule.getUrl(); 
    if (TextUtil.isEmpty(url)) 
    { 
      throw new RuleException("url不能為空!"); 
    } 
    if (!url.startsWith("http://")) 
    { 
      throw new RuleException("url的格式不正確!"); 
    } 
 
    if (rule.getParams() != null && rule.getValues() != null) 
    { 
      if (rule.getParams().length != rule.getValues().length) 
      { 
        throw new RuleException("參數(shù)的鍵值對個數(shù)不匹配!"); 
      } 
    } 
 
  } 
 
 
} 

4、里面用了一個異常類:RuleException.java

package com.zhy.spider.rule; 
 
public class RuleException extends RuntimeException 
{ 
 
  public RuleException() 
  { 
    super(); 
    // TODO Auto-generated constructor stub 
  } 
 
  public RuleException(String message, Throwable cause) 
  { 
    super(message, cause); 
    // TODO Auto-generated constructor stub 
  } 
 
  public RuleException(String message) 
  { 
    super(message); 
    // TODO Auto-generated constructor stub 
  } 
 
  public RuleException(Throwable cause) 
  { 
    super(cause); 
    // TODO Auto-generated constructor stub 
  } 
 
} 

5、最后是測試了:這里使用了兩個網(wǎng)站進(jìn)行測試,采用了不同的規(guī)則,具體看代碼吧

package com.zhy.spider.test; 
 
import java.util.List; 
 
import com.zhy.spider.bean.LinkTypeData; 
import com.zhy.spider.core.ExtractService; 
import com.zhy.spider.rule.Rule; 
 
public class Test 
{ 
  @org.junit.Test 
  public void getDatasByClass() 
  { 
    Rule rule = new Rule( 
        "http://www1.sxcredit.gov.cn/public/infocomquery.do?method=publicIndexQuery", 
    new String[] { "query.enterprisename","query.registationnumber" }, new String[] { "興網(wǎng)","" }, 
        "cont_right", Rule.CLASS, Rule.POST); 
    List<LinkTypeData> extracts = ExtractService.extract(rule); 
    printf(extracts); 
  } 
 
  @org.junit.Test 
  public void getDatasByCssQuery() 
  { 
    Rule rule = new Rule("http://www.11315.com/search", 
        new String[] { "name" }, new String[] { "興網(wǎng)" }, 
        "div.g-mn div.con-model", Rule.SELECTION, Rule.GET); 
    List<LinkTypeData> extracts = ExtractService.extract(rule); 
    printf(extracts); 
  } 
 
  public void printf(List<LinkTypeData> datas) 
  { 
    for (LinkTypeData data : datas) 
    { 
      System.out.println(data.getLinkText()); 
      System.out.println(data.getLinkHref()); 
      System.out.println("***********************************"); 
    } 
 
  } 
} 

輸出結(jié)果:

深圳市網(wǎng)興科技有限公司 
http://14603257.11315.com 
*********************************** 
荊州市興網(wǎng)公路物資有限公司 
http://05155980.11315.com 
*********************************** 
西安市全興網(wǎng)吧 
# 
*********************************** 
子長縣新興網(wǎng)城 
# 
*********************************** 
陜西同興網(wǎng)絡(luò)信息有限責(zé)任公司第三分公司 
# 
*********************************** 
西安高興網(wǎng)絡(luò)科技有限公司 
# 
*********************************** 
陜西同興網(wǎng)絡(luò)信息有限責(zé)任公司西安分公司 
# 
*********************************** 

最后使用一個Baidu新聞來測試我們的代碼:說明我們的代碼是通用的。

    /** 
 * 使用百度新聞,只設(shè)置url和關(guān)鍵字與返回類型 
 */ 
@org.junit.Test 
public void getDatasByCssQueryUserBaidu() 
{ 
  Rule rule = new Rule("http://news.baidu.com/ns", 
      new String[] { "word" }, new String[] { "支付寶" }, 
      null, -1, Rule.GET); 
  List<LinkTypeData> extracts = ExtractService.extract(rule); 
  printf(extracts); 
} 

我們只設(shè)置了鏈接、關(guān)鍵字、和請求類型,不設(shè)置具體的篩選條件。

結(jié)果:有一定的垃圾數(shù)據(jù)是肯定的,但是需要的數(shù)據(jù)肯定也抓取出來了。我們可以設(shè)置Rule.SECTION,以及篩選條件進(jìn)一步的限制。

按時間排序 
/ns?word=支付寶&ie=utf-8&bs=支付寶&sr=0&cl=2&rn=20&tn=news&ct=0&clk=sortbytime 
*********************************** 
x 
javascript:void(0) 
*********************************** 
支付寶將聯(lián)合多方共建安全基金 首批投入4000萬 
http://finance.ifeng.com/a/20140409/12081871_0.shtml 
*********************************** 
7條相同新聞 
/ns?word=%E6%94%AF%E4%BB%98%E5%AE%9D+cont:2465146414%7C697779368%7C3832159921&same=7&cl=1&tn=news&rn=30&fm=sd 
*********************************** 
百度快照 
http://cache.baidu.com/c?m=9d78d513d9d437ab4f9e91697d1cc0161d4381132ba7d3020cd0870fd33a541b0120a1ac26510d19879e20345dfe1e4bea876d26605f75a09bbfd91782a6c1352f8a2432721a844a0fd019adc1452fc423875d9dad0ee7cdb168d5f18c&p=c96ec64ad48b2def49bd9b780b64&newp=c4769a4790934ea95ea28e281c4092695912c10e3dd796&user=baidu&fm=sc&query=%D6%A7%B8%B6%B1%A6&qid=a400f3660007a6c5&p1=1 
*********************************** 
OpenSSL漏洞涉及眾多網(wǎng)站 支付寶稱暫無數(shù)據(jù)泄露 
http://tech.ifeng.com/internet/detail_2014_04/09/35590390_0.shtml 
*********************************** 
26條相同新聞 
/ns?word=%E6%94%AF%E4%BB%98%E5%AE%9D+cont:3869124100&same=26&cl=1&tn=news&rn=30&fm=sd 
*********************************** 
百度快照 
http://cache.baidu.com/c?m=9f65cb4a8c8507ed4fece7631050803743438014678387492ac3933fc239045c1c3aa5ec677e4742ce932b2152f4174bed843670340537b0efca8e57dfb08f29288f2c367117845615a71bb8cb31649b66cf04fdea44a7ecff25e5aac5a0da4323c044757e97f1fb4d7017dd1cf4&p=8b2a970d95df11a05aa4c32013&newp=9e39c64ad4dd50fa40bd9b7c5253d8304503c52251d5ce042acc&user=baidu&fm=sc&query=%D6%A7%B8%B6%B1%A6&qid=a400f3660007a6c5&p1=2 
*********************************** 
雅虎日本6月起開始支持支付寶付款 
http://www.techweb.com.cn/ucweb/news/id/2025843 
*********************************** 

如果有什么不足,可以指出;如果覺得對你有用,頂一下~~哈哈

源碼下載,點(diǎn)擊這里。

以上就是Java 爬蟲信息抓取的實例,后續(xù)繼續(xù)補(bǔ)充相關(guān)資料,謝謝大家對本站的支持!

相關(guān)文章

  • Mybatis圖文并茂講解分頁插件

    Mybatis圖文并茂講解分頁插件

    使用過mybatis的人都知道,mybatis本身就很小且簡單,sql寫在xml里,統(tǒng)一管理和優(yōu)化。缺點(diǎn)當(dāng)然也有,比如我們使用過程中,要使用到分頁,如果用最原始的方式的話,1.查詢分頁數(shù)據(jù),2.獲取分頁長度,也就是說要使用到兩個方法才能完成分頁
    2022-07-07
  • 使用Logback設(shè)置property參數(shù)方式

    使用Logback設(shè)置property參數(shù)方式

    這篇文章主要介紹了使用Logback設(shè)置property參數(shù)方式,具有很好的參考價值,希望對大家有所幫助。如有錯誤或未考慮完全的地方,望不吝賜教
    2023-03-03
  • Java利用棧實現(xiàn)簡易計算器功能

    Java利用棧實現(xiàn)簡易計算器功能

    這篇文章主要為大家詳細(xì)介紹了Java利用棧實現(xiàn)簡易計算器功能,文中示例代碼介紹的非常詳細(xì),具有一定的參考價值,感興趣的小伙伴們可以參考一下
    2022-05-05
  • java利用遞歸調(diào)用實現(xiàn)樹形菜單的樣式

    java利用遞歸調(diào)用實現(xiàn)樹形菜單的樣式

    這篇文章主要給大家介紹了關(guān)于java利用遞歸調(diào)用實現(xiàn)樹形菜單樣式的相關(guān)資料,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧
    2018-09-09
  • java中l(wèi)og使用小結(jié)

    java中l(wèi)og使用小結(jié)

    本文主要介紹了java中l(wèi)og使用小結(jié),一文搞清楚java所有日志框架,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧
    2023-09-09
  • springboot集成springCloud中g(shù)ateway時啟動報錯的解決

    springboot集成springCloud中g(shù)ateway時啟動報錯的解決

    這篇文章主要介紹了springboot集成springCloud中g(shù)ateway時啟動報錯的解決方案,具有很好的參考價值,希望對大家有所幫助。如有錯誤或未考慮完全的地方,望不吝賜教
    2021-07-07
  • Spring注解驅(qū)動擴(kuò)展原理BeanFactoryPostProcessor

    Spring注解驅(qū)動擴(kuò)展原理BeanFactoryPostProcessor

    這篇文章主要介紹了Spring注解驅(qū)動擴(kuò)展原理BeanFactoryPostProcessor,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友可以參考下
    2020-03-03
  • JVM中對象的創(chuàng)建與OOP-Klass模型

    JVM中對象的創(chuàng)建與OOP-Klass模型

    這篇文章主要介紹了JVM中對象的創(chuàng)建與OOP-Klass模型,具有很好的參考價值,希望對大家有所幫助。如有錯誤或未考慮完全的地方,望不吝賜教
    2021-09-09
  • springboot3+r2dbc響應(yīng)式編程實踐

    springboot3+r2dbc響應(yīng)式編程實踐

    本文主要介紹了springboot3+r2dbc響應(yīng)式編程實踐,文中通過示例代碼介紹的非常詳細(xì),具有一定的參考價值,感興趣的小伙伴們可以參考一下
    2022-02-02
  • 啟動SpringBoot報JavaMail加載錯誤的原因分析和解決

    啟動SpringBoot報JavaMail加載錯誤的原因分析和解決

    這篇文章給大家介紹了啟動SpringBoot報JavaMail加載錯誤的原因分析和解決,文中通過代碼示例給出了詳細(xì)的原因分析和解決方法,對大家的學(xué)習(xí)或工作有一定的幫助,需要的朋友可以參考下
    2024-01-01

最新評論