欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

Python爬蟲框架Scrapy基本用法入門教程

 更新時(shí)間:2018年07月26日 11:49:38   作者:噴跑的豆子  
這篇文章主要介紹了Python爬蟲框架Scrapy基本用法,結(jié)合實(shí)例形式分析了xpath簡(jiǎn)單使用、xmlfeed模板、csvfeed模板及crawlfeed模板簡(jiǎn)單使用方法,需要的朋友可以參考下

本文實(shí)例講述了Python爬蟲框架Scrapy基本用法。分享給大家供大家參考,具體如下:

Xpath

<html>
<head>
  <title>標(biāo)題</title>
</head>
<body>
  <h2>二級(jí)標(biāo)題</h2>
  <p>爬蟲1</p>
  <p>爬蟲2</p>
</body>
</html>

在上述html代碼中,我要獲取h2的內(nèi)容,我們可以使用以下代碼進(jìn)行獲取:

info = response.xpath("/html/body/h2/text()")

可以看出/html/body/h2為內(nèi)容的層次結(jié)構(gòu),text()則是獲取h2標(biāo)簽的內(nèi)容。//p獲取所有p標(biāo)簽。獲取帶具體屬性的標(biāo)簽://標(biāo)簽[@屬性="屬性值"]

<div class="hide"></div>

獲取class為hide的div標(biāo)簽

div[@class="hide"]

再比如,我們?cè)诠雀鐲hrome瀏覽器上的Console界面使用$x['//h2']命令獲取頁(yè)面中的h2元素信息:

xmlfeed模板

創(chuàng)建一個(gè)xmlfeed模板的爬蟲

scrapy genspider -t xmlfeed abc iqianyue.com

核心代碼:

from scrapy.spiders import XMLFeedSpider
class AbcSpider(XMLFeedSpider):
  name = 'abc'
  start_urls = ['http://yum.iqianyue.com/weisuenbook/pyspd/part12/test.xml']
  iterator = 'iternodes' # 迭代器,默認(rèn)為iternodes,是一個(gè)基于正則表達(dá)式的高性能迭代器。除了iternodes,還有“html”和“xml”
  itertag = 'person' # 設(shè)置從哪個(gè)節(jié)點(diǎn)(標(biāo)簽)開始迭代
  # parse_node會(huì)在節(jié)點(diǎn)與提供的標(biāo)簽名相符時(shí)自動(dòng)調(diào)用
  def parse_node(self, response, selector):
    i = {}
    xpath = "/person/email/text()"
    info = selector.xpath(xpath).extract()
    print(info)
    return i

csvfeed模板

創(chuàng)建一個(gè)csvfeed模板的爬蟲

scrapy genspider -t csvfeed csvspider iqianyue.com

核心代碼

from scrapy.spiders import CSVFeedSpider
class CsvspiderSpider(CSVFeedSpider):
  name = 'csvspider'
  allowed_domains = ['iqianyue.com']
  start_urls = ['http://yum.iqianyue.com/weisuenbook/pyspd/part12/mydata.csv']
  # headers 主要存放csv文件中包含的用于提取字段的信息列表
  headers = ['name', 'sex', 'addr', 'email']
  # delimiter 字段之間的間隔
  delimiter = ','
  def parse_row(self, response, row):
    i = {}
    name = row["name"]
    sex = row["sex"]
    addr = row["addr"]
    email = row["email"]
    print(name,sex,addr,email)
    #i['url'] = row['url']
    #i['name'] = row['name']
    #i['description'] = row['description']
    return i

crawlfeed模板

創(chuàng)建一個(gè)crawlfeed模板的爬蟲

scrapy genspider -t crawlfeed crawlspider sohu.com

核心代碼

class CrawlspiderSpider(CrawlSpider):
  name = 'crawlspider'
  allowed_domains = ['sohu.com']
  start_urls = ['http://sohu.com/']
  rules = (
    Rule(LinkExtractor(allow=r'Items/'), callback='parse_item', follow=True),
  )
  def parse_item(self, response):
    i = {}
    #i['domain_id'] = response.xpath('//input[@id="sid"]/@value').extract()
    #i['name'] = response.xpath('//div[@id="name"]').extract()
    #i['description'] = response.xpath('//div[@id="description"]').extract()
    return i

上面代碼rules部分中的LinkExtractor為連接提取器。

LinkExtractor中對(duì)應(yīng)的參數(shù)及含義

參數(shù)名 參數(shù)含義
allow 提取符合正則表達(dá)式的鏈接
deny 不提取符合正則表達(dá)式的鏈接
restrict_xpaths 使用XPath表達(dá)式與allow共同作用提取同時(shí)符合對(duì)應(yīng)XPath表達(dá)式和對(duì)應(yīng)正則表達(dá)式的鏈接
allow_domains 允許提取的域名,比如我們想只提取某個(gè)域名下的鏈接時(shí)會(huì)用到
deny_domains 進(jìn)制提取的域名

更多關(guān)于Python相關(guān)內(nèi)容可查看本站專題:《Python Socket編程技巧總結(jié)》、《Python正則表達(dá)式用法總結(jié)》、《Python數(shù)據(jù)結(jié)構(gòu)與算法教程》、《Python函數(shù)使用技巧總結(jié)》、《Python字符串操作技巧匯總》、《Python入門與進(jìn)階經(jīng)典教程》及《Python文件與目錄操作技巧匯總

希望本文所述對(duì)大家Python程序設(shè)計(jì)有所幫助。

相關(guān)文章

  • python通過函數(shù)名調(diào)用函數(shù)的幾種方法總結(jié)

    python通過函數(shù)名調(diào)用函數(shù)的幾種方法總結(jié)

    今天帶大家學(xué)習(xí)的是怎么使用python通過函數(shù)名調(diào)用函數(shù),文中對(duì)python通過函數(shù)名調(diào)用函數(shù)的幾種方法有非常詳細(xì)的介紹,需要的朋友可以參考下
    2021-06-06
  • python數(shù)據(jù)庫(kù)操作常用功能使用詳解(創(chuàng)建表/插入數(shù)據(jù)/獲取數(shù)據(jù))

    python數(shù)據(jù)庫(kù)操作常用功能使用詳解(創(chuàng)建表/插入數(shù)據(jù)/獲取數(shù)據(jù))

    這篇文章主要介紹了python數(shù)據(jù)庫(kù)操作常用功能使用方法:獲取mysql版本、創(chuàng)建表、插入數(shù)據(jù)、slect獲取數(shù)據(jù)等,下面看示例吧
    2013-12-12
  • 解決Django后臺(tái)ManyToManyField顯示成Object的問題

    解決Django后臺(tái)ManyToManyField顯示成Object的問題

    今天小編就為大家分享一篇解決Django后臺(tái)ManyToManyField顯示成Object的問題,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過來(lái)看看吧
    2019-08-08
  • 使用Pytorch如何完成多分類問題

    使用Pytorch如何完成多分類問題

    這篇文章主要介紹了使用Pytorch如何完成多分類問題,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教
    2023-02-02
  • 這樣寫python注釋讓代碼更加的優(yōu)雅

    這樣寫python注釋讓代碼更加的優(yōu)雅

    任何編程語(yǔ)言都少不了注釋,Python當(dāng)然也不例外,下面這篇文章主要給大家介紹了關(guān)于如何寫python注釋,才能讓你的代碼更加的優(yōu)雅,需要的朋友可以參考下
    2021-06-06
  • 詳解java調(diào)用python的幾種用法(看這篇就夠了)

    詳解java調(diào)用python的幾種用法(看這篇就夠了)

    這篇文章主要介紹了詳解java調(diào)用python的幾種用法(看這篇就夠了),文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧
    2020-12-12
  • pycharm 的Structure界面設(shè)置操作

    pycharm 的Structure界面設(shè)置操作

    這篇文章主要介紹了pycharm 的Structure界面設(shè)置操作,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過來(lái)看看吧
    2021-02-02
  • django的csrf實(shí)現(xiàn)過程詳解

    django的csrf實(shí)現(xiàn)過程詳解

    這篇文章主要介紹了django的csrf實(shí)現(xiàn)過程相加,文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下
    2019-07-07
  • Python如何一行輸入多個(gè)數(shù),并存入列表

    Python如何一行輸入多個(gè)數(shù),并存入列表

    這篇文章主要介紹了Python如何一行輸入多個(gè)數(shù),并存入列表,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教
    2022-05-05
  • Python中super的用法實(shí)例

    Python中super的用法實(shí)例

    這篇文章主要介紹了Python中super的用法實(shí)例,本文對(duì)比了普通繼承和super繼承的相關(guān)內(nèi)容,從運(yùn)行結(jié)果上看,普通繼承和super繼承是一樣的,但是其實(shí)它們的內(nèi)部運(yùn)行機(jī)制不一樣,這一點(diǎn)在多重繼承時(shí)體現(xiàn)得很明顯,需要的朋友可以參考下
    2015-05-05

最新評(píng)論