Python爬蟲框架Scrapy基本用法入門教程
本文實例講述了Python爬蟲框架Scrapy基本用法。分享給大家供大家參考,具體如下:
Xpath
<html> <head> <title>標(biāo)題</title> </head> <body> <h2>二級標(biāo)題</h2> <p>爬蟲1</p> <p>爬蟲2</p> </body> </html>
在上述html代碼中,我要獲取h2的內(nèi)容,我們可以使用以下代碼進(jìn)行獲?。?/p>
info = response.xpath("/html/body/h2/text()")
可以看出/html/body/h2為內(nèi)容的層次結(jié)構(gòu),text()則是獲取h2標(biāo)簽的內(nèi)容。//p獲取所有p標(biāo)簽。獲取帶具體屬性的標(biāo)簽://標(biāo)簽[@屬性="屬性值"]
<div class="hide"></div>
獲取class為hide的div標(biāo)簽
div[@class="hide"]
再比如,我們在谷歌Chrome瀏覽器上的Console界面使用$x['//h2']命令獲取頁面中的h2元素信息:

xmlfeed模板
創(chuàng)建一個xmlfeed模板的爬蟲
scrapy genspider -t xmlfeed abc iqianyue.com
核心代碼:
from scrapy.spiders import XMLFeedSpider
class AbcSpider(XMLFeedSpider):
name = 'abc'
start_urls = ['http://yum.iqianyue.com/weisuenbook/pyspd/part12/test.xml']
iterator = 'iternodes' # 迭代器,默認(rèn)為iternodes,是一個基于正則表達(dá)式的高性能迭代器。除了iternodes,還有“html”和“xml”
itertag = 'person' # 設(shè)置從哪個節(jié)點(標(biāo)簽)開始迭代
# parse_node會在節(jié)點與提供的標(biāo)簽名相符時自動調(diào)用
def parse_node(self, response, selector):
i = {}
xpath = "/person/email/text()"
info = selector.xpath(xpath).extract()
print(info)
return i
csvfeed模板
創(chuàng)建一個csvfeed模板的爬蟲
scrapy genspider -t csvfeed csvspider iqianyue.com
核心代碼
from scrapy.spiders import CSVFeedSpider
class CsvspiderSpider(CSVFeedSpider):
name = 'csvspider'
allowed_domains = ['iqianyue.com']
start_urls = ['http://yum.iqianyue.com/weisuenbook/pyspd/part12/mydata.csv']
# headers 主要存放csv文件中包含的用于提取字段的信息列表
headers = ['name', 'sex', 'addr', 'email']
# delimiter 字段之間的間隔
delimiter = ','
def parse_row(self, response, row):
i = {}
name = row["name"]
sex = row["sex"]
addr = row["addr"]
email = row["email"]
print(name,sex,addr,email)
#i['url'] = row['url']
#i['name'] = row['name']
#i['description'] = row['description']
return i
crawlfeed模板
創(chuàng)建一個crawlfeed模板的爬蟲
scrapy genspider -t crawlfeed crawlspider sohu.com
核心代碼
class CrawlspiderSpider(CrawlSpider):
name = 'crawlspider'
allowed_domains = ['sohu.com']
start_urls = ['http://sohu.com/']
rules = (
Rule(LinkExtractor(allow=r'Items/'), callback='parse_item', follow=True),
)
def parse_item(self, response):
i = {}
#i['domain_id'] = response.xpath('//input[@id="sid"]/@value').extract()
#i['name'] = response.xpath('//div[@id="name"]').extract()
#i['description'] = response.xpath('//div[@id="description"]').extract()
return i
上面代碼rules部分中的LinkExtractor為連接提取器。
LinkExtractor中對應(yīng)的參數(shù)及含義
| 參數(shù)名 | 參數(shù)含義 |
|---|---|
| allow | 提取符合正則表達(dá)式的鏈接 |
| deny | 不提取符合正則表達(dá)式的鏈接 |
| restrict_xpaths | 使用XPath表達(dá)式與allow共同作用提取同時符合對應(yīng)XPath表達(dá)式和對應(yīng)正則表達(dá)式的鏈接 |
| allow_domains | 允許提取的域名,比如我們想只提取某個域名下的鏈接時會用到 |
| deny_domains | 進(jìn)制提取的域名 |
更多關(guān)于Python相關(guān)內(nèi)容可查看本站專題:《Python Socket編程技巧總結(jié)》、《Python正則表達(dá)式用法總結(jié)》、《Python數(shù)據(jù)結(jié)構(gòu)與算法教程》、《Python函數(shù)使用技巧總結(jié)》、《Python字符串操作技巧匯總》、《Python入門與進(jìn)階經(jīng)典教程》及《Python文件與目錄操作技巧匯總》
希望本文所述對大家Python程序設(shè)計有所幫助。
相關(guān)文章
python通過函數(shù)名調(diào)用函數(shù)的幾種方法總結(jié)
今天帶大家學(xué)習(xí)的是怎么使用python通過函數(shù)名調(diào)用函數(shù),文中對python通過函數(shù)名調(diào)用函數(shù)的幾種方法有非常詳細(xì)的介紹,需要的朋友可以參考下2021-06-06
python數(shù)據(jù)庫操作常用功能使用詳解(創(chuàng)建表/插入數(shù)據(jù)/獲取數(shù)據(jù))
這篇文章主要介紹了python數(shù)據(jù)庫操作常用功能使用方法:獲取mysql版本、創(chuàng)建表、插入數(shù)據(jù)、slect獲取數(shù)據(jù)等,下面看示例吧2013-12-12
解決Django后臺ManyToManyField顯示成Object的問題
今天小編就為大家分享一篇解決Django后臺ManyToManyField顯示成Object的問題,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2019-08-08
詳解java調(diào)用python的幾種用法(看這篇就夠了)
這篇文章主要介紹了詳解java調(diào)用python的幾種用法(看這篇就夠了),文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2020-12-12

