Scrapy中詭異xpath的匹配內(nèi)容失效問題及解決
引言
在爬蟲的世界里,xpath是一種非常簡(jiǎn)單易用的匹配規(guī)則,方便我們?cè)趙eb世界里提取需要的各類信息。
本文將講述一個(gè)xpath規(guī)則無效的問題分析過程。
環(huán)境介紹
Python 3.6.1 Scrapy 1.5.0
問題
在選用xpath之時(shí),都是基于firefox或者chrome中自帶的Web開發(fā)工具來選取的。
這里一般推薦使用chrome的devtool,功能強(qiáng)大,簡(jiǎn)單易用,童叟無欺,居家旅游必須良品呀。
具體示意如下:
基于xpath提取信息
基于xpath提取的路徑信息,示例如下:
//*[@id=”SpanPlanSchoolInfo”]/table[2]/tbody/tr[3]/td/table/tbody/tr[2]/td[1]/a
在Scrapy代碼中使用如下:
def parse(self, response): xpath_url = '//*[@id="SpanPlanSchoolInfo"]/table[2]/tbody/tr[3]/td/table/tbody/tr[2]/td[1]/a' urls = response.xpath(xpath_url) .....
但是在實(shí)際執(zhí)行中,卻一直沒有匹配到urls,根據(jù)實(shí)際上頁面返回正常,同時(shí)數(shù)據(jù)也是正確可以匹配到的,那問題出現(xiàn)在哪里呢?
問題分析
根據(jù)結(jié)果來分析,如果頁面存在,但是沒有正確的結(jié)果輸出,則一定是xpath的問題,但是xpath問題是基于chrome自帶的devtools工具copy而來的,怎么可能出錯(cuò)恩?真是讓人想不透的問題…….
在經(jīng)過一番深入的反復(fù)嘗試之后,主要是基于scrapy提供的強(qiáng)大的scrapy shell交互工具,可以幫助開發(fā)者快速地一步一步地定位問題。
于是采取了逐步縮小xpath的方式,逐步定位問題,終于找到了問題的原因所在,那就是tbody是一個(gè)需要移除的tag標(biāo)簽。
將正確的xpath設(shè)置為:
//*[@id=”SpanPlanSchoolInfo”]/table[2]/tr[3]/td/table/tbody/tr[2]/td[1]/a
問題總結(jié)
雖然問題解決了,但是原因是什么呢?
經(jīng)過分析,主要是由于瀏覽器本身自動(dòng)為table新增了tbody標(biāo)簽內(nèi)容,但是在xpath中是不需要的,需要在進(jìn)行xpath查詢之時(shí)移除掉。
以上為個(gè)人經(jīng)驗(yàn),希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。
相關(guān)文章
在python中實(shí)現(xiàn)對(duì)list求和及求積
今天小編就為大家分享一篇在python中實(shí)現(xiàn)對(duì)list求和及求積,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過來看看吧2018-11-11