Scrapy元素選擇器Xpath用法匯總
眾所周知,在設(shè)計(jì)爬蟲時(shí),最麻煩的一步就是對(duì)網(wǎng)頁元素進(jìn)行分析,目前流行的網(wǎng)頁元素獲取的工具有BeautifulSoup,lxml等,而據(jù)我使用的體驗(yàn)而言,Scrapy的元素選擇器Xpath(結(jié)合正則表達(dá)式)是其中較為出色的一種(個(gè)人認(rèn)為最好啦,當(dāng)然只能在Scrapy中使用)功能相對(duì)較全、使用較為方便,正因?yàn)樗呢S富性,有時(shí)很多功能會(huì)忘記,所以在這里整理好記錄下來,方便今后查閱使用。
1. 元素的多級(jí)定位與跳級(jí)定位
多級(jí)定位:依靠html中的多級(jí)元素逐步縮小范圍
response.xpath('//table/tbody/tr/td') //如果知道元素所屬的下標(biāo)可以用下標(biāo)選擇 response.xpath('//table/tbody/tr[1]/td')
跳級(jí)定位:符號(hào)“//”表示跳級(jí)定位,即對(duì)當(dāng)前元素的所有層數(shù)的子元素(不僅是第一層子元素)進(jìn)行查找,一般xpath的開頭都是跳級(jí)定位
response.xpath('//span//table')
2. 依靠元素的屬性定位
每個(gè)html元素都有很多屬性,如id、class、title、href、text(href和text往往可以配合正則表達(dá)式)等,這些屬性往往具有很強(qiáng)的特殊性,結(jié)合元素多級(jí)定位或跳級(jí)定位會(huì)更準(zhǔn)確高效,下面舉幾個(gè)典型的例子,其他的舉一反三
利用class定位
response.xpath('//td[@class="mc_content"]')
利用href配合正則表達(dá)式定位
response.xpath('//a[re:test(@href,"^\/index\.php\?m=News&a=details&id=1&NewsId=\d{1,4}")]')
利用text結(jié)合正則表達(dá)式定位
a=response.xpath('//a[re:test(text(),"\w{4}")]')
此外,xpath還有對(duì)于html元素操作的兩個(gè)實(shí)用的函數(shù)(可以用正則表達(dá)式代替)——starts-with和contains;
a=response.xpath('//a[starts-with(@title,"注冊時(shí)間")]') a=response.xpath('//a[contains(text(),"聞")]')
3. 提取元素或元素的屬性值
首先是最基本的extract()函數(shù),提取被定為的元素對(duì)象
a=response.xpath('//a[contains(text(),"聞")]').extract() //如果被定為的元素對(duì)象有多個(gè),可以有用下標(biāo)指定 a=response.xpath('//a[contains(text(),"聞")]').extract()[1]
提取元素的屬性
//提取text a=response.xpath('//a[contains(text(),"聞")]/text()').extract() //獲取href a=response.xpath('//a[contains(text(),"聞")]/@href').extract() //獲取name a=response.xpath('//a[contains(text(),"聞")]/@name').extract()
此時(shí)我們的正則表達(dá)式又閑不住了(scrapy自帶的函數(shù)),可以對(duì)提取的元素進(jìn)行選擇
//對(duì)href中的部分字符串進(jìn)行選擇 response.xpath('//a[@name="_l_p_n"]/@href').re('\/s.*?list\.htm')
在這里關(guān)于xpath的所有用法基本總結(jié)完畢,只是由于xpath是對(duì)靜態(tài)元素進(jìn)行匹配選擇,對(duì)于javascript往往束手無策,這時(shí)不得不用一個(gè)自動(dòng)化測試工具——selenium,可以實(shí)現(xiàn)各種動(dòng)態(tài)事件和靜態(tài)元素的選擇,只是selenium往往比較吃內(nèi)存,響應(yīng)時(shí)間也比較慢,對(duì)于大型的爬蟲任務(wù)盡量不要使用,畢竟有一些javascript元素是內(nèi)嵌在網(wǎng)頁代碼中的,這時(shí)候結(jié)合萬能的正則表達(dá)式,xpath往往能夠?qū)崿F(xiàn)。如下:
link = re.search("javascript:goToPage\('(.*?)'", value) //value為包含該段的字符串
到此這篇關(guān)于Scrapy元素選擇器Xpath用法匯總的文章就介紹到這了,更多相關(guān)Scrapy元素選擇器Xpath 內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
解決遇到:PytorchStreamReader failed reading zip&n
本文針對(duì)"PytorchStreamReaderfailedreadingziparchive:failedfindingcentral"錯(cuò)誤提出解決方案,包括檢查文件完整性、文件路徑,嘗試更新PyTorch版本,檢查壓縮文件格式,代碼問題,或?qū)で蠹夹g(shù)支持等,希望這些經(jīng)驗(yàn)?zāi)芙o遇到同樣問題的人一個(gè)參考2024-09-09PyCharm GUI界面開發(fā)和exe文件生成的實(shí)現(xiàn)
這篇文章主要介紹了PyCharm GUI界面開發(fā)和exe文件生成,文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2020-03-03Python利用Flask動(dòng)態(tài)生成漢字頭像
這篇文章主要為大家詳細(xì)介紹了Python如何利用Flask動(dòng)態(tài)生成一個(gè)漢字頭像,文中的示例代碼講解詳細(xì),對(duì)我們學(xué)習(xí)Python有一定的幫助,需要的可以參考一下2023-01-01Python批量發(fā)送post請求的實(shí)現(xiàn)代碼
昨天學(xué)了一天的Python(我的生產(chǎn)語言是java,也可以寫一些shell腳本,算有一點(diǎn)點(diǎn)基礎(chǔ)),今天有一個(gè)應(yīng)用場景,就正好練手了2018-05-05windows下pycharm搭建spark環(huán)境并成功運(yùn)行 附源碼
這篇文章主要介紹了windows下pycharm搭建spark環(huán)境并成功運(yùn)行 附源碼,本文分步驟給大家介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或工作具有一定的參考借鑒價(jià)值,需要的朋友可以參考下2021-04-04Python matplotlib實(shí)時(shí)畫圖案例
這篇文章主要介紹了Python matplotlib實(shí)時(shí)畫圖案例,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過來看看吧2020-04-04100?個(gè)?Python?小例子(練習(xí)題四)
這篇文章主要給大家分享100?個(gè)?Python?小例子,前文分享了一二三,本文的四十最后一篇了,這篇就把100道python小練習(xí)全分享完了,感興趣的小伙伴也可以去練習(xí)前幾期內(nèi)容,洗碗給這幾篇文章給你的學(xué)習(xí)帶來幫助2022-01-01Django結(jié)合使用Scrapy爬取數(shù)據(jù)入庫的方法示例
這篇文章主要介紹了Django結(jié)合使用Scrapy爬取數(shù)據(jù)入庫的方法示例,文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2021-03-03