Python爬蟲使用瀏覽器cookies:browsercookie過程解析
很多用Python的人可能都寫過網(wǎng)絡(luò)爬蟲,自動化獲取網(wǎng)絡(luò)數(shù)據(jù)確實(shí)是一件令人愉悅的事情,而Python很好的幫助我們達(dá)到這種愉悅。然而,爬蟲經(jīng)常要碰到各種登錄、驗(yàn)證的阻撓,讓人灰心喪氣(網(wǎng)站:天天碰到各種各樣的爬蟲抓我們網(wǎng)站,也很讓人灰心喪氣~)。爬蟲和反爬蟲就是一個貓和老鼠的游戲,道高一尺魔高一丈,兩者反復(fù)糾纏。
由于http協(xié)議的無狀態(tài)性,登錄驗(yàn)證都是通過傳遞cookies來實(shí)現(xiàn)的。通過瀏覽器登錄一次,登錄信息的cookie是就會被瀏覽器保存下來。下次再打開該網(wǎng)站時(shí),瀏覽器自動帶上保存的cookies,只有cookies還未過期,對于網(wǎng)站來說你就還是登錄狀態(tài)的。
browsercookie模塊就是這樣一個從瀏覽器提取保存的cookies的工具。它是一個很有用的爬蟲工具,通過加載你瀏覽器的cookies到一個cookiejar對象里面,讓你輕松下載需要登錄的網(wǎng)頁內(nèi)容。
安裝
pip install browsercookie
在Windows系統(tǒng)中,內(nèi)置的sqlite模塊在加載FireFox數(shù)據(jù)庫時(shí)會拋出錯誤。需要更新sqlite的版本:
pip install pysqlite
使用方法
下面是從網(wǎng)頁提取標(biāo)題的例子:
>>> import re >>> get_title = lambda html: re.findall('<title>(.*?)</title>', html, flags=re.DOTALL)[0].strip()
下面是未登錄狀況下下載得到的標(biāo)題:
>>> import urllib2 >>> url = 'https://bitbucket.org/' >>> public_html = urllib2.urlopen(url).read() >>> get_title(public_html) 'Git and Mercurial code management for teams'
接下來使用browsercookie從登錄過Bitbucket的FireFox里面獲取cookie再下載:
>>> import browsercookie >>> cj = browsercookie.firefox() >>> opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cj)) >>> login_html = opener.open(url).read() >>> get_title(login_html) 'richardpenman / home — Bitbucket'
上面是Python2的代碼,再試試 Python3:
>>> import urllib.request >>> public_html = urllib.request.urlopen(url).read() >>> opener = urllib.request.build_opener(urllib.request.HTTPCookieProcessor(cj))
你可以看到你的用戶名出現(xiàn)在title里面了,說明browsercookie模塊成功從FireFox加載了cookies。小編整理一套Python資料和PDF,有需要Python學(xué)習(xí)資料可以加學(xué)習(xí)群:631441315 ,反正閑著也是閑著呢,不如學(xué)點(diǎn)東西啦~~
下面是使用requests的例子,這次我們從Chrome里面加載cookies,當(dāng)然你需要事先用Chrome登錄Bitbucket:
>>> import requests >>> cj = browsercookie.chrome() >>> r = requests.get(url, cookies=cj) >>> get_title(r.content) 'richardpenman / home — Bitbucket'
如果你不知道或不關(guān)心那個瀏覽器有你需要的cookies,你可以這樣操作:
>>> cj = browsercookie.load() >>> r = requests.get(url, cookies=cj) >>> get_title(r.content) 'richardpenman / home — Bitbucket'
支持
目前,該模塊支持以下平臺:
Chrome: Linux, OSX, Windows
Firefox: Linux, OSX, Windows
以上就是本文的全部內(nèi)容,希望對大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。
- Python實(shí)現(xiàn)定時(shí)自動清除瀏覽器cookies的方法
- Python獲取瀏覽器Cookies的方法總結(jié)
- 詳解Python?Flask?API?示例演示(附cookies和session)
- Python?selenium?get_cookies獲取cookie不全的解決方案
- python 實(shí)現(xiàn)Requests發(fā)送帶cookies的請求
- python+selenium自動化實(shí)戰(zhàn)攜帶cookies模擬登陸微博
- cookies應(yīng)對python反爬蟲知識點(diǎn)詳解
- python編程之requests在網(wǎng)絡(luò)請求中添加cookies參數(shù)方法詳解
- Python獲取瀏覽器Cookies的四種方式小結(jié)
相關(guān)文章
使用Python爬了4400條淘寶商品數(shù)據(jù),竟發(fā)現(xiàn)了這些“潛規(guī)則”
這篇文章主要介紹了使用Python爬了4400條淘寶商品數(shù)據(jù),竟發(fā)現(xiàn)了這些“潛規(guī)則”,筆者用 Python 爬取淘寶某商品的全過程,并對商品數(shù)據(jù)進(jìn)行了挖掘與分析,最終得出結(jié)論。需要的朋友可以參考下2018-03-03Python 正則表達(dá)式 re.match/re.search/re.sub的使用解析
今天小編就為大家分享一篇Python 正則表達(dá)式 re.match/re.search/re.sub的使用解析,具有很好的參考價(jià)值,希望對大家有所幫助。一起跟隨小編過來看看吧2019-07-07sklearn-SVC實(shí)現(xiàn)與類參數(shù)詳解
今天小編就為大家分享一篇sklearn-SVC實(shí)現(xiàn)與類參數(shù)詳解,具有很好的參考價(jià)值,希望對大家有所幫助。一起跟隨小編過來看看吧2019-12-12自定義Django默認(rèn)的sitemap站點(diǎn)地圖樣式
這篇文章主要介紹了自定義Django默認(rèn)的sitemap站點(diǎn)地圖樣式,通過代碼給大家介紹了使用Django的sitemap功能,代碼很簡單非常不錯對大家的工作或?qū)W習(xí)具有一定的參考借鑒價(jià)值,需要的朋友可以參考下2020-03-03利用Python自動監(jiān)控網(wǎng)站并發(fā)送郵件告警的方法
這篇文章介紹的是通過定時(shí)執(zhí)行python腳本,可以實(shí)現(xiàn)定期批量訪問網(wǎng)站,如果發(fā)現(xiàn)網(wǎng)站打不開,第一時(shí)間發(fā)郵件到管理員郵箱進(jìn)行預(yù)警。有需要的可以參考借鑒。2016-08-08Python selenium 父子、兄弟、相鄰節(jié)點(diǎn)定位方式詳解
這篇文章主要介紹了Python selenium 父子、兄弟、相鄰節(jié)點(diǎn)定位方式詳解的相關(guān)資料,非常不錯,具有參考借鑒價(jià)值,需要的朋友可以參考下2016-09-09python的random模塊及加權(quán)隨機(jī)算法的python實(shí)現(xiàn)方法
下面小編就為大家?guī)硪黄猵ython的random模塊及加權(quán)隨機(jī)算法的python實(shí)現(xiàn)方法。小編覺得挺不錯的,現(xiàn)在就分享給大家,也給大家做個參考。一起跟隨小編過來看看吧2017-01-01Pycharm+Scrapy安裝并且初始化項(xiàng)目的方法
今天小編就為大家分享一篇Pycharm+Scrapy安裝并且初始化項(xiàng)目的方法,具有很好的參考價(jià)值,希望對大家有所幫助。一起跟隨小編過來看看吧2019-01-01