python爬蟲headers設(shè)置后無效的解決方法
此次遇到的是一個(gè)函數(shù)使用不熟練造成的問題,但有了分析工具后可以很快定位到問題(此處推薦一個(gè)非常棒的抓包工具fiddler)
正文如下:
在爬取某個(gè)app數(shù)據(jù)時(shí)(app上的數(shù)據(jù)都是由http請求的),用Fidder分析了請求信息,并把python的request header信息寫在程序中進(jìn)行請求數(shù)據(jù)
代碼如下
import requests url = 'http://xxx?startDate=2017-10-19&endDate=2017-10-19&pageIndex=1&limit=50&sort=datetime&order=desc' headers={ "Host":"xxx.com", "Connection": "keep-alive", "Accept": "application/json, text/javascript, */*; q=0.01", "User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/29.0.1547.59 Safari/537.36", "X-Requested-With": "XMLHttpRequest", "Referer": "http://app.jg.eastmoney.com/html_Report/index.html", "Accept-Encoding": "gzip,deflate", "Accept-Language": "en-us,en", "Cookie":"xxx" } r = requests.get(url,headers) print (r.text)
請求成功但是,返回的是
{"Id":"6202c187-2fad-46e8-b4c6-b72ac8de0142","ReturnMsg":"加載失敗!"}
就是被發(fā)現(xiàn)不是正常請求被攔截了
然后我去Fidder中看剛才python發(fā)送請求的記錄 #蓋掉的兩個(gè)部分分別是Host和URL。
然后查看請求詳細(xì)信息的時(shí)候,請求頭并沒有加載進(jìn)去,User-Agent就寫著python-requests ! #請求頭里的UA信息是java,python程序,有點(diǎn)反爬蟲意識的網(wǎng)站、app都會(huì)攔截掉
Header詳細(xì)信息如下
GET http://xxx?istartDate=2017-10-19&endDate=2017-10-19&pageIndex=1&limit=50&sort=datetime&order=desc &Host=xxx.com &Connection=keep-alive &Accept=application%2Fjson%2C+text%2Fjavascript%2C+%2A%2F%2A%3B+q%3D0.01 &User-Agent=Mozilla%2F5.0+%28Windows+NT+6.1%3B+WOW64%29+AppleWebKit%2F537.36+%28KHTML%2C+like+Gecko%29+Chrome%2F29.0.1547.59+Safari%2F537.36 &X-Requested-With=XMLHttpRequest &Referer=xxx &Accept-Encoding=gzip%2Cdeflate &Accept-Language=en-us%2Cen &Cookie=xxx HTTP/1.1 Host: xxx.com User-Agent: python-requests/2.18.4 Accept-Encoding: gzip, deflate Accept: */* Connection: keep-alive HTTP/1.1 200 OK Server: nginx/1.2.2 Date: Sat, 21 Oct 2017 06:07:21 GMT Content-Type: application/json; charset=utf-8 Content-Length: 75 Connection: keep-alive Cache-Control: private X-AspNetMvc-Version: 5.2 X-AspNet-Version: 4.0.30319 X-Powered-By: ASP.NET
一開始還沒發(fā)現(xiàn),等我把請求的URL信息全部讀完,才發(fā)現(xiàn)程序把我的請求頭信息當(dāng)做參數(shù)放到了URL里
那就是我請求的時(shí)候request函數(shù)Header信息參數(shù)用錯(cuò)了
又重新看了一下Requests庫的Headers參數(shù)使用方法,發(fā)現(xiàn)有一行代碼寫錯(cuò)了,在使用request.get()方法時(shí)要把參數(shù) “headers =“寫出來
更改如下:
import requests url = 'http://xxx?startDate=2017-10-19&endDate=2017-10-19&pageIndex=1&limit=50&sort=datetime&order=desc' headers={ "Host":"xxx.com", "Connection": "keep-alive", "Accept": "application/json, text/javascript, */*; q=0.01", "User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/29.0.1547.59 Safari/537.36", "X-Requested-With": "XMLHttpRequest", "Referer": "http://app.jg.eastmoney.com/html_Report/index.html", "Accept-Encoding": "gzip,deflate", "Accept-Language": "en-us,en", "Cookie":"xxx" } r = requests.get(url,headers=headers)
然后去查看Fiddler中的請求。
此次python中的請求頭已經(jīng)正常了,請求詳細(xì)信息如下
GET http://xxx?startDate=2017-10-19&endDate=2017-10-19&pageIndex=1&limit=50&sort=datetime&order=desc HTTP/1.1 User-Agent: Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/29.0.1547.59 Safari/537.36 Accept-Encoding: gzip,deflate Accept: application/json, text/javascript, */*; q=0.01 Connection: keep-alive Host: xxx.com X-Requested-With: XMLHttpRequest Referer: http://xxx Accept-Language: en-us,en Cookie: xxx HTTP/1.1 200 OK Server: nginx/1.2.2 Date: Sat, 21 Oct 2017 06:42:21 GMT Content-Type: application/json; charset=utf-8 Content-Length: 75 Connection: keep-alive Cache-Control: private X-AspNetMvc-Version: 5.2 X-AspNet-Version: 4.0.30319 X-Powered-By: ASP.NET
然后又用python程序請求了一次,結(jié)果請求成功,返回的還是
{"Id":"6202c187-2fad-46e8-b4c6-b72ac8de0142","ReturnMsg":"加載失??!"}
因?yàn)橐话鉩ookie都會(huì)在短時(shí)間內(nèi)過期,所以更新了cookie,然后請求成功
需要注意的是用程序爬蟲一定要把Header設(shè)置好,這個(gè)app如果反爬的時(shí)候封ip的話可能就麻煩了。
以上就是本文的全部內(nèi)容,希望對大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。
相關(guān)文章
Python基礎(chǔ)之logging模塊知識總結(jié)
用Python寫代碼的時(shí)候,在想看的地方寫個(gè)print xx 就能在控制臺上顯示打印信息,這樣子就能知道它是什么了,但是當(dāng)我需要看大量的地方或者在一個(gè)文件中查看的時(shí)候,這時(shí)候print就不大方便了,所以Python引入了logging模塊來記錄我想要的信息,需要的朋友可以參考下2021-05-05如何將DataFrame數(shù)據(jù)寫入csv文件及讀取
在Python中進(jìn)行數(shù)據(jù)處理時(shí),經(jīng)常會(huì)用到CSV文件的讀寫操作,當(dāng)需要將list數(shù)據(jù)保存到CSV文件時(shí),可以使用內(nèi)置的csv模塊,若data是一個(gè)list,saveData函數(shù)能夠?qū)ist中每個(gè)元素存儲在CSV文件的一行,但需要注意的是,默認(rèn)情況下讀取出的CSV數(shù)據(jù)類型為str2024-09-09利用Django框架中select_related和prefetch_related函數(shù)對數(shù)據(jù)庫查詢優(yōu)化
這篇文章主要介紹了利用Python的Django框架中select_related和prefetch_related函數(shù)對數(shù)據(jù)庫查詢的優(yōu)化的一個(gè)實(shí)踐例子,展示如何在實(shí)際中利用這兩個(gè)函數(shù)減少對數(shù)據(jù)庫的查詢次數(shù),需要的朋友可以參考下2015-04-04MATLAB 全景圖切割及盒圖顯示的實(shí)現(xiàn)步驟
本文給大家分兩部分介紹,第一部分通過圖文的形式給大家介紹了全景圖切割的代碼,第二部分給大家介紹了盒圖展示效果的實(shí)現(xiàn)代碼,對MATLAB 全景圖切割相關(guān)知識感興趣的朋友,跟隨小編一起看看吧2021-05-05利用Python自動(dòng)化操作AutoCAD的實(shí)現(xiàn)
這篇文章主要介紹了利用Python自動(dòng)化操作AutoCAD的實(shí)現(xiàn),文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2020-04-04Python使用turtle和matplotlib繪制圓和愛心的示例代碼
這篇文章主要是帶大家用Python的turtle和matplotlib畫出圓滿和愛心,文中的示例代碼講解的非常詳細(xì),對我們學(xué)習(xí)Python有一定幫助,感興趣的可以了解一下2023-06-06Linux中安裝Python的交互式解釋器IPython的教程
IPython是一種基于Python的Shell,由于有了Python編程語言的支撐,而比一般的Shell更加強(qiáng)大.下面就來看一下Linux中安裝Python的交互式解釋器IPython的教程2016-06-06