欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

requests.gPython?用requests.get獲取網(wǎng)頁內(nèi)容為空?’?’問題

 更新時(shí)間:2022年01月26日 09:09:29   作者:你隔壁的小王  
這篇文章主要介紹了requests.gPython?用requests.get獲取網(wǎng)頁內(nèi)容為空?’?’,溫行首先舉例說明,具有一定得參考價(jià)值,需要的小伙伴可以參考一下

下面先來看一個(gè)例子:

import ?requests
result=requests.get("http://data.10jqka.com.cn/financial/yjyg/")
result

輸出結(jié)果:

 繼續(xù)運(yùn)行,發(fā)現(xiàn)返回空值,在請求網(wǎng)頁爬取的時(shí)候,輸出的text信息中會出現(xiàn)抱歉,無法訪問等字眼,這就是禁止爬取,需要通過反爬機(jī)制去解決這個(gè)問題。headers是解決requests請求反爬的方法之一,相當(dāng)于我們進(jìn)去這個(gè)網(wǎng)頁的服務(wù)器本身,假裝自己本身在爬取數(shù)據(jù)。對反爬蟲網(wǎng)頁,可以設(shè)置一些headers信息,模擬成瀏覽器取訪問網(wǎng)站 。

一、如何設(shè)置headers

拿兩個(gè)常用的瀏覽器舉例:

1、QQ瀏覽器

界面 F12 

 點(diǎn)擊network 鍵入 CTRL+R

 單擊第一個(gè) 最下邊就是我門需要的 把他設(shè)置成headers解決問題

2、Miscrosft edge

二、微軟自帶瀏覽器

同樣 F12 打開開發(fā)者工具

 點(diǎn)擊網(wǎng)絡(luò),CTRL+R

 前文代碼修改:

import requests
ur="http://data.10jqka.com.cn/financial/yjyg/"
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.25 Safari/537.36 Core/1.70.3880.400 QQBrowser/10.8.4554.400 '}
result = requests.get(ur, headers=headers)
result.text

成功解決不能爬取問題

到此這篇關(guān)于requests.gPython 用requests.get獲取網(wǎng)頁內(nèi)容為空 ’ ’的文章就介紹到這了,更多相關(guān)requests.gPython 用requests.get獲取網(wǎng)頁內(nèi)容為空 ’ ’內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!

相關(guān)文章

最新評論