python scrapy框架中Request對(duì)象和Response對(duì)象的介紹
一、Request對(duì)象
Request
對(duì)象主要是用來請(qǐng)求數(shù)據(jù),爬取一頁的數(shù)據(jù)重新發(fā)送一個(gè)請(qǐng)求的時(shí)候調(diào)用,其源碼類的位置如
下圖所示:
這里給出其的源碼,該方法有很多參數(shù):
class Request(object_ref): ? ? def __init__(self, url, callback=None, method='GET', headers=None, body=None, ? ? ? ? ? ? ? ? ?cookies=None, meta=None, encoding='utf-8', priority=0, ? ? ? ? ? ? ? ? ?dont_filter=False, errback=None, flags=None, cb_kwargs=None): ? ? ? ? self._encoding = encoding ?# this one has to be set first ? ? ? ? self.method = str(method).upper() ? ? ? ? self._set_url(url) ? ? ? ? self._set_body(body) ? ? ? ? if not isinstance(priority, int): ? ? ? ? ? ? raise TypeError(f"Request priority not an integer: {priority!r}") ? ? ? ? self.priority = priority ? ? ? ? if callback is not None and not callable(callback): ? ? ? ? ? ? raise TypeError(f'callback must be a callable, got {type(callback).__name__}') ? ? ? ? if errback is not None and not callable(errback): ? ? ? ? ? ? raise TypeError(f'errback must be a callable, got {type(errback).__name__}') ? ? ? ? self.callback = callback ? ? ? ? self.errback = errback ? ? ? ? self.cookies = cookies or {} ? ? ? ? self.headers = Headers(headers or {}, encoding=encoding) ? ? ? ? self.dont_filter = dont_filter ? ? ? ? self._meta = dict(meta) if meta else None ? ? ? ? self._cb_kwargs = dict(cb_kwargs) if cb_kwargs else None ? ? ? ? self.flags = [] if flags is None else list(flags)
這里對(duì)各個(gè)做一個(gè)簡單的解釋:
url
:這個(gè)request對(duì)象發(fā)送請(qǐng)求的url。callback
: 在下載器下載相應(yīng)的數(shù)據(jù)后執(zhí)行的回調(diào)函數(shù)。method
:請(qǐng)求的方法,默認(rèn)為GET方法,可以設(shè)置為其他方法。headers
:請(qǐng)求頭,對(duì)于一些固定的設(shè)置,放在settings.py
中指定就可以了, 對(duì)于那些非固定的,可以在發(fā)送請(qǐng)求的時(shí)候指定。body
:請(qǐng)求體,傳入的是請(qǐng)求參數(shù)。meta
:比較常用。用于在不同的請(qǐng)求之間傳遞數(shù)據(jù)用。encoding
:編碼。默認(rèn)為utf-8,使用默認(rèn)的就可以了。dont_filter
: 表示不由調(diào)度器過濾,在執(zhí)行多次重復(fù)的請(qǐng)求的時(shí)候用得比較多。errback
:在發(fā)生錯(cuò)誤的是有執(zhí)行的函數(shù)。
二、發(fā)送POST請(qǐng)求
有時(shí)候我們想要在請(qǐng)求數(shù)據(jù)的時(shí)候發(fā)送post請(qǐng)求,那么這時(shí)候需要使用Request
的子類FormRequest
來實(shí)現(xiàn)。如果想要在爬蟲一開始就發(fā)送POST請(qǐng)求,那么需要在爬蟲類中重寫start_requests(self)
方法,并且不在調(diào)用 start_urls
里的url。
三、Response對(duì)象
Response
對(duì)象一般是由scrapy
給你自動(dòng)構(gòu)建的,因此開發(fā)者不需要關(guān)心如何創(chuàng)建Response
對(duì)象。而是如何使用它。Response
對(duì)象有很多屬性,可以用來提取數(shù)據(jù)的。
主要有以下屬性:
meta
: 從其他請(qǐng)求傳過來的meta屬性,可以用來保持多個(gè)請(qǐng)求之間的數(shù)據(jù)連接。encoding
: 返回字符串編碼和解碼的格式。text
: 將返回來的數(shù)據(jù)作為unicode字符串返回body
: 將返回來的數(shù)據(jù)作為bytes 字符串返回。xpath
:xpath
選擇器css
: css選擇器。
到此這篇關(guān)于python
基礎(chǔ)之scrapy
框架中Request
對(duì)象和Response
對(duì)象的介紹的文章就介紹到這了,更多相關(guān)Request對(duì)象和Response對(duì)象的介紹內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
python3實(shí)現(xiàn)TCP協(xié)議的簡單服務(wù)器和客戶端案例(分享)
下面小編就為大家?guī)硪黄猵ython3實(shí)現(xiàn)TCP協(xié)議的簡單服務(wù)器和客戶端案例(分享)。小編覺得挺不錯(cuò)的,現(xiàn)在就分享給大家,也給大家做個(gè)參考。一起跟隨小編過來看看吧2017-06-06python調(diào)用Moxa PCOMM Lite通過串口Ymodem協(xié)議實(shí)現(xiàn)發(fā)送文件
這篇文章主要介紹了python調(diào)用Moxa PCOMM Lite通過串口Ymodem協(xié)議實(shí)現(xiàn)發(fā)送文件,需要的朋友可以參考下2014-08-08ptyhon實(shí)現(xiàn)sitemap生成示例
這篇文章主要介紹了ptyhon實(shí)現(xiàn)sitemap生成示例,需要的朋友可以參考下2014-03-03scrapy自定義pipeline類實(shí)現(xiàn)將采集數(shù)據(jù)保存到mongodb的方法
這篇文章主要介紹了scrapy自定義pipeline類實(shí)現(xiàn)將采集數(shù)據(jù)保存到mongodb的方法,涉及scrapy采集及操作mongodb數(shù)據(jù)庫的技巧,具有一定參考借鑒價(jià)值,需要的朋友可以參考下2015-04-04Python爬蟲實(shí)現(xiàn)自動(dòng)登錄、簽到功能的代碼
這篇文章主要介紹了Python爬蟲實(shí)現(xiàn)自動(dòng)登錄、簽到功能的代碼,本文通過圖文并茂的形式給大家介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或工作具有一定的參考借鑒價(jià)值,需要的朋友可以參考下2020-08-08