欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

python scrapy腳本報錯問題及解決

 更新時間:2024年02月08日 17:07:58   作者:鄭德帥  
這篇文章主要介紹了python scrapy腳本報錯問題及解決,具有很好的參考價值,希望對大家有所幫助,如有錯誤或未考慮完全的地方,望不吝賜教

python scrapy腳本報錯

原本一個好好的爬蟲腳本,最近運(yùn)行時突然報錯:

報錯代碼

如下:

  File "e:\python3.7.1\lib\site-packages\scrapy\core\downloader\middleware.py", line 43, in process_request
    defer.returnValue((yield download_func(request=request,spider=spider)))
twisted.web._newclient.ResponseNeverReceived: [<twisted.python.failure.Failure twisted.internet.error.ConnectionDone: Connection was closed cleanly.>]

分析報錯

發(fā)送的請求未被接受,鏈接已斷開

百度最終定位到是請求頭的原因:

原本的請求頭的HOST被換了,腳本發(fā)起請求時就被拒了,因此把請求頭修改就好了

解決scrapy需要批量啟動多個腳本問題,scrapy批量運(yùn)行腳本

問題描述

今天遇到在遠(yuǎn)程服務(wù)器上,os 批量啟動時存在啟動不了的情況

問題解決

批量啟動有好多種方式,但是我個人主要用的有兩個,

當(dāng)?shù)谝粋€無法啟動時,測試第二種啟動方式 ,可以正常啟動;

"""
批量啟動
"""
# ------------------- 第一種  ----------------------------------------
import os


os.system("scrapy crawl Nj")
os.system("scrapy crawl Yanc")
os.system("scrapy crawl Hzs")

簡單做個記錄吧。

第二種,是調(diào)用scrapy 系統(tǒng)自帶的方式

為了讓同一個 Scrapy 項目下面的多個爬蟲實現(xiàn)真正的同時運(yùn)行,我們可以使用 Scrapy 的CrawlerProcess。

它的用法如下:

from scrapy.crawler import CrawlerProcess
from scrapy.utils.project import get_project_settings

settings = get_project_settings()

crawler = CrawlerProcess(settings)
crawler.crawl('爬蟲名1')
crawler.crawl('爬蟲名2')
crawler.crawl('爬蟲名3')
crawler.start()

使用這種方法,可以在同一個進(jìn)程里面跑多個爬蟲。

# --------------------  第二種  ------------------------------------

from scrapy.crawler import CrawlerProcess
from scrapy.utils.project import get_project_settings

settings = get_project_settings()

crawler = CrawlerProcess(settings)
crawler.crawl('Nj')
crawler.crawl('Yanc')
crawler.crawl('Hzs')
crawler.start()

兩種方式都可以實現(xiàn),scrapy 多個項目的批量啟動

總結(jié)

以上為個人經(jīng)驗,希望能給大家一個參考,也希望大家多多支持腳本之家。

相關(guān)文章

  • Python列表生成式與生成器操作示例

    Python列表生成式與生成器操作示例

    這篇文章主要介紹了Python列表生成式與生成器操作,結(jié)合實例形式分析了Python列表生成式與生成器的功能、使用方法及相關(guān)操作技巧,需要的朋友可以參考下
    2018-08-08
  • Python 實現(xiàn)刪除某路徑下文件及文件夾的實例講解

    Python 實現(xiàn)刪除某路徑下文件及文件夾的實例講解

    下面小編就為大家分享一篇Python 實現(xiàn)刪除某路徑下文件及文件夾的實例講解,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2018-04-04
  • Python實現(xiàn)判斷一行代碼是否為注釋的方法

    Python實現(xiàn)判斷一行代碼是否為注釋的方法

    今天小編就為大家分享一篇Python實現(xiàn)判斷一行代碼是否為注釋的方法,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2018-05-05
  • keras中的History對象用法

    keras中的History對象用法

    這篇文章主要介紹了keras中的History對象用法,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2020-06-06
  • python?opencv實現(xiàn)影像拼接

    python?opencv實現(xiàn)影像拼接

    這篇文章主要介紹了python?opencv實現(xiàn)影像拼接,主要包括內(nèi)容又垂直影像拼接vconcat和水平影像拼接hconcat以及縱向拼接多個不同圖片,下面詳細(xì)的相關(guān)內(nèi)容,需要的朋友可以參考一下
    2022-03-03
  • Python reversed函數(shù)及使用方法解析

    Python reversed函數(shù)及使用方法解析

    這篇文章主要介紹了Python reversed函數(shù)及使用方法解析,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友可以參考下
    2020-03-03
  • Win下PyInstaller 安裝和使用教程

    Win下PyInstaller 安裝和使用教程

    pyinstaller是一個非常簡單的打包python的py文件的庫,這篇文章主要介紹了PyInstaller-Win安裝和使用教程,本文通過流程實例相結(jié)合給大家介紹的非常詳細(xì),需要的朋友可以參考下
    2019-12-12
  • 布隆過濾器的概述及Python實現(xiàn)方法

    布隆過濾器的概述及Python實現(xiàn)方法

    布隆過濾器是一種概率空間高效的數(shù)據(jù)結(jié)構(gòu)。它與hashmap非常相似,用于檢索一個元素是否在一個集合中。這篇文章主要介紹了布隆過濾器的概述及Python實現(xiàn),需要的朋友可以參考下
    2019-12-12
  • Python給定一個句子倒序輸出單詞以及字母的方法

    Python給定一個句子倒序輸出單詞以及字母的方法

    今天小編就為大家分享一篇Python給定一個句子倒序輸出單詞以及字母的方法,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2018-12-12
  • Python pandas軸旋轉(zhuǎn)stack和unstack的使用說明

    Python pandas軸旋轉(zhuǎn)stack和unstack的使用說明

    這篇文章主要介紹了Python pandas軸旋轉(zhuǎn)stack和unstack的使用說明,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2021-03-03

最新評論