python scrapy項(xiàng)目下spiders內(nèi)多個(gè)爬蟲同時(shí)運(yùn)行的實(shí)現(xiàn)
一般創(chuàng)建了scrapy文件夾后,可能需要寫多個(gè)爬蟲,如果想讓它們同時(shí)運(yùn)行而不是順次運(yùn)行的話,得怎么做?
a、在spiders目錄的同級目錄下創(chuàng)建一個(gè)commands目錄,并在該目錄中創(chuàng)建一個(gè)crawlall.py,將scrapy源代碼里的commands文件夾里的crawl.py源碼復(fù)制過來,只修改run()方法即可!
import os from scrapy.commands import ScrapyCommand from scrapy.utils.conf import arglist_to_dict from scrapy.utils.python import without_none_values from scrapy.exceptions import UsageError class Command(ScrapyCommand): requires_project = True def syntax(self): return "[options] <spider>" def short_desc(self): return "Run all spider" def add_options(self, parser): ScrapyCommand.add_options(self, parser) parser.add_option("-a", dest="spargs", action="append", default=[], metavar="NAME=VALUE", help="set spider argument (may be repeated)") parser.add_option("-o", "--output", metavar="FILE", help="dump scraped items into FILE (use - for stdout)") parser.add_option("-t", "--output-format", metavar="FORMAT", help="format to use for dumping items with -o") def process_options(self, args, opts): ScrapyCommand.process_options(self, args, opts) try: opts.spargs = arglist_to_dict(opts.spargs) except ValueError: raise UsageError("Invalid -a value, use -a NAME=VALUE", print_help=False) if opts.output: if opts.output == '-': self.settings.set('FEED_URI', 'stdout:', priority='cmdline') else: self.settings.set('FEED_URI', opts.output, priority='cmdline') feed_exporters = without_none_values( self.settings.getwithbase('FEED_EXPORTERS')) valid_output_formats = feed_exporters.keys() if not opts.output_format: opts.output_format = os.path.splitext(opts.output)[1].replace(".", "") if opts.output_format not in valid_output_formats: raise UsageError("Unrecognized output format '%s', set one" " using the '-t' switch or as a file extension" " from the supported list %s" % (opts.output_format, tuple(valid_output_formats))) self.settings.set('FEED_FORMAT', opts.output_format, priority='cmdline') def run(self, args, opts): #獲取爬蟲列表 spd_loader_list=self.crawler_process.spider_loader.list()#獲取所有的爬蟲文件。 print(spd_loader_list) #遍歷各爬蟲 for spname in spd_loader_list or args: self.crawler_process.crawl(spname, **opts.spargs) print ('此時(shí)啟動的爬蟲為:'+spname) self.crawler_process.start()
b、還得在里面加個(gè)_init_.py文件
c、到這里還沒完,settings.py配置文件還需要加一條。
COMMANDS_MODULE = ‘項(xiàng)目名稱.目錄名稱'
COMMANDS_MODULE = 'ds1.commands'
d、最后啟動crawlall即可!
當(dāng)然,安全起見,可以先在命令行中進(jìn)入該項(xiàng)目所在目錄,并輸入scrapy -h,可以查看是否有命令crawlall 。如果有,那就成功了,可以啟動了
我是寫了個(gè)啟動文件,放在第一級即可
要不直接在命令臺cmd里輸入 scrapy crawlall 就行了
##注意的是,爬蟲好像是2個(gè)同時(shí)運(yùn)行,而且運(yùn)行時(shí)是交叉的?
還有settings里的文件,只針對其中一個(gè)?
到此這篇關(guān)于python scrapy項(xiàng)目下spiders內(nèi)多個(gè)爬蟲同時(shí)運(yùn)行的文章就介紹到這了,更多相關(guān)python scrapy項(xiàng)目下spiders內(nèi)多個(gè)爬蟲同時(shí)運(yùn)行內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
- python scrapy拆解查看Spider類爬取優(yōu)設(shè)網(wǎng)極細(xì)講解
- Python如何獲取pid和進(jìn)程名字
- Python中rapidjson參數(shù)校驗(yàn)實(shí)現(xiàn)
- Python爬蟲框架之Scrapy中Spider的用法
- python爬蟲scrapy基于CrawlSpider類的全站數(shù)據(jù)爬取示例解析
- Python中Pyspider爬蟲框架的基本使用詳解
- Python爬蟲Scrapy框架CrawlSpider原理及使用案例
- Python爬蟲之Spider類用法簡單介紹
- PID原理與python的簡單實(shí)現(xiàn)和調(diào)參
相關(guān)文章
為TextBox裝飾水印與(blur和focus)事件應(yīng)用
為了界面的美觀,有些時(shí)候可能需要為文本框(TextBox)裝飾個(gè)水??;它有兩種狀態(tài),一是blur和focus。因此,我們可以在Javascript寫兩個(gè)事件,感興趣的朋友可以了解下2013-01-01WPF自定義Expander控件樣式實(shí)現(xiàn)酷炫Style
這篇文章介紹了WPF自定義Expander控件樣式實(shí)現(xiàn)酷炫Style的方法,文中通過示例代碼介紹的非常詳細(xì)。對大家的學(xué)習(xí)或工作具有一定的參考借鑒價(jià)值,需要的朋友可以參考下2022-01-01ASP.NET 統(tǒng)計(jì)圖表控件小結(jié)
近來客戶需要將前段時(shí)間開發(fā)的統(tǒng)計(jì)信息用圖表展示出來,還要多個(gè)圖表類型,例如:柱狀圖、餅圖、曲線圖、三維圖等等。在網(wǎng)上google了一下,發(fā)現(xiàn)了三個(gè)(也許更多)可以使用的控件。下面我們一起看看這三個(gè)控件。2009-11-11ASP.NET Core實(shí)現(xiàn)自定義WebApi模型驗(yàn)證詳解
這篇文章主要給大家介紹了關(guān)于ASP.NET Core實(shí)現(xiàn)自定義WebApi模型驗(yàn)證的相關(guān)資料,文中通過示例代碼介紹的非常詳細(xì),對大家學(xué)習(xí)或者使用ASP.NET Core具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面來一起學(xué)習(xí)學(xué)習(xí)吧2019-08-08