Python實現(xiàn)在線程里運行scrapy的方法
本文實例講述了Python實現(xiàn)在線程里運行scrapy的方法。分享給大家供大家參考。具體如下:
如果你希望在一個寫好的程序里調(diào)用scrapy,就可以通過下面的代碼,讓scrapy運行在一個線程里。
""" Code to run Scrapy crawler in a thread - works on Scrapy 0.8 """ import threading, Queue from twisted.internet import reactor from scrapy.xlib.pydispatch import dispatcher from scrapy.core.manager import scrapymanager from scrapy.core.engine import scrapyengine from scrapy.core import signals class CrawlerThread(threading.Thread): def __init__(self): threading.Thread.__init__(self) self.running = False def run(self): self.running = True scrapymanager.configure(control_reactor=False) scrapymanager.start() reactor.run(installSignalHandlers=False) def crawl(self, *args): if not self.running: raise RuntimeError("CrawlerThread not running") self._call_and_block_until_signal(signals.spider_closed, \ scrapymanager.crawl, *args) def stop(self): reactor.callFromThread(scrapyengine.stop) def _call_and_block_until_signal(self, signal, f, *a, **kw): q = Queue.Queue() def unblock(): q.put(None) dispatcher.connect(unblock, signal=signal) reactor.callFromThread(f, *a, **kw) q.get() # Usage example below: import os os.environ.setdefault('SCRAPY_SETTINGS_MODULE', 'myproject.settings') from scrapy.xlib.pydispatch import dispatcher from scrapy.core import signals from scrapy.conf import settings from scrapy.crawler import CrawlerThread settings.overrides['LOG_ENABLED'] = False # avoid log noise def item_passed(item): print "Just scraped item:", item dispatcher.connect(item_passed, signal=signals.item_passed) crawler = CrawlerThread() print "Starting crawler thread..." crawler.start() print "Crawling somedomain.com...." crawler.crawl('somedomain.com) # blocking call print "Crawling anotherdomain.com..." crawler.crawl('anotherdomain.com') # blocking call print "Stopping crawler thread..." crawler.stop()
希望本文所述對大家的Python程序設(shè)計有所幫助。
- 實踐Python的爬蟲框架Scrapy來抓取豆瓣電影TOP250
- 使用Python的Scrapy框架編寫web爬蟲的簡單示例
- Python基于scrapy采集數(shù)據(jù)時使用代理服務(wù)器的方法
- Python使用scrapy采集數(shù)據(jù)時為每個請求隨機分配user-agent的方法
- Python使用scrapy采集數(shù)據(jù)過程中放回下載過大頁面的方法
- Python使用scrapy采集時偽裝成HTTP/1.1的方法
- Python打印scrapy蜘蛛抓取樹結(jié)構(gòu)的方法
- Python使用scrapy抓取網(wǎng)站sitemap信息的方法
- Python自定義scrapy中間模塊避免重復(fù)采集的方法
- 深入剖析Python的爬蟲框架Scrapy的結(jié)構(gòu)與運作流程
相關(guān)文章
在Debian下配置Python+Django+Nginx+uWSGI+MySQL的教程
這篇文章主要介紹了在Debian下配置Python+Django+Nginx+uWSGI+MySQL的教程,Debian系統(tǒng)和Nginx服務(wù)器皆是高性能的選擇,需要的朋友可以參考下2015-04-04解決django中form表單設(shè)置action后無法回到原頁面的問題
這篇文章主要介紹了解決django中form表單設(shè)置action后無法回到原頁面的問題,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2020-03-03python opencv把一張圖片嵌入(疊加)到另一張圖片上的實現(xiàn)代碼
這篇文章主要介紹了python opencv把一張圖片嵌入(疊加)到另一張圖片上,本文通過實例代碼給大家介紹的非常詳細,對大家的學(xué)習(xí)或工作具有一定的參考借鑒價值,需要的朋友可以參考下2020-06-06python正則表達式函數(shù)match()和search()的區(qū)別
match()和search()都是python中的正則匹配函數(shù),那這兩個函數(shù)有何區(qū)別呢?本文詳細介紹了這2個函數(shù)的區(qū)別2021-10-10在CentOS 7中使用Python 3執(zhí)行系統(tǒng)命令的詳細教程
使用os.system()這個方法簡單直接,但它不返回命令的輸出,只返回命令的退出狀態(tài),如果你只需要知道命令是否成功執(zhí)行,這個方法就足夠了,這篇文章主要介紹了在CentOS 7中使用Python 3執(zhí)行系統(tǒng)命令的詳細教程,需要的朋友可以參考下2024-02-02