scrapy在python爬蟲中搭建出錯的解決方法
在之前文章給大家分享后不久,就有位小伙伴跟小編說在用scrapy搭建python爬蟲中出現(xiàn)錯誤了。一開始的時候小編也沒有看出哪里有問題,好在經(jīng)過不斷地討論與測試,最終解決了出錯點的問題。有同樣出錯的小伙伴可要好好看看到底是哪里疏忽了,小編這里先不說出問題點。
問題描述:
安裝位置:
環(huán)境變量:
解決辦法:
文件命名叫 scrapy.py,明顯和scrapy自己的包名沖突了,這里
class StackOverFlowSpider(scrapy.Spider)
會直接找當(dāng)前文件(scrapy.py)的Spider屬性。
說了這么多,其實就是文件命名問題,所以總結(jié)一下經(jīng)驗教訓(xùn)哦
平時一定不要使用和包名或者build-in 函數(shù)相同的命名。
到此這篇關(guān)于scrapy在python爬蟲中搭建出錯的解決方法的文章就介紹到這了,更多相關(guān)scrapy在python爬蟲中搭建出錯怎么辦內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
實例分析python3實現(xiàn)并發(fā)訪問水平切分表
在本文中小編給大家整理了關(guān)于python3實現(xiàn)并發(fā)訪問水平切分表的相關(guān)知識點以及實例代碼,有興趣的朋友們參考下。2018-09-09Python利用pdfplumber庫提取pdf中表格數(shù)據(jù)
pdfplumber是一個用于從PDF文檔中提取文本和表格數(shù)據(jù)的Python庫,它可以幫助用戶輕松地從PDF文件中提取有用的信息,例如表格、文本、元數(shù)據(jù)等,本文介紹了如何通過Python的pdfplumber庫提取pdf中表格數(shù)據(jù),感興趣的同學(xué)可以參考一下2023-05-05Python抓取聚劃算商品分析頁面獲取商品信息并以XML格式保存到本地
這篇文章主要為大家詳細(xì)介紹了Python抓取聚劃算商品分析頁面獲取商品信息,并以XML格式保存到本地的方法,具有一定的參考價值,感興趣的小伙伴們可以參考一下2018-02-02Django 如何從request中獲取前端數(shù)據(jù)
這篇文章主要介紹了Django從request中獲取前端數(shù)據(jù)的操作,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2021-04-04使用pycallgraph分析python代碼函數(shù)調(diào)用流程以及框架解析
這篇文章主要介紹了使用pycallgraph分析python代碼函數(shù)調(diào)用流程以及框架解析,本文給大家介紹的非常詳細(xì),對大家的學(xué)習(xí)或工作具有一定的參考借鑒價值,需要的朋友可以參考下2021-03-03