Windows下安裝Scrapy
這幾天正好有需求實(shí)現(xiàn)一個(gè)爬蟲(chóng)程序,想到爬蟲(chóng)程序立馬就想到了python,python相關(guān)的爬蟲(chóng)資料好像也特別多。于是就決定用python來(lái)實(shí)現(xiàn)爬蟲(chóng)程序了,正好發(fā)現(xiàn)了python有一個(gè)開(kāi)源庫(kù)scrapy,正是用來(lái)實(shí)現(xiàn)爬蟲(chóng)框架的,于是果斷采用這個(gè)實(shí)現(xiàn)。下面就先安裝scrapy,決定在windows下面安裝。
Scrapy簡(jiǎn)介
Scrapy,Python開(kāi)發(fā)的一個(gè)快速、高層次的屏幕抓取和web抓取框架,用于抓取web站點(diǎn)并從頁(yè)面中提取結(jié)構(gòu)化的數(shù)據(jù)。
Scrapy用途廣泛,可以用于數(shù)據(jù)挖掘、監(jiān)測(cè)和自動(dòng)化測(cè)試。
Scrapy吸引人的地方在于它是一個(gè)框架,任何人都可以根據(jù)需求方便的修改。它也提供了多種類型爬蟲(chóng)的基類,如BaseSpider、sitemap爬蟲(chóng)等,最新版本又提供了web2.0爬蟲(chóng)的支持。
安裝依賴
- Scrapy安裝依賴于以下幾個(gè)Python庫(kù)
- lxml, an efficient XML and HTML parser
- parsel, an HTML/XML data extraction library written on top of lxml,
- w3lib, a multi-purpose helper for dealing with URLs and web page encodings
- twisted, an asynchronous networking framework
- cryptography and pyOpenSSL, to deal with various network-level security needs
我選擇手動(dòng)安裝這些依賴
- pip install lxml
- pip install parsel
- pip install w3lib
- pip install twisted
- pip install cryptography
- pip install pyOpenSSL
其他的安裝都很順利,就是在安裝twisted
的時(shí)候報(bào)錯(cuò)了。
Microsoft Visual C++ 14.0 is required. Get it with "Microsoft Visual C++ Build Tools": http://landinghub.visualstudio.com/visual-cpp-build-tools
于是下載離線的安裝(下載自己的版本)
https://www.lfd.uci.edu/~gohlke/pythonlibs/#twisted
下載到一個(gè)目錄,然后用
pip install Twisted-17.9.0-cp36-cp36m-win32.whl
之后再用下面的命令安裝就可以了
pip install Scrapy
在命令行中輸入scrapy
,出現(xiàn)如下界面,則表示安裝成功
總結(jié)
以上就是這篇文章的全部?jī)?nèi)容了,希望本文的內(nèi)容對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,謝謝大家對(duì)腳本之家的支持。如果你想了解更多相關(guān)內(nèi)容請(qǐng)查看下面相關(guān)鏈接
- windows10系統(tǒng)中安裝python3.x+scrapy教程
- python使用scrapy發(fā)送post請(qǐng)求的坑
- Python爬蟲(chóng)框架scrapy實(shí)現(xiàn)downloader_middleware設(shè)置proxy代理功能示例
- Python爬蟲(chóng)框架scrapy實(shí)現(xiàn)的文件下載功能示例
- Python爬蟲(chóng)框架Scrapy常用命令總結(jié)
- 詳解Python安裝scrapy的正確姿勢(shì)
- Scrapy基于selenium結(jié)合爬取淘寶的實(shí)例講解
- 利用Anaconda簡(jiǎn)單安裝scrapy框架的方法
- 基于scrapy的redis安裝和配置方法
- mac下給python3安裝requests庫(kù)和scrapy庫(kù)的實(shí)例
- Docker 部署Scrapy的詳解
- 利用scrapy將爬到的數(shù)據(jù)保存到mysql(防止重復(fù))
- Centos7 Python3下安裝scrapy的詳細(xì)步驟
相關(guān)文章
OpenCV搞定騰訊滑塊驗(yàn)證碼的實(shí)現(xiàn)代碼
這篇文章主要介紹了OpenCV搞定騰訊滑塊驗(yàn)證碼,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧2019-05-05Anaconda出現(xiàn)CondaHTTPError: HTTP 000 CONNECTION FAILED for url
使用anaconda創(chuàng)建一個(gè)新的環(huán)境,執(zhí)行“conda create -n scrapyEnv python=3.6”,結(jié)果出現(xiàn)了CondaHTTPError,下面我們就一起來(lái)了解一下解決方法吧2021-05-05pydantic?resolve解決嵌套數(shù)據(jù)結(jié)構(gòu)生成痛點(diǎn)分析
這篇文章主要為大家介紹了pydantic?resolve解決嵌套數(shù)據(jù)結(jié)構(gòu)生成痛點(diǎn)分析,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步,早日升職加薪2023-04-04跟老齊學(xué)Python之通過(guò)Python連接數(shù)據(jù)庫(kù)
現(xiàn)在在做python的時(shí)候需要用到數(shù)據(jù)庫(kù),于是自己重新整理了一下數(shù)據(jù)庫(kù)的知識(shí),并且熟悉了python中MysqlDB模塊的功能和函數(shù)等接口,現(xiàn)在系統(tǒng)地來(lái)總結(jié)一下吧2014-10-10python項(xiàng)目運(yùn)行導(dǎo)致內(nèi)存越來(lái)越大的原因詳析
最近在跑python程序時(shí),出現(xiàn)占用的內(nèi)存不斷增加的情況,下面這篇文章主要給大家介紹了關(guān)于python項(xiàng)目運(yùn)行導(dǎo)致內(nèi)存越來(lái)越大的原因詳析,本文通過(guò)圖文介紹的非常詳細(xì),需要的朋友可以參考下2022-11-11python實(shí)現(xiàn)轉(zhuǎn)圈打印矩陣
這篇文章主要為大家詳細(xì)介紹了python實(shí)現(xiàn)轉(zhuǎn)圈打印矩陣,具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下2019-03-03Python 實(shí)現(xiàn)list,tuple,str和dict之間的相互轉(zhuǎn)換
這篇文章主要介紹了Python 實(shí)現(xiàn)list,tuple,str和dict之間的相互轉(zhuǎn)換,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2021-03-03在Python中關(guān)于中文編碼問(wèn)題的處理建議
這篇文章主要介紹了幾種在Python中關(guān)于中文編碼問(wèn)題的處理方法,包括在使用Unicode編碼時(shí)碰到的異常等,需要的朋友可以參考下2015-04-04一文詳解如何實(shí)現(xiàn)PyTorch模型編譯
這篇文章主要為大家介紹了如何實(shí)現(xiàn)PyTorch?模型編譯詳解,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步,早日升職加薪2023-04-04Python面向?qū)ο蟪绦蛟O(shè)計(jì)之繼承與多繼承用法分析
這篇文章主要介紹了Python面向?qū)ο蟪绦蛟O(shè)計(jì)之繼承與多繼承用法,結(jié)合實(shí)例形式分析了Python繼承與多繼承的簡(jiǎn)單定義與使用方法,需要的朋友可以參考下2018-07-07