欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

Python利用Scrapy框架爬取豆瓣電影示例

 更新時間:2020年01月17日 09:34:20   作者:theVicTory  
這篇文章主要介紹了Python利用Scrapy框架爬取豆瓣電影,結(jié)合實例形式分析了Python使用Scrapy框架爬取豆瓣電影信息的具體操作步驟、實現(xiàn)技巧與相關(guān)注意事項,需要的朋友可以參考下

本文實例講述了Python利用Scrapy框架爬取豆瓣電影。分享給大家供大家參考,具體如下:

1、概念

Scrapy是一個為了爬取網(wǎng)站數(shù)據(jù),提取結(jié)構(gòu)性數(shù)據(jù)而編寫的應(yīng)用框架。 可以應(yīng)用在包括數(shù)據(jù)挖掘,信息處理或存儲歷史數(shù)據(jù)等一系列的程序中。

通過Python包管理工具可以很便捷地對scrapy進行安裝,如果在安裝中報錯提示缺少依賴的包,那就通過pip安裝所缺的包

pip install scrapy

scrapy的組成結(jié)構(gòu)如下圖所示

引擎Scrapy Engine,用于中轉(zhuǎn)調(diào)度其他部分的信號和數(shù)據(jù)傳遞

調(diào)度器Scheduler,一個存儲Request的隊列,引擎將請求的連接發(fā)送給Scheduler,它將請求進行排隊,但引擎需要時再將隊列中的第一個請求發(fā)送給引擎

下載器Downloader,引擎將請求Request鏈接發(fā)送給Downloader之后它就從互聯(lián)網(wǎng)上下載相應(yīng)的數(shù)據(jù),并將返回的數(shù)據(jù)Responses交給引擎

爬蟲Spiders,引擎將下載的Responses數(shù)據(jù)交給Spiders進行解析,提取我們需要的網(wǎng)頁信息。如果在解析中發(fā)現(xiàn)有新的所需要的url連接,Spiders會將鏈接交給引擎存入調(diào)度器

管道Item Pipline,爬蟲會將頁面中的數(shù)據(jù)通過引擎交給管道做進一步處理,進行過濾、存儲等操作

下載中間件Downloader Middlewares,自定義擴展組件,用于在請求頁面時封裝代理、http請求頭等操作

爬蟲中間件Spider Middlewares,用于對進入Spiders的Responses和出去的Requests等數(shù)據(jù)作一些修改

scrapy的工作流程:首先我們將入口url交給spider爬蟲,爬蟲通過引擎將url放入調(diào)度器,經(jīng)調(diào)度器排隊之后返回第一個請求Request,引擎再將請求轉(zhuǎn)交給下載器進行下載,下載好的數(shù)據(jù)交給爬蟲進行爬取,爬取的數(shù)據(jù)一部分是我們需要的數(shù)據(jù)交給管道進行數(shù)據(jù)清洗和存儲,還有一部分是新的url連接會再次交給調(diào)度器,之后再循環(huán)進行數(shù)據(jù)爬取

2、新建Scrapy項目

首先在存放項目的文件夾內(nèi)打開命令行,在命令行下輸入scrapy startproject 項目名稱,就會在當(dāng)前文件夾自動創(chuàng)建項目所需的python文件,例如創(chuàng)建一個爬取豆瓣電影的項目douban,其目錄結(jié)構(gòu)如下:

Db_Project/
  scrapy.cfg        --項目的配置文件
  douban/          --該項目的python模塊目錄,在其中編寫python代碼
    __init__.py      --python包的初始化文件
    items.py       --用于定義item數(shù)據(jù)結(jié)構(gòu)
    pipelines.py     --項目中的pipelines文件
    settings.py      --定義項目的全局設(shè)置,例如下載延遲、并發(fā)量
    spiders/       --存放爬蟲代碼的包目錄
      __init__.py
      ...

之后進入spiders目錄下輸入scrapy genspider 爬蟲名 域名,就會生成爬蟲文件douban.py文件,用于之后定義爬蟲的爬取邏輯和正則表達式等內(nèi)容

scrapy genspider douban movie.douban.com

3、定義數(shù)據(jù)

要爬取的豆瓣電影網(wǎng)址為 https://movie.douban.com/top250,其中的每個電影如下

我們要爬取其中的序號、名稱、介紹、星級、評論數(shù)、描述這幾個關(guān)鍵信息,因此需要在管道文件items.py中先定義這幾個對象,類似于ORM,通過scrapy.Field()方法為每個字段定義一個數(shù)據(jù)類型

import scrapy
 
 
class DoubanItem(scrapy.Item):
  ranking = scrapy.Field()  # 排名
  name = scrapy.Field()  # 電影名
  introduce = scrapy.Field() # 簡介
  star = scrapy.Field()  # 星級
  comments = scrapy.Field()  # 評論數(shù)
  describe = scrapy.Field()  # 描述

4、數(shù)據(jù)爬取

打開之前在spiders文件夾下創(chuàng)建的爬蟲文件movie.py如下所示,以及自動創(chuàng)建了三個變量和一個方法,在parse方法中進行返回數(shù)據(jù)response的處理,我們需要在start_urls提供爬蟲的入口地址。注意爬蟲會自動過濾掉allowed_domains之外的域名,因此需要注意這個變量的賦值

# spiders/movie.py
import scrapy
 
 
class MovieSpider(scrapy.Spider):
  # 爬蟲名
  name = 'movie'
  # 允許爬取的域名
  allowed_domains = ['movie.douban.com']
  # 入口url
  start_urls = ['https://movie.douban.com/top250']
 
  def parse(self, response):
    pass

在進行數(shù)據(jù)爬取之前首先要設(shè)置一些網(wǎng)絡(luò)代理,在settings.py文件內(nèi)找到USER_AGENT變量修改如下:

USER_AGENT = 'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:70.0) Gecko/20100101 Firefox/70.0'

可以在命令行通過如下命令啟動名為douban的爬蟲:scrapy crawl douban,也可以編寫一個啟動文件run.py文件如下,運行即可

from scrapy import cmdline
cmdline.execute('scrapy crawl movie'.split())

接下來要對爬取到的數(shù)據(jù)進行過濾,通過Xpath規(guī)則可以使我們便捷地選中網(wǎng)頁中的指定元素,如下圖所示,每個電影條目都包裹在<ol class="grid_view">下的一個<li>標簽,因此通過xpath://ol[@class='grid_view']/li 就選中了本頁面所有的電影條目。可以通過谷歌瀏覽器的Xpath插件或者火狐瀏覽器的ChroPath獲得xpath值,在瀏覽器右鍵查看元素,彈出如下圖所示的開發(fā)者工具,其中最右邊就是ChroPath插件,它直觀地顯示了元素的Xpath值: //div[@id='wrapper']//li
 

爬蟲response對象的xpath()方法可以直接處理xpath規(guī)則字符串并返回對應(yīng)的頁面內(nèi)容,這些內(nèi)容都是選擇器對象Selector,可以進一步作細化的內(nèi)容選取,通過xpath選擇出其中的電影名字、簡介、評價、星級等內(nèi)容,即之前在items.py文件中所定義的數(shù)據(jù)結(jié)構(gòu)DoubanItem。循環(huán)遍歷每個電影列表從其中爬取到準確的電影信息,并保存為DoubanItem對象item,最后通過yield將item對象從Spiders返回到Item管道。

爬蟲除了從頁面提取Item數(shù)據(jù)之外還會爬取url鏈接從而形成下一頁的Request請求,如下圖所示為豆瓣頁面底部的下一頁信息,第二頁的參數(shù)為"?start=25&filter=",與網(wǎng)站地址https://movie.douban.com/top250拼接起來就可以得到下一頁面的地址。和上面一樣通過xpath提取該內(nèi)容,如果不為空,則拼接得到的Request請求yield提交給調(diào)度器

最終的爬蟲movie.py文件如下

# -*- coding: utf-8 -*-
import scrapy
from items import DoubanItem
 
 
class MovieSpider(scrapy.Spider):
  # 爬蟲名
  name = 'movie'
  # 爬取網(wǎng)站的域名
  allowed_domains = ['movie.douban.com']
  # 入口url
  start_urls = ['https://movie.douban.com/top250']
 
  def parse(self, response):
    # 首先抓取電影列表
    movie_list = response.xpath("http://ol[@class='grid_view']/li")
    for selector in movie_list:
      # 遍歷每個電影列表,從其中精準抓取所需要的信息并保存為item對象
      item = DoubanItem()
      item['ranking'] = selector.xpath(".//div[@class='pic']/em/text()").extract_first()
      item['name'] = selector.xpath(".//span[@class='title']/text()").extract_first()
      text = selector.xpath(".//div[@class='bd']/p[1]/text()").extract()
      intro = ""
      for s in text: # 將簡介放到一個字符串
        intro += "".join(s.split()) # 去掉空格
      item['introduce'] = intro
      item['star'] = selector.css('.rating_num::text').extract_first()
      item['comments'] = selector.xpath(".//div[@class='star']/span[4]/text()").extract_first()
      item['describe'] = selector.xpath(".//span[@class='inq']/text()").extract_first()
      # print(item)
      yield item # 將結(jié)果item對象返回給Item管道
    # 爬取網(wǎng)頁中的下一個頁面url信息
    next_link = response.xpath("http://span[@class='next']/a[1]/@href").extract_first()
    if next_link:
      next_link = "https://movie.douban.com/top250" + next_link
      print(next_link)
      # 將Request請求提交給調(diào)度器
      yield scrapy.Request(next_link, callback=self.parse)

xpath選擇器

/表示從當(dāng)前位置的下一級目錄進行尋找,//表示從當(dāng)前位置的任意一級子目錄進行尋找,

默認從根目錄開始查找,. 代表從當(dāng)前目錄開始查找,@后跟標簽屬性,text()函數(shù)代表取出文字內(nèi)容

//div[@id='wrapper']//li  代表先從根目錄開始查找id為wrapper的div標簽,然后取出其下的所有l(wèi)i標簽

.//div[@class='pic']/em[1]/text()  代表從當(dāng)前選擇器目錄開始查找所有class為pic的div之下的第一個em標簽,取出文字內(nèi)容

string(//div[@id='endText']/p[position()>1]) 代表選取id為endText的div下第二個p標簽之后的所有文字內(nèi)容

/bookstore/book[last()-2] 選取屬于 bookstore 子元素的倒數(shù)第3個 book 元素。

CSS選擇器

還可以使用css選擇器來選擇頁面內(nèi)的元素,其通過CSS偽類的方式表達選擇的元素,使用如下

# 選擇類名為left的div下的p標簽中的文字
response.css('div.left p::text').extract_first()
 
# 選取id為tag的元素下類名為star元素中的文字
response.css('#tag .star::text').extract_first()

5、數(shù)據(jù)保存

在運行爬蟲文件時通過參數(shù)-o指定文件保存的位置即可,可以根據(jù)文件后綴名選擇保存為json或者csv文件,例如

scrapy crawl movie -o data.csv

還可以piplines.py文件中對取得的Item數(shù)據(jù)作進一步操作從而通過python操作將其保存到數(shù)據(jù)庫中

6、中間件設(shè)置

有時為了應(yīng)對網(wǎng)站的反爬蟲機制,需要對下載中間件進行一些偽裝設(shè)置,包括使用IP代理和代理user-agent方式,在middlewares.py文件中新建一個user_agent類用于為請求頭添加用戶列表,從網(wǎng)上查一些常用的用戶代理放入USER_AGENT_LIST列表,然后通過random函數(shù)從中隨機抽取一個作為代理,設(shè)置為reques請求頭的User_Agent字段

class user_agent(object):
  def process_request(self, request, spider):
    # user agent 列表
    USER_AGENT_LIST = [
      'MSIE (MSIE 6.0; X11; Linux; i686) Opera 7.23',
      'Opera/9.20 (Macintosh; Intel Mac OS X; U; en)',
      'Opera/9.0 (Macintosh; PPC Mac OS X; U; en)',
      'iTunes/9.0.3 (Macintosh; U; Intel Mac OS X 10_6_2; en-ca)',
      'Mozilla/4.76 [en_jp] (X11; U; SunOS 5.8 sun4u)',
      'iTunes/4.2 (Macintosh; U; PPC Mac OS X 10.2)',
      'Mozilla/5.0 (Macintosh; Intel Mac OS X 10.6; rv:5.0) Gecko/20100101 Firefox/5.0',
      'Mozilla/5.0 (Macintosh; Intel Mac OS X 10.6; rv:9.0) Gecko/20100101 Firefox/9.0',
      'Mozilla/5.0 (Macintosh; Intel Mac OS X 10.8; rv:16.0) Gecko/20120813 Firefox/16.0',
      'Mozilla/4.77 [en] (X11; I; IRIX;64 6.5 IP30)',
      'Mozilla/4.8 [en] (X11; U; SunOS; 5.7 sun4u)'
    ]
    agent = random.choice(USER_AGENT_LIST) # 從上面列表中隨機抽取一個代理
    request.headers['User_Agent'] = agent # 設(shè)置請求頭的用戶代理

在settings.py文件內(nèi)設(shè)置開啟下載中間件即取消如下幾行的注釋,注冊代理類user_agent并設(shè)置優(yōu)先級,數(shù)字越小優(yōu)先級越高

更多關(guān)于Python相關(guān)內(nèi)容可查看本站專題:《Python Socket編程技巧總結(jié)》、《Python正則表達式用法總結(jié)》、《Python數(shù)據(jù)結(jié)構(gòu)與算法教程》、《Python函數(shù)使用技巧總結(jié)》、《Python字符串操作技巧匯總》、《Python入門與進階經(jīng)典教程》及《Python文件與目錄操作技巧匯總

希望本文所述對大家Python程序設(shè)計有所幫助。

相關(guān)文章

  • python csv一些基本操作總結(jié)

    python csv一些基本操作總結(jié)

    今天給大家?guī)淼氖顷P(guān)于Python的相關(guān)知識,文章圍繞著python csv的一些基本操作展開,文中有非常詳細的介紹及代碼示例,需要的朋友可以參考下
    2021-06-06
  • 使用PyTorch實現(xiàn)限制GPU顯存的可使用上限

    使用PyTorch實現(xiàn)限制GPU顯存的可使用上限

    從?PyTorch?1.4?版本開始,引入了一個新的功能,可以允許用戶為特定的?GPU?設(shè)備設(shè)置進程可使用的顯存上限比例,下面我們就來看看具體實現(xiàn)方法吧
    2024-03-03
  • python爬蟲 基于requests模塊的get請求實現(xiàn)詳解

    python爬蟲 基于requests模塊的get請求實現(xiàn)詳解

    這篇文章主要介紹了python爬蟲 基于requests模塊的get請求實現(xiàn)詳解,文中通過示例代碼介紹的非常詳細,對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友可以參考下
    2019-08-08
  • 利用python實現(xiàn)簡單的循環(huán)購物車功能示例代碼

    利用python實現(xiàn)簡單的循環(huán)購物車功能示例代碼

    購物車對我們每位開發(fā)者來說應(yīng)該都不陌生,下面這篇文章主要給大家介紹了利用python實現(xiàn)簡單的循環(huán)購物車功能的相關(guān)資料,文中給出了詳細的示例代碼供大家參考學(xué)習(xí),需要的朋友們下面來一起看看吧。
    2017-07-07
  • 局域網(wǎng)內(nèi)python socket實現(xiàn)windows與linux間的消息傳送

    局域網(wǎng)內(nèi)python socket實現(xiàn)windows與linux間的消息傳送

    這篇文章主要介紹了局域網(wǎng)內(nèi)python socket實現(xiàn)windows與linux間的消息傳送的相關(guān)知識,非常不錯,具有一定的參考借鑒價值,需要的朋友可以參考下
    2019-04-04
  • Python Socket編程詳細介紹

    Python Socket編程詳細介紹

    這篇文章主要介紹了Python Socket編程詳細介紹,socket可以建立連接,傳遞數(shù)據(jù),具有一定的參考價值,感興趣的小伙伴們可以參考一下。
    2017-03-03
  • Python supervisor強大的進程管理工具的使用

    Python supervisor強大的進程管理工具的使用

    這篇文章主要介紹了Python supervisor強大的進程管理工具的使用,本文主要跟大家分享在類unix操作系統(tǒng)下supervisor的使用以及一些關(guān)于進程的知識,具有一定的參考價值,感興趣的小伙伴們可以參考一下
    2019-04-04
  • 詳解Python中break語句的用法

    詳解Python中break語句的用法

    這篇文章主要介紹了詳解Python中break語句的用法,是Python入門的呼出知識,需要的朋友可以參考下
    2015-05-05
  • Python查找最長不包含重復(fù)字符的子字符串算法示例

    Python查找最長不包含重復(fù)字符的子字符串算法示例

    這篇文章主要介紹了Python查找最長不包含重復(fù)字符的子字符串算法,涉及Python字符串遍歷、統(tǒng)計相關(guān)操作技巧,需要的朋友可以參考下
    2019-02-02
  • Python函數(shù)和模塊的使用總結(jié)

    Python函數(shù)和模塊的使用總結(jié)

    在本文中小編給大家整理了關(guān)于Python函數(shù)和模塊的使用的相關(guān)知識點以及實例代碼內(nèi)容,需要的朋友們跟著學(xué)習(xí)下。
    2019-05-05

最新評論