欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

Scrapy框架爬取Boss直聘網(wǎng)Python職位信息的源碼

 更新時(shí)間:2019年02月22日 11:39:53   作者:topleeyap  
今天小編就為大家分享一篇關(guān)于Scrapy框架爬取Boss直聘網(wǎng)Python職位信息的源碼,小編覺(jué)得內(nèi)容挺不錯(cuò)的,現(xiàn)在分享給大家,具有很好的參考價(jià)值,需要的朋友一起跟隨小編來(lái)看看吧

分析

使用CrawlSpider結(jié)合LinkExtractor和Rule爬取網(wǎng)頁(yè)信息

LinkExtractor用于定義鏈接提取規(guī)則,一般使用allow參數(shù)即可

LinkExtractor(allow=(), # 使用正則定義提取規(guī)則
       deny=(), # 排除規(guī)則
       allow_domains=(), # 限定域名范圍
       deny_domains=(), # 排除域名范圍
       restrict_xpaths=(), # 使用xpath定義提取隊(duì)則
       tags=('a', 'area'), 
       attrs=('href',), 
       canonicalize=False,
       unique=True, 
       process_value=None,
       deny_extensions=None, 
       restrict_css=(), # 使用css選擇器定義提取規(guī)則
       strip=True):

Rule用于定義CrawlSpider的爬取規(guī)則,由Spider內(nèi)部自動(dòng)識(shí)別,提交請(qǐng)求、獲取響應(yīng),交給callback指定的回調(diào)方法處理response

如果指定了callback,參數(shù)follow默認(rèn)為False;如果callback為None,follow默認(rèn)為True

Rule(link_extractor, # LinkExtractor對(duì)象,必選參數(shù)
   callback=None, # 回調(diào)方法,可選
   cb_kwargs=None, 
   follow=None, # 是否進(jìn)行深度爬取,True、False
   process_links=None, # 用于處理鏈接(有些反爬策略是返回假的url)
   process_request=identity)

源碼

items.py

class BosszhipinItem(scrapy.Item):
  """Boss直聘Pytho職位爬蟲(chóng)Item"""
  # 職位名稱
  position=scrapy.Field()
  # 公司名稱
  company=scrapy.Field()
  # 薪資
  salary=scrapy.Field()
  # 工作地點(diǎn)
  location=scrapy.Field()
  # 學(xué)歷要求
  education=scrapy.Field()
  # 工作時(shí)間
  year=scrapy.Field()

spiders/bosszhipin_spider.py

# !/usr/bin/env python
# -*- coding:utf-8 -*-
import scrapy
from scrapy.spider import CrawlSpider,Rule
from scrapy.linkextractors import LinkExtractor
from myscrapy.items import BosszhipinItem
class BosszhipinSpider(CrawlSpider):
  """
  Boss直聘Python職位爬蟲(chóng)Spider
    使用CrawlSpider基類實(shí)現(xiàn)
  """
  name = 'bosszhipin'
  allowed_domains=['zhipin.com',]
  start_urls=['http://www.zhipin.com/c100010000/h_100010000/?query=Python&page=1',]
  # 鏈接提取器對(duì)象(規(guī)定鏈接提取規(guī)則)
  link_extractor=LinkExtractor(allow=(r'page=\d+'))
  # 鏈接提取規(guī)則對(duì)象列表
  # 自動(dòng)調(diào)用callback指定的方法,去取爬取由link_extractor指定的鏈接提取規(guī)則匹配到的url
  # 原理:link_extractor.extract_links(response)返回匹配到的鏈接
  rules = [
    Rule(link_extractor=link_extractor,callback='parse_page',follow=True),
  ]
  def parse_page(self,response):
    """定義回調(diào)方法,用于解析每個(gè)response對(duì)象"""
    job_list=response.xpath('//div[@class="job-list"]//li')
    for job in job_list:
      position = job.xpath('.//div[@class="info-primary"]//h3[@class="name"]/a/text()')[0].extract()
      salary =job.xpath('.//div[@class="info-primary"]//h3[@class="name"]//span/text()')[0].extract()
      company =job.xpath('.//div[@class="company-text"]//a/text()')[0].extract()
      location =job.xpath('.//div[@class="info-primary"]/p/text()[1]')[0].extract()
      year =job.xpath('.//div[@class="info-primary"]/p/text()[2]')[0].extract()
      education =job.xpath('.//div[@class="info-primary"]/p/text()[3]')[0].extract()
      item=BosszhipinItem()
      item['position']=position
      item['salary']=salary
      item['company']=company
      item['location']=location
      item['year']=year
      item['education']=education
      yield item

pipelines.py

class BosszhipinPipeline(object):
  """Boss直聘Python職位爬蟲(chóng)Item Pipeline"""
  def __init__(self):
    self.f=open('data/bosszhipin.json',mode='wb')
    self.f.write(b'[')
  def process_item(self,item,spider):
    data=json.dumps(dict(item),ensure_ascii=False,indent=4)
    self.f.write(data.encode('utf-8'))
    self.f.write(b',')
    return item
  def close_spider(self,spider):
    self.f.write(b']')
    self.f.close()

settings.py

ITEM_PIPELINES = {
  'myscrapy.pipelines.BosszhipinPipeline': 1,
}

運(yùn)行結(jié)果

總結(jié)

以上就是這篇文章的全部?jī)?nèi)容了,希望本文的內(nèi)容對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,謝謝大家對(duì)腳本之家的支持。如果你想了解更多相關(guān)內(nèi)容請(qǐng)查看下面相關(guān)鏈接

相關(guān)文章

  • Python hashlib常見(jiàn)摘要算法詳解

    Python hashlib常見(jiàn)摘要算法詳解

    這篇文章主要介紹了Python hashlib常見(jiàn)摘要算法詳解,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下
    2020-01-01
  • Python切圖九宮格的實(shí)現(xiàn)方法

    Python切圖九宮格的實(shí)現(xiàn)方法

    這篇文章主要介紹了Python切圖九宮格的實(shí)現(xiàn)方法,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧
    2019-10-10
  • python flask 多對(duì)多表查詢功能

    python flask 多對(duì)多表查詢功能

    我們?cè)趂lask的學(xué)習(xí)中,會(huì)難免遇到多對(duì)多表的查詢,今天我也遇到了這個(gè)問(wèn)題。下面把我的思路分享到腳本之家平臺(tái),供大家參考
    2017-06-06
  • CentOS安裝pillow報(bào)錯(cuò)的解決方法

    CentOS安裝pillow報(bào)錯(cuò)的解決方法

    本文給大家分享的是作者在centos下為Python安裝pillow的時(shí)候報(bào)錯(cuò)的解決方法,希望對(duì)大家能夠有所幫助。
    2016-01-01
  • Python如何同時(shí)讀寫Excel

    Python如何同時(shí)讀寫Excel

    這篇文章主要介紹了Python如何同時(shí)讀寫Excel問(wèn)題,具有很好的參考價(jià)值,希望對(duì)大家有所幫助,如有錯(cuò)誤或未考慮完全的地方,望不吝賜教
    2023-08-08
  • Python操作MySQL模擬銀行轉(zhuǎn)賬

    Python操作MySQL模擬銀行轉(zhuǎn)賬

    這篇文章主要為大家詳細(xì)介紹了Python操作MySQL模擬銀行轉(zhuǎn)賬,具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下
    2018-03-03
  • python非遞歸全排列實(shí)現(xiàn)方法

    python非遞歸全排列實(shí)現(xiàn)方法

    下面小編就為大家?guī)?lái)一篇python非遞歸全排列實(shí)現(xiàn)方法。小編覺(jué)得挺不錯(cuò)的,現(xiàn)在就分享給大家,也給大家做個(gè)參考。一起跟隨小編過(guò)來(lái)看看吧
    2017-04-04
  • 如何通過(guò)python畫loss曲線的方法

    如何通過(guò)python畫loss曲線的方法

    這篇文章主要介紹了如何通過(guò)python畫loss曲線的方法,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧
    2019-06-06
  • Python列表生成式應(yīng)用方式

    Python列表生成式應(yīng)用方式

    這篇文章主要介紹了Python列表生成式應(yīng)用方式,具有很好的參考價(jià)值,希望對(duì)大家有所幫助,如有錯(cuò)誤或未考慮完全的地方,望不吝賜教
    2024-06-06
  • 在pytorch中實(shí)現(xiàn)只讓指定變量向后傳播梯度

    在pytorch中實(shí)現(xiàn)只讓指定變量向后傳播梯度

    今天小編就為大家分享一篇在pytorch中實(shí)現(xiàn)只讓指定變量向后傳播梯度,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧
    2020-02-02

最新評(píng)論