欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

Scrapy基于selenium結(jié)合爬取淘寶的實(shí)例講解

 更新時(shí)間:2018年06月13日 10:13:13   作者:CHZZBECK  
今天小編就為大家分享一篇Scrapy基于selenium結(jié)合爬取淘寶的實(shí)例講解,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧

在對(duì)于淘寶,京東這類(lèi)網(wǎng)站爬取數(shù)據(jù)時(shí),通常直接使用發(fā)送請(qǐng)求拿回response數(shù)據(jù),在解析獲取想要的數(shù)據(jù)時(shí)比較難的,因?yàn)閿?shù)據(jù)只有在瀏覽網(wǎng)頁(yè)的時(shí)候才會(huì)動(dòng)態(tài)加載,所以要想爬取淘寶京東上的數(shù)據(jù),可以使用selenium來(lái)進(jìn)行模擬操作

對(duì)于scrapy框架,下載器來(lái)說(shuō)已經(jīng)沒(méi)多大用,因?yàn)楂@取的response源碼里面沒(méi)有想要的數(shù)據(jù),因?yàn)闆](méi)有加載出來(lái),所以要在請(qǐng)求發(fā)給下載中間件的時(shí)候直接使用selenium對(duì)請(qǐng)求解析,獲得完整response直接返回,不經(jīng)過(guò)下載器下載,上代碼

from selenium import webdriver
from selenium.webdriver.chrome.options import Options
import time
from scrapy.http.response.html import HtmlResponse
from scrapy.http.response.text import TextResponse
from selenium.webdriver import ActionChains
 
class TaobaoMiddleware(object):
 
 #處理請(qǐng)求函數(shù)
 def process_request(self,request,spider):
  #聲明一個(gè)Options對(duì)象
  opt = Options()
  #給對(duì)象添加一個(gè)--headless參數(shù),表示無(wú)頭啟動(dòng)
  opt.add_argument('--headless')
  #把配置參數(shù)應(yīng)用到驅(qū)動(dòng)創(chuàng)建的對(duì)象
  driver = webdriver.Chrome(options=opt)
  #打開(kāi)requests中的地址
  driver.get(request.url)
 
  #讓瀏覽器滾動(dòng)到底部
  for x in range(1,11):
   j = x / 10
   js = "document.documentElement.scrollTop = document.documentElement.scrollHeight*%f"%j
   driver.execute_script(js)
   #每次滾動(dòng)等待0.5s
   time.sleep(5)
 
  #獲取下一頁(yè)按鈕的標(biāo)簽
  next_btn =driver.find_element_by_xpath('//span[contains(text(),"下一頁(yè)")]')
  #睡眠0.5秒
  time.sleep(0.5)
  #對(duì)下一頁(yè)標(biāo)簽進(jìn)行鼠標(biāo)右鍵觸發(fā)事件
  ActionChains(driver).context_click(next_btn).click().perform()
  # driver.save_screenshot('截圖.png')
  #把驅(qū)動(dòng)對(duì)象獲得的源碼賦值給新變量
  page_source = driver.page_source
  #退出
  driver.quit()
 
  #根據(jù)網(wǎng)頁(yè)源代碼,創(chuàng)建Htmlresponse對(duì)象
  response = HtmlResponse(url=request.url,body=page_source,encoding='utf-8',request=request)
  #因?yàn)榉祷氐氖俏谋鞠?所以需要指定字符編碼格式
 
  return response
 
 def process_response(self,request,response,spider):
 
  return response
 
 def process_exception(self,request,exception,spider):
  pass

以上這篇Scrapy基于selenium結(jié)合爬取淘寶的實(shí)例講解就是小編分享給大家的全部?jī)?nèi)容了,希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。

相關(guān)文章

最新評(píng)論