欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

深入理解Python分布式爬蟲原理

 更新時(shí)間:2017年11月23日 10:09:58   作者:permike  
本篇文章主要介紹了深入理解Python分布式爬蟲原理,小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,也給大家做個(gè)參考。一起跟隨小編過來看看吧

首先,我們先來看看,如果是人正常的行為,是如何獲取網(wǎng)頁內(nèi)容的。

(1)打開瀏覽器,輸入U(xiǎn)RL,打開源網(wǎng)頁

(2)選取我們想要的內(nèi)容,包括標(biāo)題,作者,摘要,正文等信息

(3)存儲(chǔ)到硬盤中

上面的三個(gè)過程,映射到技術(shù)層面上,其實(shí)就是:網(wǎng)絡(luò)請(qǐng)求,抓取結(jié)構(gòu)化數(shù)據(jù),數(shù)據(jù)存儲(chǔ)。

我們使用Python寫一個(gè)簡單的程序,實(shí)現(xiàn)上面的簡單抓取功能。

#!/usr/bin/python 
#-*- coding: utf-8 -*- 
''''' 
Created on 2014-03-16 
 
@author: Kris 
''' 
import urllib2, re, cookielib 
 
def httpCrawler(url): 
  ''''' 
  @summary: 網(wǎng)頁抓取 
  ''' 
  content = httpRequest(url) 
  title = parseHtml(content) 
  saveData(title) 
 
def httpRequest(url): 
  ''''' 
  @summary: 網(wǎng)絡(luò)請(qǐng)求 
  '''  
  try: 
    ret = None 
    SockFile = None 
    request = urllib2.Request(url) 
    request.add_header('User-Agent', 'Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.2; SV1; .NET CLR 1.1.4322)') 
    request.add_header('Pragma', 'no-cache') 
    opener = urllib2.build_opener() 
    SockFile = opener.open(request) 
    ret = SockFile.read() 
  finally: 
    if SockFile: 
      SockFile.close() 
     
  return ret 
 
def parseHtml(html): 
  ''''' 
  @summary: 抓取結(jié)構(gòu)化數(shù)據(jù) 
  ''' 
  content = None 
  pattern = '<title>([^<]*?)</title>' 
  temp = re.findall(pattern, html) 
  if temp: 
    content = temp[0] 
   
  return content 
   
def saveData(data): 
  ''''' 
  @summary: 數(shù)據(jù)存儲(chǔ) 
  ''' 
  f = open('test', 'wb') 
  f.write(data) 
  f.close() 
   
if __name__ == '__main__': 
  url = 'http://www.baidu.com' 
  httpCrawler(url) 

看著很簡單,是的,它就是一個(gè)爬蟲入門的基礎(chǔ)程序。當(dāng)然,在實(shí)現(xiàn)一個(gè)采集過程,無非就是上面的幾個(gè)基礎(chǔ)步驟。但是實(shí)現(xiàn)一個(gè)強(qiáng)大的采集過程,你會(huì)遇到下面的問題:

(1)需要帶著cookie信息訪問,比如大多數(shù)的社交化軟件,基本上都是需要用戶登錄之后,才能看到有價(jià)值的東西,其實(shí)很簡單,我們可以使用Python提供的cookielib模塊,實(shí)現(xiàn)每次訪問都帶著源網(wǎng)站給的cookie信息去訪問,這樣只要我們成功模擬了登錄,爬蟲處于登錄狀態(tài),那么我們就可以采集到登錄用戶看到的一切信息了。下面是使用cookie對(duì)httpRequest()方法的修改:

ckjar = cookielib.MozillaCookieJar() 
cookies = urllib2.HTTPCookieProcessor(ckjar)     #定義cookies對(duì)象 
def httpRequest(url): 
  ''''' 
  @summary: 網(wǎng)絡(luò)請(qǐng)求 
  '''  
  try: 
    ret = None 
    SockFile = None 
    request = urllib2.Request(url) 
    request.add_header('User-Agent', 'Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.2; SV1; .NET CLR 1.1.4322)') 
    request.add_header('Pragma', 'no-cache') 
    opener = urllib2.build_opener(cookies)    #傳遞cookies對(duì)象 
    SockFile = opener.open(request) 
    ret = SockFile.read() 
  finally: 
    if SockFile: 
      SockFile.close() 
     
  return ret 

(2)編碼問題。網(wǎng)站目前最多的兩種編碼:utf-8,或者gbk,當(dāng)我們采集回來源網(wǎng)站編碼和我們數(shù)據(jù)庫存儲(chǔ)的編碼不一致時(shí),比如,163.com的編碼使用的是gbk,而我們需要存儲(chǔ)的是utf-8編碼的數(shù)據(jù),那么我們可以使用Python中提供的encode()和decode()方法進(jìn)行轉(zhuǎn)換,比如:

content = content.decode('gbk', 'ignore')   #將gbk編碼轉(zhuǎn)為unicode編碼 
content = content.encode('utf-8', 'ignore')  #將unicode編碼轉(zhuǎn)為utf-8編碼 

中間出現(xiàn)了unicode編碼,我們需要轉(zhuǎn)為中間編碼unicode,才能向gbk或者utf-8轉(zhuǎn)換。

(3)網(wǎng)頁中標(biāo)簽不完整,比如有些源代碼中出現(xiàn)了起始標(biāo)簽,但沒有結(jié)束標(biāo)簽,HTML標(biāo)簽不完整,就會(huì)影響我們抓取結(jié)構(gòu)化數(shù)據(jù),我們可以通過Python的BeautifulSoup模塊,先對(duì)源代碼進(jìn)行清洗,再分析獲取內(nèi)容。

(4)某些網(wǎng)站使用JS來生存網(wǎng)頁內(nèi)容。當(dāng)我們直接查看源代碼的時(shí)候,發(fā)現(xiàn)是一堆讓人頭疼的JS代碼??梢允褂胢ozilla、webkit等可以解析瀏覽器的工具包解析js、ajax,雖然速度會(huì)稍微慢點(diǎn)。

(5)圖片是flash形式存在的。當(dāng)圖片中的內(nèi)容是文字或者數(shù)字組成的字符,那這個(gè)就比較好辦,我們只要利用ocr技術(shù),就能實(shí)現(xiàn)自動(dòng)識(shí)別了,但是如果是flash鏈接,我們將整個(gè)URL存儲(chǔ)起來了。

(6)一個(gè)網(wǎng)頁出現(xiàn)多個(gè)網(wǎng)頁結(jié)構(gòu)的情況,這樣我們?nèi)绻皇且惶鬃ト∫?guī)則,那肯定不行,所以需要配置多套模擬進(jìn)行協(xié)助配合抓取。

(7)應(yīng)對(duì)源網(wǎng)站的監(jiān)控。抓取別人的東西,畢竟是不太好的事情,所以一般網(wǎng)站都會(huì)有針對(duì)爬蟲禁止訪問的限制。
一個(gè)好的采集系統(tǒng),應(yīng)該是,不管我們的目標(biāo)數(shù)據(jù)在何處,只要是用戶能夠看到的,我們都能采集回來。所見即所得的無阻攔式采集,無論是否需要登錄的數(shù)據(jù)都能夠順利采集。大部分有價(jià)值的信息,一般都需要登錄才能看到,比如社交網(wǎng)站,為了應(yīng)對(duì)登錄的網(wǎng)站要有模擬用戶登錄的爬蟲系統(tǒng),才能正常獲取數(shù)據(jù)。不過社會(huì)化網(wǎng)站都希望自己形成一個(gè)閉環(huán),不愿意把數(shù)據(jù)放到站外,這種系統(tǒng)也不會(huì)像新聞等內(nèi)容那么開放的讓人獲取。這些社會(huì)化網(wǎng)站大部分會(huì)采取一些限制防止機(jī)器人爬蟲系統(tǒng)爬取數(shù)據(jù),一般一個(gè)賬號(hào)爬取不了多久就會(huì)被檢測出來被禁止訪問了。那是不是我們就不能爬取這些網(wǎng)站的數(shù)據(jù)呢?肯定不是這樣的,只要社會(huì)化網(wǎng)站不關(guān)閉網(wǎng)頁訪問,正常人能夠訪問的數(shù)據(jù),我們也能訪問。說到底就是模擬人的正常行為操作,專業(yè)一點(diǎn)叫“反監(jiān)控”。

源網(wǎng)站一般會(huì)有下面幾種限制:

1、一定時(shí)間內(nèi)單個(gè)IP訪問次數(shù),一個(gè)正常用戶訪問網(wǎng)站,除非是隨意的點(diǎn)著玩,否則不會(huì)在一段持續(xù)時(shí)間內(nèi)過快訪問一個(gè)網(wǎng)站,持續(xù)時(shí)間也不會(huì)太長。這個(gè)問題好辦,我們可以采用大量不規(guī)則代理IP形成一個(gè)代理池,隨機(jī)從代理池中選擇代理,模擬訪問。代理IP有兩種,透明代理和匿名代理。

2、一定時(shí)間內(nèi)單個(gè)賬號(hào)訪問次數(shù),如果一個(gè)人一天24小時(shí)都在訪問一個(gè)數(shù)據(jù)接口,而且速度非常快,那就有可能是機(jī)器人了。我們可以采用大量行為正常的賬號(hào),行為正常就是普通人怎么在社交網(wǎng)站上操作,并且單位時(shí)間內(nèi),訪問URL數(shù)目盡量減少,可以在每次訪問中間間隔一段時(shí)間,這個(gè)時(shí)間間隔可以是一個(gè)隨機(jī)值,即每次訪問完一個(gè)URL,隨機(jī)隨眠一段時(shí)間,再接著訪問下一個(gè)URL。

如果能把賬號(hào)和IP的訪問策略控制好了,基本就沒什么問題了。當(dāng)然對(duì)方網(wǎng)站也會(huì)有運(yùn)維會(huì)調(diào)整策略,敵我雙方的一場較量,爬蟲必須要能感知到對(duì)方的反監(jiān)控將會(huì)對(duì)我們有影響,通知管理員及時(shí)處理。其實(shí)最理想的是能夠通過機(jī)器學(xué)習(xí),智能的實(shí)現(xiàn)反監(jiān)控對(duì)抗,實(shí)現(xiàn)不間斷地抓取。

下面是本人近期正在設(shè)計(jì)的一個(gè)分布式爬蟲架構(gòu)圖,如圖1所示:

純屬拙作,初步思路正在實(shí)現(xiàn),正在搭建服務(wù)器和客戶端之間的通信,主要使用了Python的Socket模塊實(shí)現(xiàn)服務(wù)器端和客戶端的通信。如果有興趣,可以單獨(dú)和我聯(lián)系,共同探討完成更優(yōu)的方案。

以上就是本文的全部內(nèi)容,希望對(duì)大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。

相關(guān)文章

  • python圖片二值化提高識(shí)別率代碼實(shí)例

    python圖片二值化提高識(shí)別率代碼實(shí)例

    這篇文章主要介紹了python圖片二值化提高識(shí)別率代碼實(shí)例,文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下
    2019-08-08
  • 啟動(dòng)Atom并運(yùn)行python文件的步驟

    啟動(dòng)Atom并運(yùn)行python文件的步驟

    在本篇文章中我們給大家分享了啟動(dòng)Atom并運(yùn)行python文件的步驟以及具體做法,需要的朋友們參考下。
    2018-11-11
  • Python根據(jù)URL地址下載文件并保存至對(duì)應(yīng)目錄的實(shí)現(xiàn)

    Python根據(jù)URL地址下載文件并保存至對(duì)應(yīng)目錄的實(shí)現(xiàn)

    這篇文章主要介紹了Python根據(jù)URL地址下載文件并保存至對(duì)應(yīng)目錄的實(shí)現(xiàn),文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧
    2020-11-11
  • 三個(gè)Python常用的數(shù)據(jù)清洗處理方式總結(jié)

    三個(gè)Python常用的數(shù)據(jù)清洗處理方式總結(jié)

    這篇文章主要為大家詳細(xì)介紹了python數(shù)據(jù)處理過程中三個(gè)主要的數(shù)據(jù)清洗說明,分別是缺失值/空格/重復(fù)值的數(shù)據(jù)清洗,感興趣的小伙伴可以了解一下
    2022-12-12
  • 使用python flask框架開發(fā)圖片上傳接口的案例詳解

    使用python flask框架開發(fā)圖片上傳接口的案例詳解

    剛領(lǐng)導(dǎo)安排任務(wù),需求是這樣的開發(fā)一個(gè)支持多格式圖片上傳的接口,并且將圖片壓縮,支持在線預(yù)覽圖片,下面小編分享下使用python flask框架開發(fā)圖片上傳接口的案例詳解,感興趣的朋友一起看看吧
    2022-04-04
  • Python的Twisted框架上手前所必須了解的異步編程思想

    Python的Twisted框架上手前所必須了解的異步編程思想

    Twisted是Python世界中人氣最高的framework之一,異步的工作模式使其名揚(yáng)天下,這里為大家總結(jié)了Python的Twisted框架上手前所必須了解的異步編程思想,需要的朋友可以參考下
    2016-05-05
  • 讓Python更加充分的使用Sqlite3

    讓Python更加充分的使用Sqlite3

    這篇文章主要為大家詳細(xì)介紹了Python更加充分的使用Sqlite3的方法,具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下
    2017-12-12
  • 詳解如何利用tushare、pycharm和excel三者結(jié)合進(jìn)行股票分析

    詳解如何利用tushare、pycharm和excel三者結(jié)合進(jìn)行股票分析

    這篇文章主要介紹了詳解如何利用tushare、pycharm和excel三者結(jié)合進(jìn)行股票分析,文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧
    2021-04-04
  • Python中強(qiáng)大的函數(shù)map?filter?reduce使用詳解

    Python中強(qiáng)大的函數(shù)map?filter?reduce使用詳解

    Python是一門功能豐富的編程語言,提供了許多內(nèi)置函數(shù),以簡化各種編程任務(wù),在Python中,map(),filter()和reduce()是一組非常有用的函數(shù),它們?cè)试S對(duì)可迭代對(duì)象進(jìn)行操作,從而實(shí)現(xiàn)數(shù)據(jù)轉(zhuǎn)換、篩選和累積等操作,本文將詳細(xì)介紹這三個(gè)函數(shù),包括它們的基本用法和示例代碼
    2023-11-11
  • 在Python中處理字符串之ljust()方法的使用簡介

    在Python中處理字符串之ljust()方法的使用簡介

    這篇文章主要介紹了在Python中處理字符串之ljust()方法的使用,是Python學(xué)習(xí)中的基礎(chǔ)知識(shí),需要的朋友可以參考下
    2015-05-05

最新評(píng)論