欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

python爬蟲模塊URL管理器模塊用法解析

 更新時間:2020年02月03日 09:37:19   作者:一起來學(xué)python  
這篇文章主要介紹了python爬蟲模塊URL管理器模塊用法解析,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友可以參考下

這篇文章主要介紹了python爬蟲模塊URL管理器模塊用法解析,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友可以參考下

URL管理器模塊

一般是用來維護(hù)爬取的url和未爬取的url已經(jīng)新添加的url的,如果隊列中已經(jīng)存在了當(dāng)前爬取的url了就不需要再重復(fù)爬取了,另外防止造成一個死循環(huán)。舉個例子

我爬www.baidu.com 其中我抓取的列表中有music.baidu.om,然后我再繼續(xù)抓取該頁面的所有鏈接,但是其中含有www.baidu.com,可以想象如果不做處理的話就成了一個死循環(huán)了,在百度首頁和百度音樂頁循環(huán),所以有一個對列來維護(hù)URL是很重要的。

下面以python代碼實(shí)現(xiàn)為例,使用的deque雙向隊列方便取出以前的url。

from collections import deque
class URLQueue():
  def __init__(self):
    self.queue = deque() # 待抓取的網(wǎng)頁
    self.visited = set() # 已經(jīng)抓取過的網(wǎng)頁
 
  def new_url_size(self):
    '''''
    獲取未爬取URL集合的大小
    :return: 
    '''
    return len(self.queue)
 
  def old_url_size(self):
    '''''
    獲取已爬取URL的大小
    :return: 
    '''
    return len(self.visited)
 
  def has_new_url(self):
    '''''
    判斷是否有未爬取的URL
    :return: 
    '''
    return self.new_url_size() != 0
 
  def get_new_url(self):
    '''''
    獲取一個未爬取的URL
    :return: 
    '''
    new_url = self.queue.popleft()#從左側(cè)取出一個鏈接
    self.old_urls.add(new_url)#記錄已經(jīng)抓取
    return new_url
 
  def add_new_url(self, url):
    '''''
    將新的URL添加到未爬取的URL集合
    :param url: 單個url
    :return: 
    '''
    if url is None:
      return False
    if url not in self.new_urls and url not in self.old_urls:
      self.new_urls.append(url)
 
  def add_new_urls(self, urlset):
    '''''
    將新的URL添加到未爬取的URL集合
    :param urlset: url集合
    :return: 
    '''
    if urlset is None or len(urlset) == 0:
      return
    for url in urlset:
       self.add_new_url(url)

以上就是本文的全部內(nèi)容,希望對大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。

相關(guān)文章

最新評論