欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

Python爬蟲簡單運用爬取代理IP的實現

 更新時間:2020年12月01日 11:41:21   作者:QQ128619  
這篇文章主要介紹了Python爬蟲簡單運用爬取代理IP的實現,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧

功能1: 爬取西拉ip代理官網上的代理ip

環(huán)境:python3.8+pycharm
庫:requests,lxml
瀏覽器:谷歌
IP地址:http://www.xiladaili.com/gaoni/

分析網頁源碼:

在這里插入圖片描述

選中div元素后右鍵找到Copy再深入子菜單找到Copy Xpath點擊一下就復制到XPath

在這里插入圖片描述

我們復制下來的Xpth內容為:/html/body/div/div[3]/div[2]/table/tbody/tr[50]/td[1]
雖然可以查出來ip,但不利于程序自動爬取所有IP,利用谷歌XpathHelp測試一下

在這里插入圖片描述

從上圖可以看出,只匹配到了一個Ip,我們稍作修改,即可達到目的
,有關xpath規(guī)則,可以參考下表;

在這里插入圖片描述

在這里插入圖片描述

在這里插入圖片描述

經過上面的規(guī)則學習后,我們修改為://*[@class=‘mt-0 mb-2 table-responsive']/table/tbody/tr/td[1],再利用xpthhelp工具驗證一下:

在這里插入圖片描述

這樣我們就可以爬取整個頁面的Ip地址了,為了方便爬取更多的IP,我們繼續(xù)往下翻頁,找到翻頁按鈕:

在這里插入圖片描述

找規(guī)律,發(fā)現每翻一頁,a標簽下的href連接地址加1即可,python程序可以利用for循環(huán)解決翻頁問題即可。
為了提高IP代理的質量,我們爬取評分高的IP來使用。找到評分欄下的Xpath路徑,這里不再做詳細介紹,思路參考上面找IP地址的思路,及XPath規(guī)則,過程參考下圖:

在這里插入圖片描述

Python代碼實現

代碼可復制粘貼直接使用,如果出現報錯,修改一下cookie。這里使用代理ip爬取,防止IP被封。當然這里的代碼還是基礎的,有空可以寫成代理池,多任務去爬。當然還可以使用其它思路去實現,這里只做入門介紹。當有了這些代理IP后,我們可以用文件保存,或者保存到數據庫中,根據實際使用情況而定,這里不做保存,只放到列表變量中保存。

import requests
from lxml import etree
import time


class XiLaIp_Spider:

  def __init__(self):
    self.url = 'http://www.xiladaili.com/gaoni/'
    self.headers = {
      'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/83.0.4103.61 Safari/537.36',
      'cookie': 'td_cookie=1539882751; csrftoken=lymOXQp49maLMeKXS1byEMMmsavQPtOCOUwy6WIbfMNazZW80xKKA8RW2Zuo6ssy; Hm_lvt_31dfac66a938040b9bf68ee2294f9fa9=1592547159; Hm_lvt_9bfa8deaeafc6083c5e4683d7892f23d=1592535959,1592539254,1592612217; Hm_lpvt_9bfa8deaeafc6083c5e4683d7892f23d=1592612332',
    }
    self.proxy = '116.196.85.150:3128'
    self.proxies = {
      "http": "http://%(proxy)s/" % {'proxy': self.proxy},
      "https": "http://%(proxy)s/" % {'proxy': self.proxy}
    }
    self.list1 = []

  def get_url(self):
    file = open('Ip_Proxy.txt', 'a', encoding='utf-8')
    ok_file = open('OkIp_Proxy.txt', 'a', encoding='utf-8')
    for index in range(50):
      time.sleep(3)
      try:
        res = requests.get(url=self.url if index == 0 else self.url + str(index) + "/", headers=self.headers,
                  proxies=self.proxies, timeout=10).text
      except:
        continue
      data = etree.HTML(res).xpath("http://*[@class='mt-0 mb-2 table-responsive']/table/tbody/tr/td[1]")
      # '//*[@id="scroll"]/table/tbody/tr/td[1]'
      score_data = etree.HTML(res).xpath("http://*[@class='mt-0 mb-2 table-responsive']/table/tbody/tr/td[8]")
      for i, j in zip(data, score_data):
        # file.write(i.text + '\n')
        score = int(j.text)
        # 追加評分率大于十萬的ip
        if score > 100000:
          self.list1.append(i.text)
      set(self.list1)
    file.close()
    ok_ip = []
    for i in self.list1:
      try:
        # 驗證代理ip是否有效
        res = requests.get(url='https://www.baidu.com', headers=self.headers, proxies={'http': 'http://' + i},
                  timeout=10)
        if res.status_code == 200:
          # ok_file.write(i + '\n')
          ok_ip.append(i)
      except:
        continue
    ok_file.close()
    return ok_ip

  def run(self):
    return self.get_url()


dl = XiLaIp_Spider()
dl.run()

到此這篇關于Python爬蟲簡單運用爬取代理IP的實現的文章就介紹到這了,更多相關Python 爬取代理IP內容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關文章希望大家以后多多支持腳本之家!

相關文章

  • 如何基于opencv實現簡單的數字識別

    如何基于opencv實現簡單的數字識別

    現在很多場景需要使用的數字識別,比如銀行卡識別,以及車牌識別等,在AI領域有很多圖像識別算法,大多是居于opencv 或者谷歌開源的tesseract 識別,下面這篇文章主要給大家介紹了關于如何基于opencv實現簡單的數字識別,需要的朋友可以參考下
    2021-09-09
  • Python如何用字典完成匹配任務

    Python如何用字典完成匹配任務

    在生物信息學領域,經常需要根據基因名稱匹配其對應的編號,本文介紹了一種通過字典進行基因名稱與編號匹配的方法,首先定義一個空列表存儲對應編號,對于字典中不存在的基因名稱,其編號默認為0
    2024-09-09
  • 基于scrapy的redis安裝和配置方法

    基于scrapy的redis安裝和配置方法

    今天小編就為大家分享一篇基于scrapy的redis安裝和配置方法,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2018-06-06
  • Python hashlib加密模塊常用方法解析

    Python hashlib加密模塊常用方法解析

    這篇文章主要介紹了Python hashlib加密模塊常用方法解析,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友可以參考下
    2019-12-12
  • python如何發(fā)送xml格式請求數據

    python如何發(fā)送xml格式請求數據

    這篇文章主要介紹了python如何發(fā)送xml格式請求數據問題,具有很好的參考價值,希望對大家有所幫助,如有錯誤或未考慮完全的地方,望不吝賜教
    2024-06-06
  • Python-基礎-入門 簡介

    Python-基礎-入門 簡介

    這篇文章主要介紹了Python-基礎-簡介入門的相關資料,需要的朋友可以參考下
    2014-08-08
  • 通過Python讀取照片的Exif信息解鎖圖片背后的故事

    通過Python讀取照片的Exif信息解鎖圖片背后的故事

    這篇文章主要為大家介紹了通過Python讀取照片的Exif信息解鎖圖片背后的故事探究,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進步,早日升職加薪
    2023-12-12
  • 在 Python 中如何使用 Re 模塊的正則表達式通配符

    在 Python 中如何使用 Re 模塊的正則表達式通配符

    這篇文章主要介紹了在 Python 中如何使用 Re 模塊的正則表達式通配符,本文詳細解釋了如何在 Python 中使用帶有通配符的 re.sub() 來匹配字符串與正則表達式,需要的朋友可以參考下
    2023-06-06
  • Python管理Windows服務小腳本

    Python管理Windows服務小腳本

    這篇文章主要為大家詳細介紹了Python管理Windows服務的小腳本,具有一定的參考價值,感興趣的小伙伴們可以參考一下
    2018-03-03
  • Python 中的參數傳遞、返回值、淺拷貝、深拷貝

    Python 中的參數傳遞、返回值、淺拷貝、深拷貝

    這篇文章主要介紹了Python 中的參數傳遞、返回值、淺拷貝、深拷貝,非常不錯,具有一定的參考借鑒價值,需要的朋友可以參考下
    2019-06-06

最新評論