欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

Python爬蟲實現(xiàn)搭建代理ip池

 更新時間:2022年06月21日 17:06:15   作者:清&輕  
這篇文章主要介紹了Python爬蟲實現(xiàn)搭建代理ip池,文章圍繞主題展開詳細的內容介紹,具有一定的參考價值,需要的小伙伴可以參考一下,希望對你的工作有所幫助

前言

在使用爬蟲的時候,很多網(wǎng)站都有一定的反爬措施,甚至在爬取大量的數(shù)據(jù)或者頻繁地訪問該網(wǎng)站多次時還可能面臨ip被禁,所以這個時候我們通常就可以找一些代理ip來繼續(xù)爬蟲測試。

下面就開始來簡單地介紹一下爬取免費的代理ip來搭建自己的代理ip池:本次爬取免費ip代理的網(wǎng)址:http://www.ip3366.net/free/

提示:以下是本篇文章正文內容,下面案例可供參考

一、User-Agent

在發(fā)送請求的時候,通常都會做一個簡單的反爬。這時可以用fake_useragent模塊來設置一個請求頭,用來進行偽裝成瀏覽器,下面兩種方法都可以。

from fake_useragent import UserAgent
headers = {
        # 'User-Agent': UserAgent().random #常見瀏覽器的請求頭偽裝(如:火狐,谷歌)
        'User-Agent': UserAgent().Chrome #谷歌瀏覽器
    }

在這里插入圖片描述

二、發(fā)送請求

response = requests.get(url='http://www.ip3366.net/free/', headers=request_header())
        # text = response.text.encode('ISO-8859-1')
        # print(text.decode('gbk'))

三、解析數(shù)據(jù)

我們只需要解析出ip、port即可。

在這里插入圖片描述

在這里插入圖片描述

使用xpath解析(個人很喜歡用)(當然還有很多的解析方法,如:正則,css選擇器,BeautifulSoup等等)。

	#使用xpath解析,提取出數(shù)據(jù)ip,端口
        html = etree.HTML(response.text)
        tr_list = html.xpath('/html/body/div[2]/div/div[2]/table/tbody/tr')
        for td in tr_list:
            ip_ = td.xpath('./td[1]/text()')[0] #ip
            port_ = td.xpath('./td[2]/text()')[0]  #端口
            proxy = ip_ + ':' + port_   #115.218.5.5:9000

四、構建ip代理池,檢測ip是否可用

#構建代理ip
	proxy = ip + ':' + port
	proxies = {
        "http": "http://" + proxy,
        "https": "http://" + proxy,
        # "http": proxy,
        # "https": proxy,
    }
    try:
        response = requests.get(url='https://www.baidu.com/',headers=request_header(),proxies=proxies,timeout=1) #設置timeout,使響應等待1s
        response.close()
        if response.status_code == 200:
            print(proxy, '\033[31m可用\033[0m')
        else:
            print(proxy, '不可用')
    except:
        print(proxy,'請求異常')

五、完整代碼

import requests                         #導入模塊
from lxml import etree
from fake_useragent import UserAgent
#簡單的反爬,設置一個請求頭來偽裝成瀏覽器
def request_header():
    headers = {
        # 'User-Agent': UserAgent().random #常見瀏覽器的請求頭偽裝(如:火狐,谷歌)
        'User-Agent': UserAgent().Chrome #谷歌瀏覽器
    }
    return headers
'''
創(chuàng)建兩個列表用來存放代理ip
'''
all_ip_list = []  #用于存放從網(wǎng)站上抓取到的ip
usable_ip_list = [] #用于存放通過檢測ip后是否可以使用

#發(fā)送請求,獲得響應
def send_request():
    #爬取7頁,可自行修改
    for i in range(1,8): 
        print(f'正在抓取第{i}頁……')
        response = requests.get(url=f'http://www.ip3366.net/free/?page={i}', headers=request_header())
        text = response.text.encode('ISO-8859-1')
        # print(text.decode('gbk'))
        #使用xpath解析,提取出數(shù)據(jù)ip,端口
        html = etree.HTML(text)
        tr_list = html.xpath('/html/body/div[2]/div/div[2]/table/tbody/tr')
        for td in tr_list:
            ip_ = td.xpath('./td[1]/text()')[0] #ip
            port_ = td.xpath('./td[2]/text()')[0]  #端口
            proxy = ip_ + ':' + port_   #115.218.5.5:9000
            all_ip_list.append(proxy)
            test_ip(proxy)      #開始檢測獲取到的ip是否可以使用
    print('抓取完成!')
    print(f'抓取到的ip個數(shù)為:{len(all_ip_list)}')
    print(f'可以使用的ip個數(shù)為:{len(usable_ip_list)}')
    print('分別有:\n', usable_ip_list)
#檢測ip是否可以使用
def test_ip(proxy):
    #構建代理ip
    proxies = {
        "http": "http://" + proxy,
        "https": "http://" + proxy,
        # "http": proxy,
        # "https": proxy,
    }
    try:
        response = requests.get(url='https://www.baidu.com/',headers=request_header(),proxies=proxies,timeout=1) #設置timeout,使響應等待1s
        response.close()
        if response.status_code == 200:
            usable_ip_list.append(proxy)
            print(proxy, '\033[31m可用\033[0m')
        else:
            print(proxy, '不可用')
    except:
        print(proxy,'請求異常')
if __name__ == '__main__':
    send_request()

總結

到此這篇關于Python爬蟲實現(xiàn)搭建代理ip池的文章就介紹到這了,更多相關Python代理ip池內容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關文章希望大家以后多多支持腳本之家!

相關文章

  • Python 經典面試題 21 道【不可錯過】

    Python 經典面試題 21 道【不可錯過】

    這篇文章主要介紹了Python 經典面試題 21 道,在python面試過程中這21道是經常被問到了,感興趣的朋友跟隨小編一起看看吧
    2018-09-09
  • Python語言的12個基礎知識點小結

    Python語言的12個基礎知識點小結

    這篇文章主要介紹了Python語言的12個基礎知識點小結,包含正則表達式替換、遍歷目錄方法、列表按列排序、去重、字典排序等,需要的朋友可以參考下
    2014-07-07
  • Python實現(xiàn)自動添加腳本頭信息的示例代碼

    Python實現(xiàn)自動添加腳本頭信息的示例代碼

    這篇文章給大家介紹的一段腳本是自動添加注釋信息的腳本,添加的信息包括腳本名稱、作者和時間等之類的,對于團隊形成統(tǒng)一的編碼規(guī)則很有幫助。有需要的可以參考借鑒。
    2016-09-09
  • Python搭建自己IP代理池的方法實現(xiàn)

    Python搭建自己IP代理池的方法實現(xiàn)

    本文主要介紹了Python搭建自己IP代理池的方法實現(xiàn),文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧
    2023-02-02
  • 使用python+requests+pytest實現(xiàn)接口自動化

    使用python+requests+pytest實現(xiàn)接口自動化

    這篇文章主要介紹了使用python+requests+pytest實現(xiàn)接口自動化,在當前互聯(lián)網(wǎng)產品迭代頻繁的背景下,回歸測試的時間越來越少,但接口自動化測試因其實現(xiàn)簡單、維護成本低,容易提高覆蓋率等特點,越來越受重視,需要的朋友可以參考下
    2023-08-08
  • python3利用Dlib19.7實現(xiàn)人臉68個特征點標定

    python3利用Dlib19.7實現(xiàn)人臉68個特征點標定

    這篇文章主要為大家詳細介紹了python3利用Dlib19.7實現(xiàn)人臉68個特征點標定,具有一定的參考價值,感興趣的小伙伴們可以參考一下
    2018-02-02
  • python中的RSA加密與解密實例解析

    python中的RSA加密與解密實例解析

    這篇文章主要介紹了python中的RSA加密與解密實例解析,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友可以參考下
    2019-11-11
  • Python實現(xiàn)將SQLite中的數(shù)據(jù)直接輸出為CVS的方法示例

    Python實現(xiàn)將SQLite中的數(shù)據(jù)直接輸出為CVS的方法示例

    這篇文章主要介紹了Python實現(xiàn)將SQLite中的數(shù)據(jù)直接輸出為CVS的方法,涉及Python連接、讀取SQLite數(shù)據(jù)庫及轉換CVS格式數(shù)據(jù)的相關操作技巧,需要的朋友可以參考下
    2017-07-07
  • Python實現(xiàn)導彈自動追蹤代碼實例

    Python實現(xiàn)導彈自動追蹤代碼實例

    這篇文章主要介紹了Python實現(xiàn)導彈自動追蹤代碼實例,本文給大家介紹的非常詳細,對大家的學習或工作具有一定的參考借鑒價值,需要的朋友可以參考下
    2022-11-11
  • python?DataFrame中stack()方法、unstack()方法和pivot()方法淺析

    python?DataFrame中stack()方法、unstack()方法和pivot()方法淺析

    這篇文章主要給大家介紹了關于python?DataFrame中stack()方法、unstack()方法和pivot()方法的相關資料,pandas中這三種方法都是用來對表格進行重排的,其中stack()是unstack()的逆操作,需要的朋友可以參考下
    2022-04-04

最新評論