Python 爬蟲(chóng)實(shí)現(xiàn)增加播客訪問(wèn)量的方法實(shí)現(xiàn)
一、序言:
世界 1024 程序猿節(jié)日不加班,閑著沒(méi)事兒。。。隨手寫(xiě)了個(gè)播客訪問(wèn)量爬蟲(chóng)玩玩,訪問(wèn)量過(guò)萬(wàn)不是事兒?。。∶總€(gè)步驟注釋都很清晰,代碼僅供學(xué)習(xí)參考!
---- Nick.Peng
二、所需環(huán)境:
Python3.x
相關(guān)模塊: requests、json、lxml、urllib、bs4、fake_useragent
三、增加Blog訪問(wèn)量代碼如下:
#!/usr/bin/env python
# -*- coding: utf-8 -*-
# @Author: Nick
# @Date: 2019-10-24 15:40:58
# @Last Modified by: Nick
# @Last Modified time: 2019-10-24 16:54:31
import random
import re
import time
import urllib
import requests
from bs4 import BeautifulSoup
from fake_useragent import UserAgent
try:
from lxml import etree
except Exception as e:
import lxml.html
# 實(shí)例化一個(gè)etree對(duì)象(解決通過(guò)from lxml import etree導(dǎo)包失?。?
etree = lxml.html.etree
# 實(shí)例化UserAgent對(duì)象,用于產(chǎn)生隨機(jī)UserAgent
ua = UserAgent()
class BlogSpider(object):
"""
Increase the number of CSDN blog visits.
"""
def __init__(self):
self.url = "https://blog.csdn.net/PY0312/article/list/{}"
self.headers = {
"Referer": "https://blog.csdn.net/PY0312/",
"User-Agent": ua.random
}
self.firefoxHead = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0"}
self.IPRegular = r"(([1-9]?\d|1\d{2}|2[0-4]\d|25[0-5]).){3}([1-9]?\d|1\d{2}|2[0-4]\d|25[0-5])"
def send_request(self, num):
"""
模擬瀏覽器發(fā)起請(qǐng)求
:param num: num
:return: html_str
"""
html_str = requests.get(self.url.format(
num), headers=self.headers).content.decode()
# print(html_str)
return html_str
def parse_data(self, html_str):
"""
用于解析發(fā)起請(qǐng)求返回的數(shù)據(jù)
:param html_str:
:return: each_page_urls
"""
# 將返回的 html字符串 轉(zhuǎn)換為 element對(duì)象,用于xpath操作
element_obj = etree.HTML(html_str)
# print(element_obj)
# 獲取每一頁(yè)所有blog的url
each_page_urls = element_obj.xpath(
'//*[@id="mainBox"]/main/div[2]/div/h4/a/@href')
# print(each_page_urls)
return each_page_urls
def parseIPList(self, url="http://www.xicidaili.com/"):
"""
爬取最新代理ip,來(lái)源:西刺代理
注意:西刺代理容易被封,如遇到IP被封情況,采用以下兩種方法即可解決:
方法一:請(qǐng)參考我上一篇博客《Python 實(shí)現(xiàn)快代理IP爬蟲(chóng)》 ===> 喜歡研究的同學(xué),可參考對(duì)接此接口
方法二:直接屏蔽掉此接口,不使用代理也能正常使用
:param url: "http://www.xicidaili.com/"
:return: 代理IP列表ips
"""
ips = []
request = urllib.request.Request(url, headers=self.firefoxHead)
response = urllib.request.urlopen(request)
soup = BeautifulSoup(response, "lxml")
tds = soup.find_all("td")
for td in tds:
string = str(td.string)
if re.search(self.IPRegular, string):
ips.append(string)
# print(ips)
return ips
def main(self, total_page, loop_times, each_num):
"""
調(diào)度方法
:param total_page: 設(shè)置博客總頁(yè)數(shù)
:param loop_times: 設(shè)置循環(huán)次數(shù)
:param each_num: 設(shè)置每一頁(yè)要隨機(jī)挑選文章數(shù)
:return:
"""
i = 0
# 根據(jù)設(shè)置次數(shù),打開(kāi)循環(huán)
while i < loop_times:
# 遍歷,得到每一頁(yè)的頁(yè)碼
for j in range(total_page):
# 拼接每一頁(yè)的url,并模擬發(fā)送請(qǐng)求, 返回響應(yīng)數(shù)據(jù)
html_str = self.send_request(j + 1)
# 解析響應(yīng)數(shù)據(jù),得到每一頁(yè)所有博文的url
each_page_urls = self.parse_data(html_str)
# 調(diào)用parseIPList隨機(jī)產(chǎn)生代理IP,防反爬
# ips = self.parseIPList()
# proxies = {"http": "{}:8080".format(
# ips[random.randint(0, 40)])}
# 遍歷,每一頁(yè)隨機(jī)挑選each_num篇文章
for x in range(each_num):
# 隨機(jī)抽取每一頁(yè)的一篇博文進(jìn)行訪問(wèn),防反爬
current_url = random.choice(each_page_urls)
status = True if requests.get(
current_url, headers=self.headers).content.decode() else False
print("當(dāng)前正在訪問(wèn)的文章是:{},訪問(wèn)狀態(tài):{}".format(current_url, status))
time.sleep(1) # 延時(shí)1秒,防反爬
time.sleep(1) # 延時(shí)1秒,防反爬
i += 1
if __name__ == '__main__':
bs = BlogSpider()
bs.main(7, 200, 3) # 參數(shù)參照main方法說(shuō)明,酌情設(shè)置
以上就是本文的全部?jī)?nèi)容,希望對(duì)大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。
相關(guān)文章
解決Django Static內(nèi)容不能加載顯示的問(wèn)題
今天小編就為大家分享一篇解決Django Static內(nèi)容不能加載顯示的問(wèn)題,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2019-07-07
Python?基于Selenium實(shí)現(xiàn)動(dòng)態(tài)網(wǎng)頁(yè)信息的爬取
本文主要介紹了通過(guò)Selenium和webdrive等庫(kù),對(duì)動(dòng)態(tài)網(wǎng)頁(yè)的信息進(jìn)行爬取。文中的示例代碼非常詳細(xì),感興趣的同學(xué)快來(lái)跟隨小編一起學(xué)習(xí)吧2021-12-12
詳解TensorFlow2實(shí)現(xiàn)線性回歸
這篇文章主要介紹了TensorFlow2實(shí)現(xiàn)線性回歸的詳細(xì)解析,本文給大家介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或工作具有一定的參考借鑒價(jià)值,需要的朋友可以參考下2021-09-09
python保留小數(shù)函數(shù)的幾種使用總結(jié)
本文主要介紹了python保留小數(shù)函數(shù)的幾種使用總結(jié),文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧2023-02-02
淺談python 線程池threadpool之實(shí)現(xiàn)
這篇文章主要介紹了淺談python 線程池threadpool之實(shí)現(xiàn),小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,也給大家做個(gè)參考。一起跟隨小編過(guò)來(lái)看看吧2017-11-11
使用并行處理提升python?for循環(huán)速度的過(guò)程
Python?是一門(mén)功能強(qiáng)大的編程語(yǔ)言,但在處理大規(guī)模數(shù)據(jù)或復(fù)雜計(jì)算任務(wù)時(shí),性能可能成為一個(gè)瓶頸,這篇文章主要介紹了使用并行處理提升python?for循環(huán)速度,需要的朋友可以參考下2023-06-06
python3 dict ndarray 存成json,并保留原數(shù)據(jù)精度的實(shí)例
今天小編就為大家分享一篇python3 dict ndarray 存成json,并保留原數(shù)據(jù)精度的實(shí)例,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2019-12-12
django數(shù)據(jù)庫(kù)自動(dòng)重連的方法實(shí)例
這篇文章主要給大家介紹了關(guān)于django數(shù)據(jù)庫(kù)自動(dòng)重連的相關(guān)資料,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家學(xué)習(xí)或者使用django具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面來(lái)一起學(xué)習(xí)學(xué)習(xí)吧2019-07-07

