欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

python做反被爬保護(hù)的方法

 更新時間:2019年07月01日 15:54:14   作者:(*-*)浩  
在本文里小編給大家整理了一篇關(guān)于python做反被爬保護(hù)的方法的方法,由此需求的同學(xué)參考學(xué)習(xí)下。

網(wǎng)絡(luò)爬蟲,是一個自動提取網(wǎng)頁的程序,它為搜索引擎從萬維網(wǎng)上下載網(wǎng)頁,是搜索引擎的重要組成。但是當(dāng)網(wǎng)絡(luò)爬蟲被濫用后,互聯(lián)網(wǎng)上就出現(xiàn)太多同質(zhì)的東西,原創(chuàng)得不到保護(hù)。于是,很多網(wǎng)站開始反網(wǎng)絡(luò)爬蟲,想方設(shè)法保護(hù)自己的內(nèi)容。

一: User-Agent +Referer檢測

User-Agent 是HTTP協(xié)議的中的一個字段, 其作用是描述發(fā)出HTTP請求的終端的一些信息。

使得服務(wù)器能夠識別客戶使用的操作系統(tǒng)及版本、CPU 類型、瀏覽器及版本、瀏覽器渲染引擎、瀏覽器語言、瀏覽器插件等。

服務(wù)器通過這個字段就可以知道訪問網(wǎng)站的是什么人。對于不是正常瀏覽器的用戶進(jìn)行屏蔽。

解決方案:

偽裝瀏覽器的User-Agent,因為每個瀏覽器的User-Agent不一樣,并且所有的用戶都能使用瀏覽器。所有每次請求的時候條件瀏覽器的User-Agent,就能解決UA檢測

Referer是header的一部分,當(dāng)瀏覽器向web服務(wù)器發(fā)送請求的時候,一般會帶上Referer,告訴服務(wù)器我是從哪個頁面鏈接過來的。例如有一些圖片網(wǎng)站在你請求圖片的時候,就會檢測你的Referer值,如果Referer不符合,不會返回正常的圖片。

解決方案:

在檢測referer的請求中,攜帶符合的referer值。

二: js混淆和渲染

所謂 JavaScript 混淆,基本就是:

1.去掉一些實際沒有調(diào)用的函數(shù)。

2.將零散的變量聲明合并。

3.邏輯函數(shù)的精簡。

4.變量名的簡化。具體要看不同的壓縮工具的考慮優(yōu)劣。常見的有UglifyJS、JScrambler等工具。

js渲染其實就是對HTML頁面的修改。比如有一些網(wǎng)頁本身沒有返回數(shù)據(jù),數(shù)據(jù)是經(jīng)過js加載之后添加到HTML當(dāng)中的。當(dāng)遇到這種情況的時候,我們要知道爬蟲是不會執(zhí)行JavaScript操作。所以需要用其他的方法處理。

解決方案:

1.通過閱讀網(wǎng)站js源碼,找到關(guān)鍵的代碼,并用python實現(xiàn)。

2.通過閱讀網(wǎng)站js源碼,找到關(guān)鍵的代碼,用PyV8,execjs等庫直接執(zhí)行js代碼。

3.通過selenium庫直接模擬瀏覽器環(huán)境

三:IP限制頻次

WEB系統(tǒng)都是走h(yuǎn)ttp協(xié)議跟WEB容器連通的,每次請求至少會產(chǎn)生一次客戶端與服務(wù)器的tcp連接。

對于服務(wù)端來說可以很清楚的查看到,一個ip地址在單位時間內(nèi)發(fā)起的請求。

當(dāng)請求數(shù)超過一定的值之后,就可判斷為非正常的用戶請求。

解決方案:

1.自行設(shè)計ip代理池,通過輪換的方式,每次請求攜帶不同的代理地址。

2.ADSL動態(tài)撥號他有個獨(dú)有的特點(diǎn),每撥一次號,就獲取一個新的IP。也就是它的IP是不固定的。

四:驗證碼

驗證碼(CAPTCHA)是“Completely Automated PublicTuring test to tell Computers and HumansApart”(全自動區(qū)分計算機(jī)和人類的圖靈測試)的縮寫,是一種區(qū)分用戶是計算機(jī)還是人的公共全自動程序。

可以防止:惡意破解密碼、刷票、論壇灌水,有效防止某個黑客對某一個特定注冊用戶用特定程序暴力破解方式進(jìn)行不斷的登陸嘗試。

這個問題可以由計算機(jī)生成并評判,但是必須只有人類才能解答。由于計算機(jī)無法解答CAPTCHA的問題,所以回答出問題的用戶就可以被認(rèn)為是人類。

解決方案:

1.手動識別驗證碼

2.pytesseract識別簡單的驗證碼

3.對接打碼平臺

4.機(jī)器學(xué)習(xí)

擴(kuò)展知識:

基于反爬的相關(guān)實例代碼:

#! /usr/bin/env python3.4
#-*- coding:utf-8 -*-
#__author__ == "tyomcat"
 
 
import urllib.request
import random
import re
 
url='http://www.whatismyip.com.tw'
iplist=['121.193.143.249:80','112.126.65.193:80','122.96.59.104:82','115.29.98.139:9999','117.131.216.214:80','116.226.243.166:8118','101.81.22.21:8118','122.96.59.107:843']
 
proxy_support = urllib.request.ProxyHandler({'http':random.choice(iplist)})
opener=urllib.request.build_opener(proxy_support)
opener.addheaders=[('User-Agent','Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/49.0.2623.87 Safari/537.36')]
urllib.request.install_opener(opener)
response = urllib.request.urlopen(url)
html = response.read().decode('utf-8')
 
pattern = re.compile('<h1>(.*?)</h1>.*?<h2>(.*?)</h2>')
iterms=re.findall(pattern,html)
for item in iterms:
  print(item[0]+":"+item[1])
#! /usr/bin/env python
# -*- coding:utf-8 -*-
#__author__ == "tyomcat"
 
from selenium import webdriver
import time
import re
 
drive = webdriver.PhantomJS(executable_path='phantomjs-2.1.1-linux-x86_64/bin/phantomjs')
drive.get('https://mm.taobao.com/self/model_info.htm?user_id=189942305&is_coment=false')
 
time.sleep(5)
 
pattern = re.compile(r'<div.*?mm-p-domain-info">.*?class="mm-p-info-cell clearfix">.*?<li>.*?<label>(.*?)</label><span>(.*?)</span>',re.S)
html=drive.page_source.encode('utf-8','ignore')
items=re.findall(pattern,html)
for item in items:
  print item[0],'http:'+item[1]
drive.close()

相關(guān)文章

最新評論