對(duì)python抓取需要登錄網(wǎng)站數(shù)據(jù)的方法詳解
scrapy.FormRequest
login.py
class LoginSpider(scrapy.Spider):
name = 'login_spider'
start_urls = ['http://www.login.com']
def parse(self, response):
return [
scrapy.FormRequest.from_response(
response,
# username和password要根據(jù)實(shí)際頁(yè)面的表單的name字段進(jìn)行修改
formdata={'username': 'your_username', 'password': 'your_password'},
callback=self.after_login)]
def after_login(self, response):
# 登錄后的代碼
pass
selenium登錄獲取cookie
get_cookie_by_selenium.py
import pickle
import time
from selenium import webdriver
def get_cookies():
url = 'https://www.test.com'
web_driver = webdriver.Chrome()
web_driver.get(url)
username = web_driver.find_element_by_id('login-email')
username.send_keys('username')
password = web_driver.find_element_by_id('login-password')
password.send_keys('password')
login_button = web_driver.find_element_by_id('login-submit')
login_button.click()
time.sleep(3)
cookies = web_driver.get_cookies()
web_driver.close()
return cookies
if __name__ == '__main__':
cookies = get_cookies()
pickle.dump(cookies, open('cookies.pkl', 'wb'))
獲取瀏覽器cookie(以Ubuntu的Firefox為例)
get_cookie_by_firefox.py
import sqlite3
import pickle
def get_cookie_by_firefox():
cookie_path = '/home/name/.mozilla/firefox/bqtvfe08.default/cookies.sqlite'
with sqlite3.connect(cookie_path) as conn:
sql = 'select name,value from moz_cookies where baseDomain="test.com"'
cur = conn.cursor()
cookies = [{'name': name, 'value': value} for name, value in cur.execute(sql).fetchall()]
return cookies
if __name__ == '__main__':
cookies = get_cookie_from_firefox()
pickle.dump(cookies, open('cookies.pkl', 'wb'))
scrapy使用獲取后的cookie
cookies = pickle.load(open('cookies.pkl', 'rb'))
yield scrapy.Request(url, cookies=cookies, callback=self.parse)
requests使用獲取后的cookie
cookies = pickle.load(open('cookies.pkl', 'rb'))
s = requests.Session()
for cookie in cookies:
s.cookies.set(cookie['name'], cookie['value'])
selenium使用獲取后的cookie
from selenium import webdriver
cookies = pickle.load(open('cookies.pkl', 'rb'))
w = webdriver.Chrome()
# 直接添加cookie會(huì)報(bào)錯(cuò),下面是一種解決方案,可能有更好的
# -- start --
w.get('http://www.test.com')
w.delete_all_cookies()
# -- end --
for cookie in cookies:
w.add_cookie(cookie)
以上這篇對(duì)python抓取需要登錄網(wǎng)站數(shù)據(jù)的方法詳解就是小編分享給大家的全部?jī)?nèi)容了,希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。
- 用python登錄帶弱圖片驗(yàn)證碼的網(wǎng)站
- python中requests模擬登錄的三種方式(攜帶cookie/session進(jìn)行請(qǐng)求網(wǎng)站)
- python實(shí)現(xiàn)網(wǎng)站微信登錄的示例代碼
- python實(shí)現(xiàn)網(wǎng)站用戶名密碼自動(dòng)登錄功能
- Python實(shí)現(xiàn)爬取需要登錄的網(wǎng)站完整示例
- Python 登錄網(wǎng)站詳解及實(shí)例
- Python3使用requests登錄人人影視網(wǎng)站的方法
- Python爬蟲(chóng)模擬登錄帶驗(yàn)證碼網(wǎng)站
- python實(shí)現(xiàn)網(wǎng)站的模擬登錄
- 使用Python中的cookielib模擬登錄網(wǎng)站
- python 模擬網(wǎng)站登錄——滑塊驗(yàn)證碼的識(shí)別
相關(guān)文章
python 定時(shí)器每天就執(zhí)行一次的實(shí)現(xiàn)代碼
這篇文章主要介紹了python 定時(shí)器每天就執(zhí)行一次的實(shí)現(xiàn)代碼,代碼簡(jiǎn)單易懂非常不錯(cuò),具有一定的參考借鑒價(jià)值,需要的朋友可以參考下2019-08-08
Pycharm安裝第三方庫(kù)時(shí)Non-zero exit code錯(cuò)誤解決辦法
這篇文章主要介紹了Pycharm安裝第三方庫(kù)時(shí)Non-zero exit code錯(cuò)誤解決辦法,最好的解決辦法可以通過(guò)“Pycharm”左下角的“Terminal”,在pycharm內(nèi)使用pip安裝,以安裝“requests”為例,需要的朋友可以參考下2023-01-01
Python通過(guò)調(diào)用有道翻譯api實(shí)現(xiàn)翻譯功能示例
這篇文章主要介紹了Python通過(guò)調(diào)用有道翻譯api實(shí)現(xiàn)翻譯功能,結(jié)合實(shí)例形式分析了基于Python實(shí)現(xiàn)的有道翻譯api調(diào)用相關(guān)操作技巧,需要的朋友可以參考下2018-07-07
python 利用Pyinstaller打包Web項(xiàng)目
這篇文章主要介紹了python 利用Pyinstaller打包Web項(xiàng)目,幫助大家更好的理解和使用python,感興趣的朋友可以了解下2020-10-10

