對(duì)python抓取需要登錄網(wǎng)站數(shù)據(jù)的方法詳解
scrapy.FormRequest
login.py
class LoginSpider(scrapy.Spider): name = 'login_spider' start_urls = ['http://www.login.com'] def parse(self, response): return [ scrapy.FormRequest.from_response( response, # username和password要根據(jù)實(shí)際頁(yè)面的表單的name字段進(jìn)行修改 formdata={'username': 'your_username', 'password': 'your_password'}, callback=self.after_login)] def after_login(self, response): # 登錄后的代碼 pass
selenium登錄獲取cookie
get_cookie_by_selenium.py
import pickle import time from selenium import webdriver def get_cookies(): url = 'https://www.test.com' web_driver = webdriver.Chrome() web_driver.get(url) username = web_driver.find_element_by_id('login-email') username.send_keys('username') password = web_driver.find_element_by_id('login-password') password.send_keys('password') login_button = web_driver.find_element_by_id('login-submit') login_button.click() time.sleep(3) cookies = web_driver.get_cookies() web_driver.close() return cookies if __name__ == '__main__': cookies = get_cookies() pickle.dump(cookies, open('cookies.pkl', 'wb'))
獲取瀏覽器cookie(以Ubuntu的Firefox為例)
get_cookie_by_firefox.py
import sqlite3 import pickle def get_cookie_by_firefox(): cookie_path = '/home/name/.mozilla/firefox/bqtvfe08.default/cookies.sqlite' with sqlite3.connect(cookie_path) as conn: sql = 'select name,value from moz_cookies where baseDomain="test.com"' cur = conn.cursor() cookies = [{'name': name, 'value': value} for name, value in cur.execute(sql).fetchall()] return cookies if __name__ == '__main__': cookies = get_cookie_from_firefox() pickle.dump(cookies, open('cookies.pkl', 'wb'))
scrapy使用獲取后的cookie
cookies = pickle.load(open('cookies.pkl', 'rb')) yield scrapy.Request(url, cookies=cookies, callback=self.parse)
requests使用獲取后的cookie
cookies = pickle.load(open('cookies.pkl', 'rb')) s = requests.Session() for cookie in cookies: s.cookies.set(cookie['name'], cookie['value'])
selenium使用獲取后的cookie
from selenium import webdriver cookies = pickle.load(open('cookies.pkl', 'rb')) w = webdriver.Chrome() # 直接添加cookie會(huì)報(bào)錯(cuò),下面是一種解決方案,可能有更好的 # -- start -- w.get('http://www.test.com') w.delete_all_cookies() # -- end -- for cookie in cookies: w.add_cookie(cookie)
以上這篇對(duì)python抓取需要登錄網(wǎng)站數(shù)據(jù)的方法詳解就是小編分享給大家的全部?jī)?nèi)容了,希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。
- 用python登錄帶弱圖片驗(yàn)證碼的網(wǎng)站
- python中requests模擬登錄的三種方式(攜帶cookie/session進(jìn)行請(qǐng)求網(wǎng)站)
- python實(shí)現(xiàn)網(wǎng)站微信登錄的示例代碼
- python實(shí)現(xiàn)網(wǎng)站用戶名密碼自動(dòng)登錄功能
- Python實(shí)現(xiàn)爬取需要登錄的網(wǎng)站完整示例
- Python 登錄網(wǎng)站詳解及實(shí)例
- Python3使用requests登錄人人影視網(wǎng)站的方法
- Python爬蟲(chóng)模擬登錄帶驗(yàn)證碼網(wǎng)站
- python實(shí)現(xiàn)網(wǎng)站的模擬登錄
- 使用Python中的cookielib模擬登錄網(wǎng)站
- python 模擬網(wǎng)站登錄——滑塊驗(yàn)證碼的識(shí)別
相關(guān)文章
python 定時(shí)器每天就執(zhí)行一次的實(shí)現(xiàn)代碼
這篇文章主要介紹了python 定時(shí)器每天就執(zhí)行一次的實(shí)現(xiàn)代碼,代碼簡(jiǎn)單易懂非常不錯(cuò),具有一定的參考借鑒價(jià)值,需要的朋友可以參考下2019-08-08Pycharm安裝第三方庫(kù)時(shí)Non-zero exit code錯(cuò)誤解決辦法
這篇文章主要介紹了Pycharm安裝第三方庫(kù)時(shí)Non-zero exit code錯(cuò)誤解決辦法,最好的解決辦法可以通過(guò)“Pycharm”左下角的“Terminal”,在pycharm內(nèi)使用pip安裝,以安裝“requests”為例,需要的朋友可以參考下2023-01-01Python通過(guò)調(diào)用有道翻譯api實(shí)現(xiàn)翻譯功能示例
這篇文章主要介紹了Python通過(guò)調(diào)用有道翻譯api實(shí)現(xiàn)翻譯功能,結(jié)合實(shí)例形式分析了基于Python實(shí)現(xiàn)的有道翻譯api調(diào)用相關(guān)操作技巧,需要的朋友可以參考下2018-07-07python 利用Pyinstaller打包Web項(xiàng)目
這篇文章主要介紹了python 利用Pyinstaller打包Web項(xiàng)目,幫助大家更好的理解和使用python,感興趣的朋友可以了解下2020-10-10