python使用selenium打開chrome瀏覽器時帶用戶登錄信息實現(xiàn)過程詳解
導讀
我們在使用selenium打開google瀏覽器的時候,默認打開的是一個新的瀏覽器窗口,而且里面不帶有任何的瀏覽器緩存信息。當我們想要爬取某個網(wǎng)站信息或者做某些操作的時候就需要自己再去模擬登陸
selenium操作瀏覽器
這里我們就以CSDN為例,來展示如何讓selenium在打開chrome瀏覽器的時候帶上用戶的登錄信息
打開chrome瀏覽器
from selenium import webdriver from selenium.webdriver import ChromeOptions #設(shè)置操作的網(wǎng)站 web_url = "https://bbs.csdn.net" browser = webdriver.Chrome(executable_path=r"D:\chromedriver_win32\chromedriver\chromedriver.exe") #打開網(wǎng)頁 browser.get(web_url)

運行程序之后,打開瀏覽器的界面如上圖所示,可以看出來默認是沒有帶用戶的登錄信息的
帶用戶登錄信息打開chrome瀏覽器
1.打開帶有用戶信息的chrome窗口
"C:\Program Files (x86)\Google\Chrome\Application\chrome.exe" -remote-debugging-port=9014 --user-data-dir="C:\\Users\\15053\AppData\Local\Google\Chrome\\User Data"
因為安裝chrome的時候是采用的默認安裝路徑,所以路徑就和上面一樣。如果安裝的時候自定義了路徑,就注意修改一下chrome.exe的路徑。
user-data目錄是chrome緩存數(shù)據(jù)的目錄,里面包含了用戶的登錄信息。如果你是在你自己的電腦上使用,需要將15053修改成你自己的用戶名。
注意:在執(zhí)行上面命令的時候建議關(guān)閉chrome瀏覽器,否則后面在執(zhí)行python程序的時候,可能無法連接到chrome。
2.使用selenium打開網(wǎng)站
from selenium import webdriver
from selenium.webdriver import ChromeOptions
web_url = "https://bbs.csdn.net"
#加載cookies中已經(jīng)保存的賬號和密碼
options = ChromeOptions()
options.add_experimental_option("debuggerAddress", "127.0.0.1:9014")
browser = webdriver.Chrome(executable_path=r"D:\chromedriver_win32\chromedriver\chromedriver.exe",
chrome_options=options)
browser.get(web_url)
可以看到,此時打開的網(wǎng)站已經(jīng)自帶了用戶的登錄信息
到此這篇關(guān)于詳解C語言fscanf函數(shù)讀取文件教程及源碼的文章就介紹到這了,更多相關(guān)C語言fscanf讀取文件教程內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
淺析python實現(xiàn)布隆過濾器及Redis中的緩存穿透原理
本文帶你了解了位圖的實現(xiàn),布隆過濾器的原理及 Python 中的使用,以及布隆過濾器如何應對 Redis 中的緩存穿透,相信你對布隆過濾器已經(jīng)有了一定的認識2021-09-09
Python strip lstrip rstrip使用方法
Python中的strip用于去除字符串的首位字符,同理,lstrip用于去除左邊的字符,rstrip用于去除右邊的字符。這三個函數(shù)都可傳入一個參數(shù),指定要去除的首尾字符。2008-09-09
Python數(shù)據(jù)可視化編程通過Matplotlib創(chuàng)建散點圖代碼示例
這篇文章主要介紹了Python數(shù)據(jù)可視化編程通過Matplotlib創(chuàng)建散點圖實例,具有一定借鑒價值,需要的朋友可以參考下。2017-12-12
Scrapy基于Python構(gòu)建強大網(wǎng)絡(luò)爬蟲框架實例探究
這篇文章主要為大家介紹了Scrapy基于Python構(gòu)建強大網(wǎng)絡(luò)爬蟲框架實例探究,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進步,早日升職加薪2024-01-01

