網(wǎng)頁爬蟲之cookie自動獲取及過期自動更新的實現(xiàn)方法
本文實現(xiàn)cookie的自動獲取,及cookie過期自動更新。
社交網(wǎng)站中的很多信息需要登錄才能獲取到,以微博為例,不登錄賬號,只能看到大V的前十條微博。保持登錄狀態(tài),必須要用到Cookie。以登錄www.weibo.cn 為例:
在chrome中輸入:http://login.weibo.cn/login/
分析控制臺的Headers的請求返回,會看到weibo.cn有幾組返回的cookie。
實現(xiàn)步驟:
1,采用selenium自動登錄獲取cookie,保存到文件;
2,讀取cookie,比較cookie的有效期,若過期則再次執(zhí)行步驟1;
3,在請求其他網(wǎng)頁時,填入cookie,實現(xiàn)登錄狀態(tài)的保持。
1,在線獲取cookie
采用selenium + PhantomJS 模擬瀏覽器登錄,獲取cookie;
cookies一般會有多個,逐個將cookie存入以.weibo后綴的文件。
def get_cookie_from_network(): from selenium import webdriver url_login = 'http://login.weibo.cn/login/' driver = webdriver.PhantomJS() driver.get(url_login) driver.find_element_by_xpath('//input[@type="text"]').send_keys('your_weibo_accout') # 改成你的微博賬號 driver.find_element_by_xpath('//input[@type="password"]').send_keys('your_weibo_password') # 改成你的微博密碼 driver.find_element_by_xpath('//input[@type="submit"]').click() # 點擊登錄 # 獲得 cookie信息 cookie_list = driver.get_cookies() print cookie_list cookie_dict = {} for cookie in cookie_list: #寫入文件 f = open(cookie['name']+'.weibo','w') pickle.dump(cookie, f) f.close() if cookie.has_key('name') and cookie.has_key('value'): cookie_dict[cookie['name']] = cookie['value'] return cookie_dict
2,從文件中獲取cookie
從當前目錄中遍歷以.weibo結尾的文件,即cookie文件。采用pickle解包成dict,比較expiry值與當前時間,若過期則返回為空;
def get_cookie_from_cache(): cookie_dict = {} for parent, dirnames, filenames in os.walk('./'): for filename in filenames: if filename.endswith('.weibo'): print filename with open(self.dir_temp + filename, 'r') as f: d = pickle.load(f) if d.has_key('name') and d.has_key('value') and d.has_key('expiry'): expiry_date = int(d['expiry']) if expiry_date > (int)(time.time()): cookie_dict[d['name']] = d['value'] else: return {} return cookie_dict
3,若緩存cookie過期,則再次從網(wǎng)絡獲取cookie
def get_cookie(): cookie_dict = get_cookie_from_cache() if not cookie_dict: cookie_dict = get_cookie_from_network() return cookie_dict
4,帶cookie請求微博其他主頁
def get_weibo_list(self, user_id): import requests from bs4 import BeautifulSoup as bs cookdic = get_cookie() url = 'http://weibo.cn/stocknews88' headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/31.0.1650.57 Safari/537.36'} timeout = 5 r = requests.get(url, headers=headers, cookies=cookdic,timeout=timeout) soup = bs(r.text, 'lxml') ... # 用BeautifulSoup 解析網(wǎng)頁 ...
總結
以上所述是小編給大家介紹的網(wǎng)頁爬蟲之cookie自動獲取及過期自動更新的實現(xiàn)方法,希望對大家有所幫助,如果大家有任何疑問請給我留言,小編會及時回復大家的。在此也非常感謝大家對腳本之家網(wǎng)站的支持!
相關文章
JS實現(xiàn)單張或多張圖片持續(xù)無縫滾動的示例代碼
這篇文章主要介紹了JS實現(xiàn)單張或多張圖片持續(xù)無縫滾動效果,本文通過實例代碼給大家介紹的非常詳細,對大家的學習或工作具有一定的參考借鑒價值,需要的朋友可以參考下2020-05-05