Python3實現(xiàn)爬蟲爬取趕集網(wǎng)列表功能【基于request和BeautifulSoup模塊】
本文實例講述了Python3實現(xiàn)爬蟲爬取趕集網(wǎng)列表功能。分享給大家供大家參考,具體如下:
python3爬蟲之爬取趕集網(wǎng)列表。這幾天一直在學習使用python3爬取數(shù)據(jù),今天記錄一下,代碼很簡單很容易上手。
首先需要安裝python3。如果還沒有安裝,可參考本站前面關(guān)于python3安裝與配置相關(guān)文章。
首先需要安裝request和BeautifulSoup兩個模塊
request是Python的HTTP網(wǎng)絡(luò)請求模塊,使用Requests可以輕而易舉的完成瀏覽器可有的任何操作
pip install requests
BeautifulSoup是用Python寫的一個HTML/XML的解析器,它可以很好的處理不規(guī)范標記并生成剖析樹
pip install beautifulsoup4
代碼:
from urllib import request from bs4 import BeautifulSoup #構(gòu)造頭文件,模擬瀏覽器訪問 url="http://xa.ganji.com/meirdjm/o2/" headers = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.77 Safari/537.36'} page = request.Request(url,headers=headers) # 發(fā)送請求,獲取內(nèi)容 page_info = request.urlopen(page).read().decode('utf-8') # 將獲取到的內(nèi)容轉(zhuǎn)換成BeautifulSoup格式,并將html.parser作為解析器 soup = BeautifulSoup(page_info, 'html.parser') # 查找所有a標簽中class='list-info-title' titles = soup.find_all('a',class_="list-info-title") # 打印抓取到的title for title in titles: print(title.string)
結(jié)果:
更多關(guān)于Python相關(guān)內(nèi)容可查看本站專題:《Python Socket編程技巧總結(jié)》、《Python正則表達式用法總結(jié)》、《Python數(shù)據(jù)結(jié)構(gòu)與算法教程》、《Python函數(shù)使用技巧總結(jié)》、《Python字符串操作技巧匯總》、《Python入門與進階經(jīng)典教程》及《Python文件與目錄操作技巧匯總》
希望本文所述對大家Python程序設(shè)計有所幫助。
相關(guān)文章
python+selenium實現(xiàn)自動化百度搜索關(guān)鍵詞
在本篇文章里我們給大家分享了一篇關(guān)于python+selenium實現(xiàn)自動化百度搜索關(guān)鍵詞的實例文章,需要的朋友們可以跟著操作下。2019-06-06基于python實現(xiàn)cdn日志文件導入mysql進行分析
這篇文章主要介紹了基于python實現(xiàn)cdn日志文件導入mysql進行分析,本文以阿里云CDN日志作為輔助查詢數(shù)據(jù)展開主題內(nèi)容,其它云平臺大同小異,需要的小伙伴可以參考一下2022-05-05Python 數(shù)據(jù)的累加與統(tǒng)計的示例代碼
這篇文章主要介紹了Python 數(shù)據(jù)的累加與統(tǒng)計的示例代碼,文中講解非常細致,代碼幫助大家更好的理解和學習,感興趣的朋友可以了解下2020-08-08python實現(xiàn)多線程暴力破解登陸路由器功能代碼分享
這篇文章主要介紹了python實現(xiàn)多線程暴力破解登陸路由器功能代碼分享,本文直接給出實現(xiàn)代碼,需要的朋友可以參考下2015-01-01