Python爬蟲實例——爬取美團(tuán)美食數(shù)據(jù)
1.分析美團(tuán)美食網(wǎng)頁的url參數(shù)構(gòu)成
1)搜索要點
美團(tuán)美食,地址:北京,搜索關(guān)鍵詞:火鍋
2)爬取的url
https://bj.meituan.com/s/%E7%81%AB%E9%94%85/
3)說明
url會有自動編碼中文功能。所以火鍋二字指的就是這一串我們不認(rèn)識的代碼%E7%81%AB%E9%94%85。
通過關(guān)鍵詞城市的url構(gòu)造,解析當(dāng)前url中的bj=北京,/s/后面跟搜索關(guān)鍵詞。
這樣我們就可以了解到當(dāng)前url的構(gòu)造。
2.分析頁面數(shù)據(jù)來源(F12開發(fā)者工具)
開啟F12開發(fā)者工具,并且刷新當(dāng)前頁面:可以看到切換到第二頁時候,我們的url沒有變化,網(wǎng)站也沒有自動進(jìn)行刷新跳轉(zhuǎn)操作。(web中ajax技術(shù)就是在保證頁面不刷新,url不變化情況下進(jìn)行數(shù)據(jù)加載的技術(shù))

此時我們需要在開發(fā)者工具中,找到xhr里面對應(yīng)當(dāng)前數(shù)據(jù)的響應(yīng)文件。

分析到這里可以得知:我們的數(shù)據(jù)是以json格式交互。分析第二頁的json文件請求地址與第三頁json文件的請求地址。
第二頁:https://apimobile.meituan.com/group/v4/poi/pcsearch/1?uuid=xxx&userid=-1&limit=32&offset=32&cateId=-1&q=%E7%81%AB%E9%94%85
第三頁:https://apimobile.meituan.com/group/v4/poi/pcsearch/1?uuid=xxx&userid=-1&limit=32&offset=64&cateId=-1&q=%E7%81%AB%E9%94%85
對比發(fā)現(xiàn):offse參數(shù)每次翻頁增加32,并且limit參數(shù)是一次請求的數(shù)據(jù)量,offse是數(shù)據(jù)請求的開始元素,q是搜索關(guān)鍵詞poi/pcsearch/1?其中的1是北京城市的id編號。
3.構(gòu)造請求抓取美團(tuán)美食數(shù)據(jù)
接下來直接構(gòu)造請求,循環(huán)訪問每一頁的數(shù)據(jù),最終代碼如下。
import requests
import re
def start():
for w in range(0, 1600, 32):
#頁碼根據(jù)實際情況x32即可,我這里是設(shè)置50頁為上限,為了避免設(shè)置頁碼過高或者數(shù)據(jù)過少情況,定義最大上限為1600-也就是50頁,使用try-except來檢測時候異常,異常跳過該頁,一般作為無數(shù)據(jù)跳過該頁處理
try:
# 注意uuid后面參數(shù)空余將uuid后xxx替換為自己的uuid參數(shù)
url = 'https://apimobile.meituan.com/group/v4/poi/pcsearch/1?uuid=xxx&userid=-1&limit=32&offset='+str(w)+'&cateId=-1&q=%E7%81%AB%E9%94%85'
#headers的數(shù)據(jù)可以在F12開發(fā)者工具下面的requests_headers中查看,需要實現(xiàn)選擇如下headers信息
#必要情況 請求頻繁 建議增加cookie參數(shù)在headers內(nèi)
headers = {
'Accept': '*/*',
'Accept-Encoding': 'gzip, deflate, br',
'Accept-Language': 'zh-CN,zh;q=0.9',
'Connection': 'keep-alive',
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.25 Safari/537.36 Core/1.70.3741.400 QQBrowser/10.5.3863.400',
'Host': 'apimobile.meituan.com',
'Origin': 'https://bj.meituan.com',
'Referer': 'https://bj.meituan.com/s/%E7%81%AB%E9%94%85/'
}
response = requests.get(url, headers=headers)
#正則獲取當(dāng)前響應(yīng)內(nèi)容中的數(shù)據(jù),因json方法無法針對店鋪特有的title鍵值進(jìn)行獲取沒所以采用正則
titles = re.findall('","title":"(.*?)","address":"', response.text)
addresses = re.findall(',"address":"(.*?)",', response.text)
avgprices = re.findall(',"avgprice":(.*?),', response.text)
avgscores = re.findall(',"avgscore":(.*?),',response.text)
comments = re.findall(',"comments":(.*?),',response.text)
#輸出當(dāng)前返回數(shù)據(jù)的長度 是否為32
print(len(titles), len(addresses), len(avgprices), len(avgscores), len(comments))
for o in range(len(titles)):
#循環(huán)遍歷每一個值 寫入文件中
title = titles[o]
address = addresses[o]
avgprice = avgprices[o]
avgscore = avgscores[o]
comment = comments[o]
#寫入本地文件
file_data(title, address, avgprice, avgscore, comment)
#文件寫入方法
def file_data(title, address, avgprice, avgscore, comment):
data = {
'店鋪名稱': title,
'店鋪地址': address,
'平均消費價格': avgprice,
'店鋪評分': avgscore,
'評價人數(shù)': comment
}
with open('美團(tuán)美食.txt', 'a', encoding='utf-8')as fb:
fb.write(json.dumps(data, ensure_ascii=False) + '\n')
#ensure_ascii=False必須加因為json.dumps方法不關(guān)閉轉(zhuǎn)碼會導(dǎo)致出現(xiàn)亂碼情況
if __name__ == '__main__':
start()
運行結(jié)果如下:

本地文件:

4.總結(jié)
根據(jù)搜索詞變化,城市變化,可以改變url中指定的參數(shù)來實現(xiàn)。同時也要記得變更headers中的指定參數(shù),方法簡單,多加練習(xí)即可熟悉ajax類型的數(shù)據(jù)抓取。
以上就是Python爬蟲實例——爬取美團(tuán)美食數(shù)據(jù)的詳細(xì)內(nèi)容,更多關(guān)于Python爬蟲爬取美食數(shù)據(jù)的資料請關(guān)注腳本之家其它相關(guān)文章!
- python實現(xiàn)模擬器爬取抖音評論數(shù)據(jù)的示例代碼
- 基于Python爬取股票數(shù)據(jù)過程詳解
- Python爬取股票信息,并可視化數(shù)據(jù)的示例
- Python爬取數(shù)據(jù)保存為Json格式的代碼示例
- Python如何爬取實時變化的WebSocket數(shù)據(jù)的方法
- 實例講解Python爬取網(wǎng)頁數(shù)據(jù)
- Python3實現(xiàn)的爬蟲爬取數(shù)據(jù)并存入mysql數(shù)據(jù)庫操作示例
- python爬蟲爬取網(wǎng)頁表格數(shù)據(jù)
- Python手拉手教你爬取貝殼房源數(shù)據(jù)的實戰(zhàn)教程
相關(guān)文章
python實現(xiàn)圖像處理之PiL依賴庫的案例應(yīng)用詳解
這篇文章主要介紹了python實現(xiàn)圖像處理之PiL依賴庫的案例應(yīng)用詳解,本篇文章通過簡要的案例,講解了該項技術(shù)的了解與使用,以下就是詳細(xì)內(nèi)容,需要的朋友可以參考下2021-07-07

