Python多線程爬取豆瓣影評(píng)API接口
爬蟲庫
使用簡(jiǎn)單的requests庫,這是一個(gè)阻塞的庫,速度比較慢。
解析使用XPATH表達(dá)式
總體采用類的形式
多線程
使用concurrent.future并發(fā)模塊,建立線程池,把future對(duì)象扔進(jìn)去執(zhí)行即可實(shí)現(xiàn)并發(fā)爬取效果
數(shù)據(jù)存儲(chǔ)
使用Python ORM sqlalchemy保存到數(shù)據(jù)庫,也可以使用自帶的csv模塊存在CSV中。
API接口
因?yàn)锳PI接口存在數(shù)據(jù)保護(hù)情況,一個(gè)電影的每一個(gè)分類只能抓取前25頁,全部評(píng)論、好評(píng)、中評(píng)、差評(píng)所有分類能爬100頁,每頁有20個(gè)數(shù)據(jù),即最多為兩千條數(shù)據(jù)。
因?yàn)闀r(shí)效性原因,不保證代碼能爬到數(shù)據(jù),只是給大家一個(gè)參考思路,上代碼:
from datetime import datetime
import random
import csv
from concurrent.futures import ThreadPoolExecutor, as_completed
from lxml import etree
import pymysql
import requests
from models import create_session, Comments
#隨機(jī)UA
USERAGENT = [
'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/535.1 (KHTML, like Gecko) Chrome/14.0.835.163 Safari/535.1',
'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.103 Safari/537.36',
'Mozilla/5.0 (Windows NT 6.1; WOW64; rv:6.0) Gecko/20100101 Firefox/6.0',
'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/534.50 (KHTML, like Gecko) Version/5.1 Safari/534.50',
'Opera/9.80 (Windows NT 6.1; U; zh-cn) Presto/2.9.168 Version/11.50',
'Mozilla/5.0 (Windows; U; Windows NT 6.1; ) AppleWebKit/534.12 (KHTML, like Gecko) Maxthon/3.0 Safari/534.12'
]
class CommentFetcher:
headers = {'User-Agent': ''}
cookie = ''
cookies = {'cookie': cookie}
# cookie為登錄后的cookie,需要自行復(fù)制
base_node = '//div[@class="comment-item"]'
def __init__(self, movie_id, start, type=''):
'''
:type: 全部評(píng)論:'', 好評(píng):h 中評(píng):m 差評(píng):l
:movie_id: 影片的ID號(hào)
:start: 開始的記錄數(shù),0-480
'''
self.movie_id = movie_id
self.start = start
self.type = type
self.url = 'https://movie.douban.com/subject/{id}/comments?start={start}&limit=20&sort=new_score\&status=P&percent_type={type}&comments_only=1'.format(
id=str(self.movie_id),
start=str(self.start),
type=self.type
)
#創(chuàng)建數(shù)據(jù)庫連接
self.session = create_session()
#隨機(jī)useragent
def _random_UA(self):
self.headers['User-Agent'] = random.choice(USERAGENT)
#獲取api接口,使用get方法,返回的數(shù)據(jù)為json數(shù)據(jù),需要提取里面的HTML
def _get(self):
self._random_UA()
res = ''
try:
res = requests.get(self.url, cookies=self.cookies, headers=self.headers)
res = res.json()['html']
except Exception as e:
print('IP被封,請(qǐng)使用代理IP')
print('正在獲取{} 開始的記錄'.format(self.start))
return res
def _parse(self):
res = self._get()
dom = etree.HTML(res)
#id號(hào)
self.id = dom.xpath(self.base_node + '/@data-cid')
#用戶名
self.username = dom.xpath(self.base_node + '/div[@class="avatar"]/a/@title')
#用戶連接
self.user_center = dom.xpath(self.base_node + '/div[@class="avatar"]/a/@href')
#點(diǎn)贊數(shù)
self.vote = dom.xpath(self.base_node + '//span[@class="votes"]/text()')
#星級(jí)
self.star = dom.xpath(self.base_node + '//span[contains(@class,"rating")]/@title')
#發(fā)表時(shí)間
self.time = dom.xpath(self.base_node + '//span[@class="comment-time "]/@title')
#評(píng)論內(nèi)容 所有span標(biāo)簽class名為short的節(jié)點(diǎn)文本
self.content = dom.xpath(self.base_node + '//span[@class="short"]/text()')
#保存到數(shù)據(jù)庫
def save_to_database(self):
self._parse()
for i in range(len(self.id)):
try:
comment = Comments(
id=int(self.id[i]),
username=self.username[i],
user_center=self.user_center[i],
vote=int(self.vote[i]),
star=self.star[i],
time=datetime.strptime(self.time[i], '%Y-%m-%d %H:%M:%S'),
content=self.content[i]
)
self.session.add(comment)
self.session.commit()
return 'finish'
except pymysql.err.IntegrityError as e:
print('數(shù)據(jù)重復(fù),不做任何處理')
except Exception as e:
#數(shù)據(jù)添加錯(cuò)誤,回滾
self.session.rollback()
finally:
#關(guān)閉數(shù)據(jù)庫連接
self.session.close()
#保存到csv
def save_to_csv(self):
self._parse()
f = open('comment.csv', 'w', encoding='utf-8')
csv_in = csv.writer(f, dialect='excel')
for i in range(len(self.id)):
csv_in.writerow([
int(self.id[i]),
self.username[i],
self.user_center[i],
int(self.vote[i]),
self.time[i],
self.content[i]
])
f.close()
if __name__ == '__main__':
with ThreadPoolExecutor(max_workers=4) as executor:
futures = []
for i in ['', 'h', 'm', 'l']:
for j in range(25):
fetcher = CommentFetcher(movie_id=26266893, start=j * 20, type=i)
futures.append(executor.submit(fetcher.save_to_csv))
for f in as_completed(futures):
try:
res = f.done()
if res:
ret_data = f.result()
if ret_data == 'finish':
print('{} 成功保存數(shù)據(jù)'.format(str(f)))
except Exception as e:
f.cancel()
以上就是本文的全部?jī)?nèi)容,希望對(duì)大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。
- Python爬取英雄聯(lián)盟MSI直播間彈幕并生成詞云圖
- Python通過文本和圖片生成詞云圖
- 基于python生成英文版詞云圖代碼實(shí)例
- Python實(shí)現(xiàn)Wordcloud生成詞云圖的示例
- python根據(jù)文本生成詞云圖代碼實(shí)例
- 利用Python爬取微博數(shù)據(jù)生成詞云圖片實(shí)例代碼
- Python采集貓眼兩萬條數(shù)據(jù) 對(duì)《無名之輩》影評(píng)進(jìn)行分析
- 使用Python抓取豆瓣影評(píng)數(shù)據(jù)的方法
- Python爬蟲實(shí)戰(zhàn):分析《戰(zhàn)狼2》豆瓣影評(píng)
- Python爬取哆啦A夢(mèng)-伴我同行2豆瓣影評(píng)并生成詞云圖
相關(guān)文章
一篇文章帶你學(xué)習(xí)Python3的高級(jí)特性(2)
這篇文章主要為大家詳細(xì)介紹了Python3的高階函數(shù),主要介紹什么是高級(jí)特性,高級(jí)特性的用法,具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下2022-01-01
gearman的安裝啟動(dòng)及python API使用實(shí)例
這篇文章主要介紹了gearman的安裝啟動(dòng)及python API使用,需要的朋友可以參考下2014-07-07
Django admin實(shí)現(xiàn)TextField字段changelist頁面換行、空格正常顯示
本文主要介紹了Django admin實(shí)現(xiàn)TextField字段changelist頁面換行、空格正常顯示,文中通過示例代碼介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下2022-01-01
python爬蟲之自動(dòng)登錄與驗(yàn)證碼識(shí)別
這篇文章主要為大家詳細(xì)介紹了python爬蟲之自動(dòng)登錄與驗(yàn)證碼識(shí)別,文中示例代碼介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下2018-09-09
Python中連通域分割Two-Pass算法的原理與實(shí)現(xiàn)詳解
兩遍掃描法(?Two-Pass?),正如其名,指的就是通過掃描兩遍圖像,將圖像中存在的所有連通域找出并標(biāo)記,本文將詳細(xì)介紹Two-Pass算法的原理與實(shí)現(xiàn),需要的可以參考下2023-12-12
Python學(xué)習(xí)筆記之自定義函數(shù)用法詳解
這篇文章主要介紹了Python學(xué)習(xí)筆記之自定義函數(shù)用法,結(jié)合實(shí)例形式詳細(xì)分析了自定義函數(shù)的功能、定義、使用方法及相關(guān)操作注意事項(xiàng),需要的朋友可以參考下2019-06-06
解決pycharm 遠(yuǎn)程調(diào)試 上傳 helpers 卡住的問題
今天小編就為大家分享一篇解決pycharm 遠(yuǎn)程調(diào)試 上傳 helpers 卡住的問題,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過來看看吧2019-06-06
Python開發(fā)之身份證驗(yàn)證庫id_validator驗(yàn)證身份證號(hào)合法性及根據(jù)身份證號(hào)返回住址年齡等信息
這篇文章主要介紹了Python開發(fā)之身份證驗(yàn)證庫id_validator驗(yàn)證身份證號(hào)合法性及Python解析身份證號(hào),根據(jù)身份證號(hào)返回住址年齡等信息,需要的朋友可以參考下2020-03-03

