Python抓取京東圖書(shū)評(píng)論數(shù)據(jù)
京東圖書(shū)評(píng)論有非常豐富的信息,這里面就包含了購(gòu)買(mǎi)日期、書(shū)名、作者、好評(píng)、中評(píng)、差評(píng)等等。以購(gòu)買(mǎi)日期為例,使用Python + Mysql的搭配進(jìn)行實(shí)現(xiàn),程序不大,才100行。相關(guān)的解釋我都在程序里加注了:
from selenium import webdriver
from bs4 import BeautifulSoup
import re
import win32com.client
import threading,time
import MySQLdb
def mydebug():
driver.quit()
exit(0)
def catchDate(s):
"""頁(yè)面數(shù)據(jù)提取"""
soup = BeautifulSoup(s)
z = []
global nowtimes
m = soup.findAll("div",class_="date-buy")
for obj in m:
try:
tmp = obj.find('br').contents
except Exception, e:
continue
if(tmp != ""):
z.append(tmp)
nowtimes += 1
return z
def getTimes(n,t):
"""獲取當(dāng)前進(jìn)度"""
return "當(dāng)前進(jìn)度為:" + str(int(100*n/t)) + "%"
#———————————————————————————————————| 程序開(kāi)始 |—————————————————————————————————
#確定圖書(shū)大類(lèi)
cate = {"3273":"歷史","3279":"心理學(xué)","3276":"政治軍事","3275":"國(guó)學(xué)古籍","3274":"哲學(xué)宗教","3277":"法律","3280":"文化","3281":"社會(huì)科學(xué)"}
#斷點(diǎn)續(xù)抓
num1 = input("bookid:")
num2 = input("pagenumber:")
#生成圖書(shū)大類(lèi)鏈接,共需17355*20 = 347100次
totaltimes = 347100.0
nowtimes = 0
#開(kāi)啟webdirver的PhantomJS對(duì)象
#driver = webdriver.PhantomJS()
driver = webdriver.Ie('C:\Python27\Scripts\IEDriverServer')
#driver = webdriver.Chrome('C:\Python27\Scripts\chromedriver')
#讀出Mysql中的評(píng)論頁(yè)面,進(jìn)行抓取
# 連接數(shù)據(jù)庫(kù)
try:
conn = MySQLdb.connect(host='localhost',user='root',passwd='',db='jd')
except Exception, e:
print e
sys.exit()
# 獲取cursor對(duì)象
cursor = conn.cursor()
sql = "SELECT * FROM booknew ORDER BY pagenumber DESC"
cursor.execute(sql)
alldata = cursor.fetchall()
flag = 0
flag2 = 0
# 如果有數(shù)據(jù)返回就循環(huán)輸出,http://club.jd.com/review/10178500-1-154.html
if alldata:
for rec in alldata:
#rec[0]--bookid,rec[1]--cateid,rec[2]--pagenumber
if(rec[0] != str(num1) and flag == 0):
continue
else:
flag = 1
for p in range(num2,rec[2]):
if(flag2 == 0):
num2 = 0
flag2 = 1
p += 1
link = "
#抓網(wǎng)頁(yè)
driver.get(link)
html = driver.page_source
#抓評(píng)論
buydate = catchDate(html)
#寫(xiě)入數(shù)據(jù)庫(kù)
for z in buydate:
sql = "INSERT INTO ljj (id, cateid, bookid, date) VALUES (NULL, '" + rec[0] + "','" + rec[1] + "','" + z[0] + "');"
try:
cursor.execute(sql)
except Exception, e:
print e
conn.commit()
print getTimes(nowtimes,totaltimes)
driver.quit()
cursor.close()
conn.close()
- python采用requests庫(kù)模擬登錄和抓取數(shù)據(jù)的簡(jiǎn)單示例
- Python爬蟲(chóng)抓取手機(jī)APP的傳輸數(shù)據(jù)
- 通過(guò)抓取淘寶評(píng)論為例講解Python爬取ajax動(dòng)態(tài)生成的數(shù)據(jù)(經(jīng)典)
- python抓取某汽車(chē)網(wǎng)數(shù)據(jù)解析html存入excel示例
- Python實(shí)現(xiàn)并行抓取整站40萬(wàn)條房?jī)r(jià)數(shù)據(jù)(可更換抓取城市)
- Python基于多線程實(shí)現(xiàn)抓取數(shù)據(jù)存入數(shù)據(jù)庫(kù)的方法
- 對(duì)python抓取需要登錄網(wǎng)站數(shù)據(jù)的方法詳解
- 在Python3中使用asyncio庫(kù)進(jìn)行快速數(shù)據(jù)抓取的教程
- 使用Python抓取豆瓣影評(píng)數(shù)據(jù)的方法
- python數(shù)據(jù)抓取3種方法總結(jié)
相關(guān)文章
Python 轉(zhuǎn)換時(shí)間戳為指定格式日期
這篇文章主要為大家介紹了Python轉(zhuǎn)換時(shí)間戳,具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下,希望能夠給你帶來(lái)幫助2021-12-12
Pandas:Series和DataFrame刪除指定軸上數(shù)據(jù)的方法
今天小編就為大家分享一篇Pandas:Series和DataFrame刪除指定軸上數(shù)據(jù)的方法,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2018-11-11
PyCharm 無(wú)法 import pandas 程序卡住的解決方式
這篇文章主要介紹了PyCharm 無(wú)法 import pandas 程序卡住的解決方式,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2020-03-03
Django項(xiàng)目中包含多個(gè)應(yīng)用時(shí)對(duì)url的配置方法
今天小編就為大家分享一篇Django項(xiàng)目中包含多個(gè)應(yīng)用時(shí)對(duì)url的配置方法,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2018-05-05
使用PyWebCopy在Python中克隆網(wǎng)頁(yè)的操作方法
PyWebCopy是一個(gè)用于克隆網(wǎng)頁(yè)內(nèi)容的Python庫(kù),它允許用戶從指定的 URL 復(fù)制整個(gè)網(wǎng)頁(yè)并保存到本地,本文將介紹 PyWebCopy 的基本用法,以及如何克隆網(wǎng)頁(yè)并保存網(wǎng)頁(yè)內(nèi)容到本地文件夾,文中通過(guò)代碼示例講解的非常詳細(xì),需要的朋友可以參考下2023-12-12
python模擬點(diǎn)擊網(wǎng)頁(yè)按鈕實(shí)現(xiàn)方法
在本篇文章里小編給大家整理的是一篇關(guān)于python模擬點(diǎn)擊網(wǎng)頁(yè)按鈕實(shí)現(xiàn)方法,需要的朋友們可以參考下。2020-02-02

