如何使用python爬取B站排行榜Top100的視頻數(shù)據(jù)
記得收藏呀?。?!
1、第三方庫導(dǎo)入
from bs4 import BeautifulSoup # 解析網(wǎng)頁 import re # 正則表達式,進行文字匹配 import urllib.request,urllib.error # 通過瀏覽器請求數(shù)據(jù) import sqlite3 # 輕型數(shù)據(jù)庫 import time # 獲取當(dāng)前時間
2、程序運行主函數(shù)
爬取過程主要包括聲明爬取網(wǎng)頁 -> 爬取網(wǎng)頁數(shù)據(jù)并解析 -> 保存數(shù)據(jù)
def main():
#聲明爬取網(wǎng)站
baseurl = "https://www.bilibili.com/v/popular/rank/all"
#爬取網(wǎng)頁
datalist = getData(baseurl)
# print(datalist)
#保存數(shù)據(jù)
dbname = time.strftime("%Y-%m-%d", time.localtime())
dbpath = "BiliBiliTop100 " + dbname
saveData(datalist,dbpath)
(1)在爬取的過程中采用的技術(shù)為:偽裝成瀏覽器對數(shù)據(jù)進行請求;
(2)解析爬取到的網(wǎng)頁源碼時:采用Beautifulsoup解析出需要的數(shù)據(jù),使用re正則表達式對數(shù)據(jù)進行匹配;
(3)保存數(shù)據(jù)時,考慮到B站排行榜是每日進行刷新,故可以用當(dāng)前日期進行保存數(shù)據(jù)庫命名。
3、程序運行結(jié)果

數(shù)據(jù)庫中包含的數(shù)據(jù)有:排名、視頻鏈接、標(biāo)題、播放量、評論量、作者、綜合分?jǐn)?shù)這7個數(shù)據(jù)。

4、程序源代碼
from bs4 import BeautifulSoup #解析網(wǎng)頁
import re # 正則表達式,進行文字匹配
import urllib.request,urllib.error
import sqlite3
import time
def main():
#聲明爬取網(wǎng)站
baseurl = "https://www.bilibili.com/v/popular/rank/all"
#爬取網(wǎng)頁
datalist = getData(baseurl)
# print(datalist)
#保存數(shù)據(jù)
dbname = time.strftime("%Y-%m-%d", time.localtime())
dbpath = "BiliBiliTop100 " + dbname
saveData(datalist,dbpath)
#re正則表達式
findLink =re.compile(r'<a class="title" href="(.*?)" rel="external nofollow" ') #視頻鏈接
findOrder = re.compile(r'<div class="num">(.*?)</div>') #榜單次序
findTitle = re.compile(r'<a class="title" href=".*?" rel="external nofollow" rel="external nofollow" target="_blank">(.*?)</a>') #視頻標(biāo)題
findPlay = re.compile(r'<span class="data-box"><i class="b-icon play"></i>([\s\S]*)(.*?)</span> <span class="data-box">') #視頻播放量
findView = re.compile(r'<span class="data-box"><i class="b-icon view"></i>([\s\S]*)(.*?)</span> <a href=".*?" rel="external nofollow" rel="external nofollow" target="_blank"><span class="data-box up-name">') # 視頻評價數(shù)
findName = re.compile(r'<i class="b-icon author"></i>(.*?)</span></a>',re.S) #視頻作者
findScore = re.compile(r'<div class="pts"><div>(.*?)</div>綜合得分',re.S) #視頻得分
def getData(baseurl):
datalist = []
html = askURL(baseurl)
#print(html)
soup = BeautifulSoup(html,'html.parser') #解釋器
for item in soup.find_all('li',class_="rank-item"):
# print(item)
data = []
item = str(item)
Order = re.findall(findOrder,item)[0]
data.append(Order)
# print(Order)
Link = re.findall(findLink,item)[0]
Link = 'https:' + Link
data.append(Link)
# print(Link)
Title = re.findall(findTitle,item)[0]
data.append(Title)
# print(Title)
Play = re.findall(findPlay,item)[0][0]
Play = Play.replace(" ","")
Play = Play.replace("\n","")
Play = Play.replace(".","")
Play = Play.replace("萬","0000")
data.append(Play)
# print(Play)
View = re.findall(findView,item)[0][0]
View = View.replace(" ","")
View = View.replace("\n","")
View = View.replace(".","")
View = View.replace("萬","0000")
data.append(View)
# print(View)
Name = re.findall(findName,item)[0]
Name = Name.replace(" ","")
Name = Name.replace("\n","")
data.append(Name)
# print(Name)
Score = re.findall(findScore,item)[0]
data.append(Score)
# print(Score)
datalist.append(data)
return datalist
def askURL(url):
#設(shè)置請求頭
head = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0;Win64;x64) AppleWebKit/537.36(KHTML, likeGecko) Chrome/80.0.3987.163Safari/537.36"
}
request = urllib.request.Request(url, headers = head)
html = ""
try:
response = urllib.request.urlopen(request)
html = response.read().decode("utf-8")
#print(html)
except urllib.error.URLError as e:
if hasattr(e,"code"):
print(e.code)
if hasattr(e,"reason"):
print(e.reason)
return html
def saveData(datalist,dbpath):
init_db(dbpath)
conn = sqlite3.connect(dbpath)
cur = conn.cursor()
for data in datalist:
sql = '''
insert into Top100(
id,info_link,title,play,view,name,score)
values("%s","%s","%s","%s","%s","%s","%s")'''%(data[0],data[1],data[2],data[3],data[4],data[5],data[6])
print(sql)
cur.execute(sql)
conn.commit()
cur.close()
conn.close()
def init_db(dbpath):
sql = '''
create table Top100
(
id integer primary key autoincrement,
info_link text,
title text,
play numeric,
view numeric,
name text,
score numeric
)
'''
conn = sqlite3.connect(dbpath)
cursor = conn.cursor()
cursor.execute(sql)
conn.commit()
conn.close()
if __name__ =="__main__":
main()
到此這篇關(guān)于如何使用python爬取B站排行榜Top100的視頻數(shù)據(jù)的文章就介紹到這了,更多相關(guān)python B站視頻 內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
Python調(diào)整PDF文檔頁邊距的方法小結(jié)
PDF 文檔中的邊距是指環(huán)繞每頁內(nèi)容的空白區(qū)域,充當(dāng)文本或圖像與頁面邊緣之間的緩沖區(qū),本文將介紹如何使用 Spire.PDF for Python 修改 PDF 文檔的頁邊距,為不同使用場景定制合適的文檔布局,需要的朋友可以參考下2024-05-05
在tensorflow中實現(xiàn)去除不足一個batch的數(shù)據(jù)
今天小編就為大家分享一篇在tensorflow中實現(xiàn)去除不足一個batch的數(shù)據(jù),具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2020-01-01
1分鐘快速生成用于網(wǎng)頁內(nèi)容提取的xslt
這篇文章主要教大家如何1分鐘快速生成用于網(wǎng)頁內(nèi)容提取的xslt,具有一定的參考價值,感興趣的小伙伴們可以參考一下2018-02-02
使用apidoc管理RESTful風(fēng)格Flask項目接口文檔方法
下面小編就為大家分享一篇使用apidoc管理RESTful風(fēng)格Flask項目接口文檔方法,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2018-02-02
Python實現(xiàn)將數(shù)據(jù)庫一鍵導(dǎo)出為Excel表格的實例
下面小編就為大家?guī)硪黄狿ython實現(xiàn)將數(shù)據(jù)庫一鍵導(dǎo)出為Excel表格的實例。小編覺得挺不錯的,現(xiàn)在就分享給大家,也給大家做個參考。一起跟隨小編過來看看吧2016-12-12
Python argparse命令參數(shù)與config配置參數(shù)示例深入詳解
這篇文章主要介紹了Python argparse命令參數(shù)與config配置參數(shù),argparse是Python內(nèi)置的一個用于命令項選項與參數(shù)解析的模塊,通過在程序中定義好我們需要的參數(shù),然后在程序啟動命令行傳遞我們想要改變的參數(shù)2023-03-03

