Python3實現(xiàn)爬取指定百度貼吧頁面并保存頁面數(shù)據(jù)生成本地文檔的方法
分享給大家供大家參考,具體如下:Python3實現(xiàn)爬取指定百度貼吧頁面并保存頁面數(shù)據(jù)生成本地文檔的方法。分享給大家供大家參考,具體如下:
首先我們創(chuàng)建一個python文件, tieba.py,我們要完成的是,輸入指定百度貼吧名字與指定頁面范圍之后爬取頁面html代碼,我們首先觀察貼吧url的規(guī)律,比如:
百度貼吧LOL吧第一頁:http://tieba.baidu.com/f?kw=lol&ie=utf-8&pn=0
第二頁: http://tieba.baidu.com/f?kw=lol&ie=utf-8&pn=50
第三頁: http://tieba.baidu.com/f?kw=lol&ie=utf-8&pn=100
發(fā)現(xiàn)規(guī)律了吧,貼吧中每個頁面不同之處,就是url最后的pn的值,其余的都是一樣的,我們可以抓住這個規(guī)律(kw表示貼吧名,采用url編碼)。
清楚了url規(guī)則,我們便可以利用urllib進行批量式數(shù)據(jù)爬取,代碼如下:
# -*- coding:utf-8 -*-
from urllib import request as urllib2
from urllib import parse
import random
def loadPage(url, page):
'''
根據(jù)url獲取服務器響應文件
url:需要爬取的url
'''
print('---------正在下載頁面%d-------' % page)
ua_list = [
"Mozilla/5.0 (Macintosh; Intel Mac OS X 10.6; rv2.0.1) Gecko/20100101 Firefox/4.0.1",
"Mozilla/5.0 (Windows NT 6.1; rv2.0.1) Gecko/20100101 Firefox/4.0.1",
"Opera/9.80 (Macintosh; Intel Mac OS X 10.6.8; U; en) Presto/2.8.131 Version/11.11",
"Opera/9.80 (Windows NT 6.1; U; en) Presto/2.8.131 Version/11.11",
"Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_0) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.56 Safari/535.11"
]
header = random.choice(ua_list)
request = urllib2.Request(url)
request.add_header('User-Agent', header)
response = urllib2.urlopen(request)
html = response.read()
return html
def write(html, page):
'''
將html文件寫入本地
:param html: 服務器響應文件內(nèi)容
:return:
'''
data = html
file_name = 'tieba{}.txt'.format(page)
print('---------正在保存文件%s-------'%file_name)
# 運用with open as語句使代碼更加簡潔 避免寫異常處理和文件關閉語句
with open(file_name,'w',encoding='utf-8') as file:
file.write(data.decode())
print('---------success!---------')
def tiebaSpider(url, kw, begin, end):
'''
爬取貼吧信息
'''
words = {
'kw':kw
}
kw = parse.urlencode(words)
url = url % (kw)
for page in range(begin, end + 1):
pn = ((page-1)*50)
ful_url = url + str(pn)
html = loadPage(url, page)
write(html, page)
if __name__ == '__main__':
kw = input('請輸入爬取貼吧名:')
beginPage = int(input('請輸入起始頁:'))
endPage = int(input('請輸入結束頁:'))
url = r'http://tieba.baidu.com/f?%s&pn='
tiebaSpider(url, kw, beginPage, endPage)
控制臺結果如下:
請輸入爬取貼吧名:河南
請輸入起始頁:1
請輸入結束頁:3
---------正在下載頁面1-------
---------正在保存文件tieba1.txt-------
---------success!---------
---------正在下載頁面2-------
---------正在保存文件tieba2.txt-------
---------success!---------
---------正在下載頁面3-------
---------正在保存文件tieba3.txt-------
---------success!---------
Process finished with exit code 0
更多關于Python相關內(nèi)容可查看本站專題:《Python Socket編程技巧總結》、《Python數(shù)據(jù)結構與算法教程》、《Python函數(shù)使用技巧總結》、《Python字符串操作技巧匯總》、《Python入門與進階經(jīng)典教程》及《Python文件與目錄操作技巧匯總》
希望本文所述對大家Python程序設計有所幫助。
- Python3直接爬取圖片URL并保存示例
- python requests庫爬取豆瓣電視劇數(shù)據(jù)并保存到本地詳解
- Python爬取數(shù)據(jù)保存為Json格式的代碼示例
- Python3爬蟲學習之將爬取的信息保存到本地的方法詳解
- Python3爬蟲爬取百姓網(wǎng)列表并保存為json功能示例【基于request、lxml和json模塊】
- Python使用Scrapy爬蟲框架全站爬取圖片并保存本地的實現(xiàn)代碼
- python爬取網(wǎng)站數(shù)據(jù)保存使用的方法
- Python爬取YY評級分數(shù)并保存數(shù)據(jù)實現(xiàn)過程解析
相關文章
Python Pandas學習之數(shù)據(jù)離散化與合并詳解
Pandas是python的一個數(shù)據(jù)分析包,該工具是為解決數(shù)據(jù)分析任務而創(chuàng)建的。本文將通過示例詳細為大家介紹一下Pandas的數(shù)據(jù)離散化與合并,需要的可以參考一下2022-02-02
python GUI庫圖形界面開發(fā)之PyQt5開發(fā)環(huán)境配置與基礎使用
這篇文章主要介紹了python GUI庫圖形界面開發(fā)之PyQt5開發(fā)環(huán)境配置與基礎使用,需要的朋友可以參考下2020-02-02
python PIL和CV對 圖片的讀取,顯示,裁剪,保存實現(xiàn)方法
今天小編就為大家分享一篇python PIL和CV對 圖片的讀取,顯示,裁剪,保存實現(xiàn)方法,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2019-08-08

