Python3實現(xiàn)爬取指定百度貼吧頁面并保存頁面數(shù)據(jù)生成本地文檔的方法
分享給大家供大家參考,具體如下:Python3實現(xiàn)爬取指定百度貼吧頁面并保存頁面數(shù)據(jù)生成本地文檔的方法。分享給大家供大家參考,具體如下:
首先我們創(chuàng)建一個python文件, tieba.py,我們要完成的是,輸入指定百度貼吧名字與指定頁面范圍之后爬取頁面html代碼,我們首先觀察貼吧url的規(guī)律,比如:
百度貼吧LOL吧第一頁:http://tieba.baidu.com/f?kw=lol&ie=utf-8&pn=0
第二頁: http://tieba.baidu.com/f?kw=lol&ie=utf-8&pn=50
第三頁: http://tieba.baidu.com/f?kw=lol&ie=utf-8&pn=100
發(fā)現(xiàn)規(guī)律了吧,貼吧中每個頁面不同之處,就是url最后的pn的值,其余的都是一樣的,我們可以抓住這個規(guī)律(kw表示貼吧名,采用url編碼)。
清楚了url規(guī)則,我們便可以利用urllib
進行批量式數(shù)據(jù)爬取,代碼如下:
# -*- coding:utf-8 -*- from urllib import request as urllib2 from urllib import parse import random def loadPage(url, page): ''' 根據(jù)url獲取服務器響應文件 url:需要爬取的url ''' print('---------正在下載頁面%d-------' % page) ua_list = [ "Mozilla/5.0 (Macintosh; Intel Mac OS X 10.6; rv2.0.1) Gecko/20100101 Firefox/4.0.1", "Mozilla/5.0 (Windows NT 6.1; rv2.0.1) Gecko/20100101 Firefox/4.0.1", "Opera/9.80 (Macintosh; Intel Mac OS X 10.6.8; U; en) Presto/2.8.131 Version/11.11", "Opera/9.80 (Windows NT 6.1; U; en) Presto/2.8.131 Version/11.11", "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_0) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.56 Safari/535.11" ] header = random.choice(ua_list) request = urllib2.Request(url) request.add_header('User-Agent', header) response = urllib2.urlopen(request) html = response.read() return html def write(html, page): ''' 將html文件寫入本地 :param html: 服務器響應文件內容 :return: ''' data = html file_name = 'tieba{}.txt'.format(page) print('---------正在保存文件%s-------'%file_name) # 運用with open as語句使代碼更加簡潔 避免寫異常處理和文件關閉語句 with open(file_name,'w',encoding='utf-8') as file: file.write(data.decode()) print('---------success!---------') def tiebaSpider(url, kw, begin, end): ''' 爬取貼吧信息 ''' words = { 'kw':kw } kw = parse.urlencode(words) url = url % (kw) for page in range(begin, end + 1): pn = ((page-1)*50) ful_url = url + str(pn) html = loadPage(url, page) write(html, page) if __name__ == '__main__': kw = input('請輸入爬取貼吧名:') beginPage = int(input('請輸入起始頁:')) endPage = int(input('請輸入結束頁:')) url = r'http://tieba.baidu.com/f?%s&pn=' tiebaSpider(url, kw, beginPage, endPage)
控制臺結果如下:
請輸入爬取貼吧名:河南
請輸入起始頁:1
請輸入結束頁:3
---------正在下載頁面1-------
---------正在保存文件tieba1.txt-------
---------success!---------
---------正在下載頁面2-------
---------正在保存文件tieba2.txt-------
---------success!---------
---------正在下載頁面3-------
---------正在保存文件tieba3.txt-------
---------success!---------
Process finished with exit code 0
更多關于Python相關內容可查看本站專題:《Python Socket編程技巧總結》、《Python數(shù)據(jù)結構與算法教程》、《Python函數(shù)使用技巧總結》、《Python字符串操作技巧匯總》、《Python入門與進階經(jīng)典教程》及《Python文件與目錄操作技巧匯總》
希望本文所述對大家Python程序設計有所幫助。
- Python3直接爬取圖片URL并保存示例
- python requests庫爬取豆瓣電視劇數(shù)據(jù)并保存到本地詳解
- Python爬取數(shù)據(jù)保存為Json格式的代碼示例
- Python3爬蟲學習之將爬取的信息保存到本地的方法詳解
- Python3爬蟲爬取百姓網(wǎng)列表并保存為json功能示例【基于request、lxml和json模塊】
- Python使用Scrapy爬蟲框架全站爬取圖片并保存本地的實現(xiàn)代碼
- python爬取網(wǎng)站數(shù)據(jù)保存使用的方法
- Python爬取YY評級分數(shù)并保存數(shù)據(jù)實現(xiàn)過程解析
相關文章
Python Pandas學習之數(shù)據(jù)離散化與合并詳解
Pandas是python的一個數(shù)據(jù)分析包,該工具是為解決數(shù)據(jù)分析任務而創(chuàng)建的。本文將通過示例詳細為大家介紹一下Pandas的數(shù)據(jù)離散化與合并,需要的可以參考一下2022-02-02python GUI庫圖形界面開發(fā)之PyQt5開發(fā)環(huán)境配置與基礎使用
這篇文章主要介紹了python GUI庫圖形界面開發(fā)之PyQt5開發(fā)環(huán)境配置與基礎使用,需要的朋友可以參考下2020-02-02python PIL和CV對 圖片的讀取,顯示,裁剪,保存實現(xiàn)方法
今天小編就為大家分享一篇python PIL和CV對 圖片的讀取,顯示,裁剪,保存實現(xiàn)方法,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2019-08-08