欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

50行Python代碼獲取高考志愿信息的實(shí)現(xiàn)方法

 更新時(shí)間:2019年07月23日 09:49:48   作者:樂百川  
這篇文章主要介紹了50行Python代碼獲取高考志愿信息的實(shí)現(xiàn)方法,本文給大家介紹的非常詳細(xì),具有一定的參考借鑒價(jià)值,需要的朋友可以參考下

最近遇到個(gè)任務(wù),需要將高考志愿信息保存成Excel表格,BOSS丟給我一個(gè)網(wǎng)址表格之后就讓我自己干了。雖然我以前也學(xué)習(xí)過Python編寫爬蟲的知識(shí),不過時(shí)間長(zhǎng)了忘了,于是摸索了一天之后終于完成了任務(wù)。不得不說,Python干這個(gè)還是挺容易的,最后寫完一看代碼,只用了50行就完成了任務(wù)。

準(zhǔn)備工作

首先明確一下任務(wù)。首先我們要從網(wǎng)址表格中讀取到一大串網(wǎng)址,然后訪問每個(gè)網(wǎng)址,獲取到頁(yè)面上的學(xué)校信息,然后將它們?cè)趯懙搅硪粋€(gè)Excel中。顯然,我們需要一個(gè)爬蟲庫(kù)和一個(gè)Excel庫(kù)來幫助我們完成任務(wù)。

第一步自然是安裝它們,requests-html是一個(gè)非常好用的HTML解析庫(kù),拿來做簡(jiǎn)單的爬蟲非常優(yōu)雅;而openpyxl是一個(gè)Excel表格庫(kù),可以輕松創(chuàng)建和處理Excel數(shù)據(jù)。

pip install requests-html openpyxl 

然后就是網(wǎng)址表格,大概長(zhǎng)這樣,總共大概一千七百多條數(shù)據(jù)。其中有少量網(wǎng)址是錯(cuò)誤的,訪問會(huì)得到404錯(cuò)誤,所以在編寫代碼的時(shí)候還要注意錯(cuò)誤處理。

任務(wù)分析

任務(wù)的核心自然就是分析和獲取網(wǎng)頁(yè)內(nèi)容了。首先現(xiàn)在瀏覽器里面打開一個(gè)網(wǎng)址,看看網(wǎng)頁(yè)上的內(nèi)容是什么。

可以看到這個(gè)網(wǎng)頁(yè)格式很亂,學(xué)校名字什么的都是混在一起的,一點(diǎn)也不規(guī)整,這給我們提取數(shù)據(jù)造成了不少的麻煩。不過仔細(xì)分析之后,其實(shí)問題也并不難。

首先要提取的是學(xué)校名字,可以看到學(xué)校名字和其他文字混在一起,例如"本科一批普通文科627集美大學(xué)報(bào)考情況"。本來我準(zhǔn)備用正則表達(dá)式提取,然后發(fā)現(xiàn)用正則表達(dá)式好像很難。之后我多訪問了幾個(gè)網(wǎng)頁(yè),發(fā)現(xiàn)學(xué)校代碼基本上都是數(shù)字,如果有字母的話也出現(xiàn)到第一位,所以我采用了以下的算法,首先將字符串從數(shù)字處分隔,右邊的一個(gè)部分就包含了學(xué)校名字和“報(bào)考情況”幾個(gè)字,然后刪除“報(bào)考情況”即可得到學(xué)校名字。這個(gè)算法唯一的缺點(diǎn)就是,假如出現(xiàn)了字母在中間的代號(hào),就沒辦法獲取到學(xué)校名字了,不過實(shí)際運(yùn)行之后,我幸運(yùn)的發(fā)現(xiàn)并沒有出現(xiàn)這種情況。

之后要提取的就是專業(yè)信息了,在網(wǎng)頁(yè)源代碼中這部分使用tr和td標(biāo)簽來呈現(xiàn)的。一開始我用的是tr加上選擇器來提取,但是這個(gè)網(wǎng)頁(yè)生成的時(shí)候很有問題,每個(gè)tr標(biāo)簽的樣式居然還根據(jù)內(nèi)容的多少而不同,導(dǎo)致我寫死的選擇器沒法完美獲取所有行。不過后來我發(fā)現(xiàn)整個(gè)網(wǎng)頁(yè)內(nèi)容都是一個(gè)表格, 除去表頭和結(jié)尾的幾個(gè)固定行之外,剩下的恰好就是要提取的數(shù)據(jù)行,所以直接獲取tr標(biāo)簽,然后切片除去收尾即可。

網(wǎng)頁(yè)基本上分析完了,下面就是編寫代碼了。

編寫代碼

總共50行左右代碼,我添加了注釋,相信大家應(yīng)該很容易就可以看懂。

第一部分代碼是從網(wǎng)址表格讀取所有url,一開始編寫的時(shí)候,表格里的url是從另一個(gè)公式生成的,所以需要在加載的時(shí)候添加data_only=True才能讀取到公式的結(jié)果,否則只能讀取到公式本身。

第二部分是創(chuàng)建輸出文件,然后編寫表頭。順帶為了調(diào)試方便,我讓它如果檢測(cè)到已經(jīng)存在目標(biāo)文件的話就刪掉,在建立一個(gè)新的。

第三部分就是代碼的核心了。Python代碼看著可能有點(diǎn)奇怪,不過對(duì)照上面的分析,我想大家應(yīng)該很容易看懂。需要注意保存文件在最后,假如半路代碼出現(xiàn)異常,整個(gè)就白干了,而一千七百多條網(wǎng)址不可能保證都正常運(yùn)行。由于輸出格式是“學(xué)校名+專業(yè)信息”這樣的格式,所以我獲取學(xué)校名之后,還要將學(xué)校插入到每行專業(yè)信息之前。所以我這里索性直接用try-except包起來,如果出錯(cuò)的話只打印一下出錯(cuò)的網(wǎng)址。

import os 
from requests_html import HTMLSession 
from openpyxl import Workbook, load_workbook 
# 從網(wǎng)址表格獲取urls 
def get_urls(): 
 input_file = 'source.xlsx' 
 wb = load_workbook(input_file, data_only=True) 
 ws = wb.active 
 urls = [row[0] for row in ws.values] 
 wb.close() 
 return urls 
# 輸出Excel文件,如果已存在則刪除已有的 
out_file = 'data.xlsx' 
if os.path.exists(out_file): 
 os.remove(out_file) 
wb = Workbook() 
ws = wb.active 
# 編寫第一行表頭 
ws['a1'] = '學(xué)校' 
ws['b1'] = '專業(yè)代號(hào)' 
ws['c1'] = '專業(yè)名稱' 
ws['d1'] = '計(jì)劃數(shù)' 
ws['e1'] = '預(yù)計(jì)1:1錄取最低分(投檔分)' 
ws['f1'] = '按院校投檔比例投檔線上已報(bào)人數(shù)' 
ws['g1'] = '學(xué)費(fèi)' 
ws['h1'] = '辦學(xué)地點(diǎn)' 
ws['i1'] = '專業(yè)備注' 
# 發(fā)起網(wǎng)絡(luò)請(qǐng)求,解析網(wǎng)頁(yè)信息,并寫入文件 
session = HTMLSession() 
urls = get_urls() 
for url in urls: 
 import re 
 page = session.get(url) 
 page.html.encoding = 'gb2312' 
 try: 
 college_info = page.html.xpath('//td[@class="report1_1_1"]/text()', first=True) 
 college = re.split('\d+', college_info)[1].replace('報(bào)考情況', '') 
 rows = page.html.xpath('//tr')[3:-2] 
 for r in rows: 
 info = [x.text for x in r.xpath('//td')] 
 info.insert(0, college) 
 ws.append(info) 
 print(info) 
 except: 
 print(url) 
 
# 保存文件 
wb.save(out_file) 

運(yùn)行結(jié)果

好了,費(fèi)了大半天的勁,代碼終于完成了。讓我們運(yùn)行一下看看結(jié)果。整個(gè)代碼大概需要運(yùn)行7-8分鐘,最后完成之后得到了一個(gè)500多k的Excel文件。

打開之后,可以發(fā)現(xiàn)Excel文件填的滿滿的,最后總共獲取到了大約一萬多條數(shù)據(jù),任務(wù)圓滿完成。

總結(jié)

以上所述是小編給大家介紹的50行Python代碼獲取高考志愿信息的實(shí)現(xiàn)方法,希望對(duì)大家有所幫助,如果大家有任何疑問請(qǐng)給我留言,小編會(huì)及時(shí)回復(fù)大家的。在此也非常感謝大家對(duì)腳本之家網(wǎng)站的支持!
如果你覺得本文對(duì)你有幫助,歡迎轉(zhuǎn)載,煩請(qǐng)注明出處,謝謝!

相關(guān)文章

  • Python實(shí)現(xiàn)一鍵整理百度云盤中重復(fù)無用文件

    Python實(shí)現(xiàn)一鍵整理百度云盤中重復(fù)無用文件

    有沒有頭疼過百度云盤都要塞滿了,可是又沒有工具能剔除大量重復(fù)無用的文件?這里教你一個(gè)用Python實(shí)現(xiàn)的簡(jiǎn)單方法,通過整理目錄的方式來處理我們?cè)票P中無用的文件吧
    2022-08-08
  • scrapy頭部修改的方法詳解

    scrapy頭部修改的方法詳解

    這篇文章主要給大家介紹了關(guān)于scrapy頭部修改的相關(guān)資料,文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧
    2020-12-12
  • TensorFlow實(shí)現(xiàn)Softmax回歸模型

    TensorFlow實(shí)現(xiàn)Softmax回歸模型

    這篇文章主要介紹了TensorFlow實(shí)現(xiàn)Softmax回歸模型,具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下
    2018-03-03
  • 詳解Python發(fā)送email的三種方式

    詳解Python發(fā)送email的三種方式

    這篇文章主要介紹了詳解Python發(fā)送email的三種方式,Python發(fā)送email的三種方式,分別為使用登錄郵件服務(wù)器、使用smtp服務(wù)、調(diào)用sendmail命令來發(fā)送三種方法,非常具有實(shí)用價(jià)值,需要的朋友可以參考下
    2018-10-10
  • python的faker庫(kù)用法

    python的faker庫(kù)用法

    今天小編就為大家分享一篇python的faker庫(kù)用法,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過來看看吧
    2019-11-11
  • Python爬蟲包BeautifulSoup簡(jiǎn)介與安裝(一)

    Python爬蟲包BeautifulSoup簡(jiǎn)介與安裝(一)

    這篇文章主要為大家詳細(xì)介紹了Python爬蟲包BeautifulSoup的簡(jiǎn)介與安裝,具有一定的參考價(jià)值,感興趣的朋友可以參考一下
    2018-06-06
  • 關(guān)于Python下的Matlab函數(shù)對(duì)應(yīng)關(guān)系(Numpy)

    關(guān)于Python下的Matlab函數(shù)對(duì)應(yīng)關(guān)系(Numpy)

    這篇文章主要介紹了關(guān)于Python下的Matlab函數(shù)對(duì)應(yīng)關(guān)系(Numpy),具有很好的參考價(jià)值,希望對(duì)大家有所幫助。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教
    2022-07-07
  • Python實(shí)現(xiàn)爬取房源信息的示例詳解

    Python實(shí)現(xiàn)爬取房源信息的示例詳解

    站在一個(gè)租房人的立場(chǎng),租房平臺(tái)實(shí)在太多了,并且各平臺(tái)篩選和排序邏輯都不太一致。這篇文章將教教大家如何利用Python語言實(shí)現(xiàn)爬取房源信息,需要的可以參考一下
    2022-09-09
  • Python雙向鏈表插入節(jié)點(diǎn)方式

    Python雙向鏈表插入節(jié)點(diǎn)方式

    這篇文章主要介紹了Python雙向鏈表插入節(jié)點(diǎn)方式,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教
    2023-06-06
  • python實(shí)現(xiàn)會(huì)員管理系統(tǒng)

    python實(shí)現(xiàn)會(huì)員管理系統(tǒng)

    這篇文章主要為大家詳細(xì)介紹了python實(shí)現(xiàn)會(huì)員管理系統(tǒng),文中示例代碼介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下
    2022-03-03

最新評(píng)論