Python3爬蟲全國地址信息
PHP方式寫的一團糟所以就用python3重寫了一遍,所以因為第二次寫了,思路也更清晰了些。
提醒:可能會有502的錯誤,所以做了異常以及數(shù)據(jù)庫事務(wù)處理,暫時沒有想到更好的優(yōu)化方法,所以就先這樣吧。待更懂python再進一步優(yōu)化哈
歡迎留言賜教~
#!C:\Users\12550\AppData\Local\Programs\Python\Python37\python.exe # -*- coding: utf-8 -*- from urllib.request import urlopen from bs4 import BeautifulSoup import pymysql import urllib.request import re from urllib.error import URLError, HTTPError conn = pymysql.connect(host='127.0.0.1', user='root', passwd='root', db='test', charset='utf8') db = conn.cursor() curr_url = '' # 請求網(wǎng)頁 def get_html(url): global curr_url user_agent = 'Mozilla/6.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.6796.99 Safari/537.36' response = urllib.request.Request(url) response.add_header('User-Agent', user_agent) response = urllib.request.urlopen(response) html = BeautifulSoup(response.read(), "html.parser", from_encoding='gbk') return html def get_list(url, level=1, pid=0, get_level=2): data = []; level_arr = {'1': 'provincetr', '2': 'citytr', '3': 'countytr', '4': 'towntr', '5': 'villagetr'} try: print(url) html = get_html(url) c_url = url tr_list = html.findAll('tr', {'class': level_arr[str(level)]}) for tr in tr_list: region_name, href, page = '', '', '' td_list = tr.findAll('td') for td in td_list: region_name = td.get_text(); # 判斷是否存在該省份 if (level == 1): sql = "select * from region where region_name='" + region_name + "'" db.execute(sql) exist = db.fetchone() if(exist): continue # 判斷是否全數(shù)字-非法則跳過 if (region_name.isdigit()): continue if (region_name): sql = "insert into region(region_name,pid,level,url) value('" + region_name + "','" + str( pid) + "','" + str(level) + "','" + url + "')" db.execute(sql) db.execute('SELECT LAST_INSERT_ID();') last_id = db.fetchone()[0] if (td.a): page = td.a.attrs['href'] pattern = re.compile(r'\w*.html') url = re.sub(pattern, page, c_url) if (level <= get_level): get_list(url, level + 1, last_id) # 每個省份執(zhí)行完成,則提交 if (level == 1): conn.commit() return data; except HTTPError as e: # 如果有出錯,則回滾 conn.rollback() print(e) # HTTP Error 502: Proxy Error url = 'http://www.stats.gov.cn/tjsj/tjbz/tjyqhdmhcxhfdm/2017/index.html' get_list(url) print('執(zhí)行完成')
總結(jié)
以上就是這篇文章的全部內(nèi)容了,希望本文的內(nèi)容對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,謝謝大家對腳本之家的支持。如果你想了解更多相關(guān)內(nèi)容請查看下面相關(guān)鏈接
相關(guān)文章
Python不使用int()函數(shù)把字符串轉(zhuǎn)換為數(shù)字的方法
今天小編就為大家分享一篇Python不使用int()函數(shù)把字符串轉(zhuǎn)換為數(shù)字的方法,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2018-07-07科學(xué)計算NumPy之Ndarray運算函數(shù)操作示例匯總
這篇文章主要為大家介紹了科學(xué)計算NumPy之Ndarray運算函數(shù)操作示例匯總,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進步,早日升職加薪2023-04-04Python實現(xiàn)圖片指定位置加圖片水?。ǜ絇yinstaller打包exe)
這篇文章主要介紹了Python實現(xiàn)圖片指定位置加圖片水印,文中通過示例代碼介紹的非常詳細,對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2021-03-03python腳本實現(xiàn)分析dns日志并對受訪域名排行
這篇文章主要介紹了python腳本實現(xiàn)分析dns日志并對受訪域名排行,本文是在Windows服務(wù)器環(huán)境中實現(xiàn),需要的朋友可以參考下2014-09-09Python面向?qū)ο笾鄳B(tài)原理與用法案例分析
這篇文章主要介紹了Python面向?qū)ο笾鄳B(tài)原理與用法,結(jié)合具體案例形式分析了Python多態(tài)的具體功能、原理、使用方法與操作注意事項,需要的朋友可以參考下2019-12-12