python爬蟲(chóng) urllib模塊url編碼處理詳解
案例:爬取使用搜狗根據(jù)指定詞條搜索到的頁(yè)面數(shù)據(jù)(例如爬取詞條為‘周杰倫'的頁(yè)面數(shù)據(jù))
import urllib.request # 1.指定url url = 'https://www.sogou.com/web?query=周杰倫' ''' 2.發(fā)起請(qǐng)求:使用urlopen函數(shù)對(duì)指定的url發(fā)起請(qǐng)求, 該函數(shù)返回一個(gè)響應(yīng)對(duì)象,urlopen代表打開(kāi)url ''' response = urllib.request.urlopen(url=url) # 3.獲取響應(yīng)對(duì)象中的頁(yè)面數(shù)據(jù):read函數(shù)可以獲取響應(yīng)對(duì)象中存儲(chǔ)的頁(yè)面數(shù)據(jù)(byte類(lèi)型的數(shù)據(jù)值) page_text = response.read() # 4.持久化存儲(chǔ):將爬取的頁(yè)面數(shù)據(jù)寫(xiě)入文件進(jìn)行保存 with open("sougou.html","wb") as f: f.write(page_text) print("寫(xiě)入數(shù)據(jù)成功") f.close()
編碼錯(cuò)誤
【注意】上述代碼中url存在非ascii編碼的數(shù)據(jù),則該url無(wú)效。如果對(duì)其發(fā)起請(qǐng)求,則會(huì)報(bào)如下錯(cuò)誤:
UnicodeEncodeError: 'ascii' codec can't encode characters in position 15-17: ordinal not in range(128)
url的特性:url不可以存在非ASCII編碼字符數(shù)據(jù),url必須為ASCII編碼的數(shù)據(jù)值。所以我們?cè)谂老x(chóng)代碼中編寫(xiě)url時(shí),如果url中存在非ASCII編碼的數(shù)據(jù)值,則必須對(duì)其進(jìn)行ASCII編碼后,該url方可被使用。
上面的“周杰倫” 不是ASCII編碼字符數(shù)據(jù),所以u(píng)rl就會(huì)變成無(wú)效的url,不符合url特性,所以報(bào)錯(cuò)誤
所以必須對(duì)url中的非ascii的數(shù)據(jù)進(jìn)行ascii的編碼,則該url方可被發(fā)起請(qǐng)求:
需要用到 urllib.parse
方法 1:使用quote函數(shù)
quote函數(shù)作用:對(duì)url中所存在的特殊字符進(jìn)行ASCII的編碼,把url中的非ascii編碼的字符單獨(dú)取出來(lái),使用quote函數(shù)進(jìn)行轉(zhuǎn)碼,
轉(zhuǎn)碼之后,把轉(zhuǎn)碼的結(jié)果拼接到原有的url當(dāng)中。
import urllib.request import urllib.parse # 1.指定url url = 'https://www.sogou.com/web?query=周杰倫' word = urllib.parse.quote("周杰倫") # 查看轉(zhuǎn)碼后結(jié)果 print(word) # %E5%91%A8%E6%9D%B0%E4%BC%A6
from urllib.request import urlopen import urllib.parse # 1.指定url url = 'https://www.sogou.com/web?query=' # url的特性:url不可以存在非ASCII編碼字符數(shù)據(jù) word = urllib.parse.quote("周杰倫") # 將編碼后的數(shù)據(jù)值拼接回url中 url = url+word # 有效url ''' 2.發(fā)起請(qǐng)求:使用urlopen函數(shù)對(duì)指定的url發(fā)起請(qǐng)求, 該函數(shù)返回一個(gè)響應(yīng)對(duì)象,urlopen代表打開(kāi)url ''' response = urlopen(url=url) # 3.獲取響應(yīng)對(duì)象中的頁(yè)面數(shù)據(jù):read函數(shù)可以獲取響應(yīng)對(duì)象中存儲(chǔ)的頁(yè)面數(shù)據(jù)(byte類(lèi)型的數(shù)據(jù)值) page_text = response.read() # 4.持久化存儲(chǔ):將爬取的頁(yè)面數(shù)據(jù)寫(xiě)入文件進(jìn)行保存 with open("周杰倫.html","wb") as f: f.write(page_text) print("寫(xiě)入數(shù)據(jù)成功")
以上就是本文的全部?jī)?nèi)容,希望對(duì)大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。
- python爬蟲(chóng)開(kāi)發(fā)之使用python爬蟲(chóng)庫(kù)requests,urllib與今日頭條搜索功能爬取搜索內(nèi)容實(shí)例
- python爬蟲(chóng)開(kāi)發(fā)之urllib模塊詳細(xì)使用方法與實(shí)例全解
- Python爬蟲(chóng)之urllib基礎(chǔ)用法教程
- Python爬蟲(chóng) urllib2的使用方法詳解
- python爬蟲(chóng) urllib模塊反爬蟲(chóng)機(jī)制UA詳解
- Python3爬蟲(chóng)之urllib攜帶cookie爬取網(wǎng)頁(yè)的方法
- python爬蟲(chóng)之urllib,偽裝,超時(shí)設(shè)置,異常處理的方法
- python爬蟲(chóng)之urllib3的使用示例
- python利用urllib實(shí)現(xiàn)爬取京東網(wǎng)站商品圖片的爬蟲(chóng)實(shí)例
- python爬蟲(chóng)基礎(chǔ)之urllib的使用
相關(guān)文章
淺談?dòng)肰SCode寫(xiě)python的正確姿勢(shì)
本篇文章主要介紹了淺談?dòng)肰SCode寫(xiě)python的正確姿勢(shì),小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,也給大家做個(gè)參考。一起跟隨小編過(guò)來(lái)看看吧2017-12-12python基礎(chǔ)教程之popen函數(shù)操作其它程序的輸入和輸出示例
popen函數(shù)允許一個(gè)程序?qū)⒘硪粋€(gè)程序作為新進(jìn)程啟動(dòng),并可以傳遞數(shù)據(jù)給它或者通過(guò)它接收數(shù)據(jù),下面使用示例學(xué)習(xí)一下他的使用方法2014-02-02跨平臺(tái)python異步回調(diào)機(jī)制實(shí)現(xiàn)和使用方法
這篇文章主要介紹了python異步回調(diào)機(jī)制的實(shí)現(xiàn)方法,提供了使用方法代碼2013-11-11python使用內(nèi)存zipfile對(duì)象在內(nèi)存中打包文件示例
這篇文章主要介紹了python使用內(nèi)存zipfile對(duì)象在內(nèi)存中打包文件示例,需要的朋友可以參考下2014-04-04Python Django使用forms來(lái)實(shí)現(xiàn)評(píng)論功能
這篇文章主要為大家詳細(xì)介紹了Python Django使用forms來(lái)實(shí)現(xiàn)評(píng)論功能,具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下2016-08-08Python實(shí)現(xiàn)比較兩個(gè)列表(list)范圍
這篇文章主要介紹了Python實(shí)現(xiàn)比較兩個(gè)列表(list)范圍,本文根據(jù)一道題目實(shí)現(xiàn)解決代碼,本文分別給出題目和解答源碼,需要的朋友可以參考下2015-06-06Python超詳細(xì)講解內(nèi)存管理機(jī)制
本章主要介紹Pyhon的內(nèi)存管理,以Pyhon的計(jì)數(shù)機(jī)制作為引入,介紹Pyhon的內(nèi)存管理方式,感興趣的朋友來(lái)看看吧2022-06-06Python正則表達(dá)式實(shí)現(xiàn)截取成對(duì)括號(hào)的方法
這篇文章主要介紹了Python正則表達(dá)式實(shí)現(xiàn)截取成對(duì)括號(hào)的方法,涉及Python正則匹配相關(guān)操作技巧,需要的朋友可以參考下2017-01-01