python爬蟲 urllib模塊url編碼處理詳解
案例:爬取使用搜狗根據(jù)指定詞條搜索到的頁面數(shù)據(jù)(例如爬取詞條為‘周杰倫'的頁面數(shù)據(jù))
import urllib.request
# 1.指定url
url = 'https://www.sogou.com/web?query=周杰倫'
'''
2.發(fā)起請求:使用urlopen函數(shù)對指定的url發(fā)起請求,
該函數(shù)返回一個響應對象,urlopen代表打開url
'''
response = urllib.request.urlopen(url=url)
# 3.獲取響應對象中的頁面數(shù)據(jù):read函數(shù)可以獲取響應對象中存儲的頁面數(shù)據(jù)(byte類型的數(shù)據(jù)值)
page_text = response.read()
# 4.持久化存儲:將爬取的頁面數(shù)據(jù)寫入文件進行保存
with open("sougou.html","wb") as f:
f.write(page_text)
print("寫入數(shù)據(jù)成功")
f.close()
編碼錯誤
【注意】上述代碼中url存在非ascii編碼的數(shù)據(jù),則該url無效。如果對其發(fā)起請求,則會報如下錯誤:
UnicodeEncodeError: 'ascii' codec can't encode characters in position 15-17: ordinal not in range(128)
url的特性:url不可以存在非ASCII編碼字符數(shù)據(jù),url必須為ASCII編碼的數(shù)據(jù)值。所以我們在爬蟲代碼中編寫url時,如果url中存在非ASCII編碼的數(shù)據(jù)值,則必須對其進行ASCII編碼后,該url方可被使用。
上面的“周杰倫” 不是ASCII編碼字符數(shù)據(jù),所以url就會變成無效的url,不符合url特性,所以報錯誤
所以必須對url中的非ascii的數(shù)據(jù)進行ascii的編碼,則該url方可被發(fā)起請求:
需要用到 urllib.parse
方法 1:使用quote函數(shù)
quote函數(shù)作用:對url中所存在的特殊字符進行ASCII的編碼,把url中的非ascii編碼的字符單獨取出來,使用quote函數(shù)進行轉碼,
轉碼之后,把轉碼的結果拼接到原有的url當中。
import urllib.request
import urllib.parse
# 1.指定url
url = 'https://www.sogou.com/web?query=周杰倫'
word = urllib.parse.quote("周杰倫")
# 查看轉碼后結果
print(word)
# %E5%91%A8%E6%9D%B0%E4%BC%A6
from urllib.request import urlopen
import urllib.parse
# 1.指定url
url = 'https://www.sogou.com/web?query='
# url的特性:url不可以存在非ASCII編碼字符數(shù)據(jù)
word = urllib.parse.quote("周杰倫")
# 將編碼后的數(shù)據(jù)值拼接回url中
url = url+word # 有效url
'''
2.發(fā)起請求:使用urlopen函數(shù)對指定的url發(fā)起請求,
該函數(shù)返回一個響應對象,urlopen代表打開url
'''
response = urlopen(url=url)
# 3.獲取響應對象中的頁面數(shù)據(jù):read函數(shù)可以獲取響應對象中存儲的頁面數(shù)據(jù)(byte類型的數(shù)據(jù)值)
page_text = response.read()
# 4.持久化存儲:將爬取的頁面數(shù)據(jù)寫入文件進行保存
with open("周杰倫.html","wb") as f:
f.write(page_text)
print("寫入數(shù)據(jù)成功")
以上就是本文的全部內(nèi)容,希望對大家的學習有所幫助,也希望大家多多支持腳本之家。
- python爬蟲開發(fā)之使用python爬蟲庫requests,urllib與今日頭條搜索功能爬取搜索內(nèi)容實例
- python爬蟲開發(fā)之urllib模塊詳細使用方法與實例全解
- Python爬蟲之urllib基礎用法教程
- Python爬蟲 urllib2的使用方法詳解
- python爬蟲 urllib模塊反爬蟲機制UA詳解
- Python3爬蟲之urllib攜帶cookie爬取網(wǎng)頁的方法
- python爬蟲之urllib,偽裝,超時設置,異常處理的方法
- python爬蟲之urllib3的使用示例
- python利用urllib實現(xiàn)爬取京東網(wǎng)站商品圖片的爬蟲實例
- python爬蟲基礎之urllib的使用
相關文章
python基礎教程之popen函數(shù)操作其它程序的輸入和輸出示例
popen函數(shù)允許一個程序將另一個程序作為新進程啟動,并可以傳遞數(shù)據(jù)給它或者通過它接收數(shù)據(jù),下面使用示例學習一下他的使用方法2014-02-02
跨平臺python異步回調(diào)機制實現(xiàn)和使用方法
這篇文章主要介紹了python異步回調(diào)機制的實現(xiàn)方法,提供了使用方法代碼2013-11-11
python使用內(nèi)存zipfile對象在內(nèi)存中打包文件示例
這篇文章主要介紹了python使用內(nèi)存zipfile對象在內(nèi)存中打包文件示例,需要的朋友可以參考下2014-04-04
Python Django使用forms來實現(xiàn)評論功能
這篇文章主要為大家詳細介紹了Python Django使用forms來實現(xiàn)評論功能,具有一定的參考價值,感興趣的小伙伴們可以參考一下2016-08-08

