python的urllib.parse用法及說明
python的urllib.parse用法
urllib.parse解析
url:urllib.parse.urlparse(url, scheme='', allow_fragments=True) url:urllib.parse.urlparse(url, scheme='', allow_fragments=True)
簡單的使用:
urlparse
from urllib import request, parse2 #解析url print(parse.urlparse('https://movie.douban.com/')) print(parse.urlparse('https://movie.douban.com/', scheme='http')) print(parse.urlparse('movie.douban.com/', scheme='http')) # 下面是結(jié)果 ParseResult(scheme='https', netloc='movie.douban.com', path='/', params='', query='', fragment='') ParseResult(scheme='https', netloc='movie.douban.com', path='/', params='', query='', fragment='') ParseResult(scheme='http', netloc='', path='movie.douban.com/', params='', query='', fragment='')
可以看出加了scheme參數(shù)和沒加的返回結(jié)果是有區(qū)別的。
而當(dāng)scheme協(xié)議加了,而前面的url也包含協(xié)議,一般會忽略后面的scheme參數(shù)
既然有解析url,那當(dāng)然也有反解析url,就是把元素串連成一個url
from urllib import parse # 將列表元素拼接成url url = ['http', 'www', 'baidu', 'com', 'dfdf', 'eddffa'] # 這里至少需要6個元素 print(parse.urlunparse(url)) # 下面是結(jié)果6http://www/baidu;com?dfdf#eddffa
urlunparse()接收一個列表的參數(shù),而且列表的長度是有要求的,是必須六個參數(shù)以上,要不會拋出異常
urllib.parse.urljoin():這個是將第二個參數(shù)的url缺少的部分用第一個參數(shù)的url補(bǔ)齊
# 連接兩個參數(shù)的url, 將第二個參數(shù)中缺的部分用第一個參數(shù)的補(bǔ)齊,如果第二個有完整的路徑,則以第二個為主 print(parse.urljoin('https://movie.douban.com/', 'index')) print(parse.urljoin('https://movie.douban.com/', 'https://accounts.douban.com/login')) # 下面是結(jié)果 https://movie.douban.com/index6 https://accounts.douban.com/login
urlencodeurllib庫里面有個urlencode函數(shù),可以把key-value這樣的鍵值對轉(zhuǎn)換成我們想要的格式,返回的是a=1&b=2這樣的字符串,比如:
>>> from urllib import urlencode >>> data = { ... 'a': 'test', ... 'name': '魔獸' ... } >>> print urlencode(data) a=test&name=%C4%A7%CA%DE 如果只想對一個字符串進(jìn)行urlencode轉(zhuǎn)換,怎么辦?urllib提供另外一個函數(shù):quote() >>> from urllib import quote >>> quote('魔獸') '%C4%A7%CA%DE'
urldecode當(dāng)urlencode之后的字符串傳遞過來之后,接受完畢就要解碼了——urldecode。urllib提供了unquote()這個函數(shù),可沒有urldecode()!
>>> from urllib import unquote >>> unquote('%C4%A7%CA%DE') '\xc4\xa7\xca\xde' >>> print unquote('%C4%A7%CA%DE') 魔獸
urllib.parse模塊
python中提供urllib.parse模塊用來編碼和解碼,分別是urlencode()與unquote()
編碼urlencode()
# 導(dǎo)入parse模塊 from urllib import parse #調(diào)用parse模塊的urlencode()進(jìn)行編碼 query_string = {'wd':'爬蟲'} result = parse.urlencode(query_string) # format函數(shù)格式化字符串,進(jìn)行url拼接 url = 'http://www.baidu.com/s?{}'.format(result) print(url)
對url地址的編碼操作
編碼quote(string)
from urllib import parse url = "http://www.baidu.com/s?wd={}" words = input('請輸入內(nèi)容') #quote()只能對字符串進(jìn)行編碼 query_string = parse.quote(words) url = url.format(query_string) print(url)
quote()只能對字符串編碼,而urlencode()可以對查詢字符串進(jìn)行編碼。
解碼unquote(string)
from urllib import parse string = '%E7%88%AC%E8%99%AB' result = parse.unquote(string) print(result)
解碼就是對編碼后的url進(jìn)行還原
URL地址拼接方式
字符串相加
query1= 'http://www.baidu.com/s?' query2='wd=%E7%88%AC%E8%99%AB' url = query1 + query2
字符串格式化
query2='wd=%E7%88%AC%E8%99%AB' url = 'http://www.baidu.com/s?%s'% query2
format()
# 導(dǎo)入parse模塊 from urllib import parse #調(diào)用parse模塊的urlencode()進(jìn)行編碼 query_string = {'wd':'爬蟲'} result = parse.urlencode(query_string) # format函數(shù)格式化字符串,進(jìn)行url拼接 url = 'http://www.baidu.com/s?{}'.format(result) print(url)
總結(jié)
以上為個人經(jīng)驗(yàn),希望能給大家一個參考,也希望大家多多支持腳本之家。
相關(guān)文章
Python學(xué)習(xí)筆記之字符串和字符串方法實(shí)例詳解
這篇文章主要介紹了Python學(xué)習(xí)筆記之字符串和字符串方法,結(jié)合實(shí)例形式詳細(xì)分析了Python字符串相關(guān)操作函數(shù)與使用技巧,需要的朋友可以參考下2019-08-08Pandas+openpyxl進(jìn)行Excel處理詳解
這篇文章主要為大家詳細(xì)介紹了如何使用pandas和openpyxl庫對多個Excel文件進(jìn)行多種處理的方法,文中的示例代碼講解詳細(xì),感興趣的小伙伴可以了解下2025-02-02python中從str中提取元素到list以及將list轉(zhuǎn)換為str的方法
今天小編就為大家分享一篇python中從str中提取元素到list以及將list轉(zhuǎn)換為str的方法,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2018-06-06transforms.Compose()函數(shù)的使用及說明
這篇文章主要介紹了transforms.Compose()函數(shù)的使用及說明,具有很好的參考價值,希望對大家有所幫助,如有錯誤或未考慮完全的地方,望不吝賜教2023-08-08