Python Http請求json解析庫用法解析
httpparser介紹
:1.解析字節(jié)類型的http與https請求數(shù)據(jù)
:2.支持已k-v形式修改請求數(shù)據(jù)
:3.支持重新編碼請求數(shù)據(jù)
源碼
import json __author = "-ling" def parser(request_data): # 獲取請求的三個段: # 1.請求方法 URI協(xié)議 版本 # 2.請求頭(Request Header) # 3.請求正文 index0 = request_data.find(b"\r\n\r\n") request_predata = request_data[0:index0] index1 = request_predata.find(b"\r\n") # 請求方法 URI協(xié)議 版本 request_first_data = request_predata[0:index1].decode("utf-8") request_first = {} count = 0 list = ["method", 'url', 'version'] for line in request_first_data.split(" "): if line != "": request_first[list[count]] = line count += 1 # print("解析請求方法 URI協(xié)議 版本:",request_first) # 請求頭(Request Header) request_header_data = request_predata[index1:].decode("utf-8") request_headers = {} for line in request_header_data.split("\r\n"): if line != "": line = line.replace(" ","") restemp = line.split(":") if restemp[0] == "Host" and len(restemp) == 3: restemp[1] = restemp[1] + ":" +restemp[2] request_headers[restemp[0]] = restemp[1] # print("請求頭(Request Header):",request_headers) # 請求正文 request_nextdata = request_data[index0:].decode("utf-8") request_content_temp = request_nextdata.replace("\r\n", "") request_content = None if request_content_temp != "": try: request_content = json.loads(request_content_temp) except: request_content = {'content':request_content_temp} # print("請求正文:",request_content) else: pass # print("無請求正文!") return request_first,request_headers,request_content,request_nextdata def update_first_data(request_first_data,field,data): request_first_data[field] = data def update_request_headers(request_headers,field,data): request_headers[field] = data def update_request_content(request_content,field,data): request_content[field] = data def encode(request_first_data,request_headers,request_content): request_data = b"" list = ["method", 'url', 'version'] for key in list: request_data += (request_first_data[key] + " ").encode("utf-8") request_data += "\r\n".encode("utf-8") for key in request_headers.keys(): request_data += (key + ":" + request_headers[key]).encode("utf-8") request_data += "\r\n".encode("utf-8") request_data += "\r\n".encode("utf-8") if request_content != None: request_data += json.dumps(request_content).encode("utf-8") # print("重新編碼以后的數(shù)據(jù):",request_data.decode("utf-8")) return request_data
如何使用
1.解析請求數(shù)據(jù)
request_first,request_headers,request_content,request_nextdata = httpparser.parser(request_data)
2.修改或者增加各個部分的字段使用
- update_first_data :修改第一行字段數(shù)據(jù)
- update_request_headers :修改請求頭或者增加請求頭字段
- update_request_content :修改請求內(nèi)容字段或者增加請求內(nèi)容
3.再編碼三個部分的數(shù)據(jù)
encode(request_first_data,request_headers,request_content)
示例(http返回數(shù)據(jù)如下):
b'HTTP/1.0 200 OK\r\nContent-Type: text/html; charset=utf-8\r\nContent-Length: 13\r\nServer: Werkzeug/1.0.1 Python/3.7.7\r\nDate: Thu, 15 Oct 2020 02:58:54 GMT\r\n\r\n<h1>foo!</h1>'
解析出來的數(shù)據(jù):
注意:(parser傳入字節(jié)類型數(shù)據(jù))
解析數(shù)據(jù): {'method': 'HTTP/1.0', 'url': '200', 'version': '
以上就是本文的全部內(nèi)容,希望對大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。
相關(guān)文章
Python 爬蟲之Beautiful Soup模塊使用指南
這篇文章主要介紹了Python 爬蟲之Beautiful Soup模塊使用指南,小編覺得挺不錯的,現(xiàn)在分享給大家,也給大家做個參考。一起跟隨小編過來看看吧2018-07-07解決使用Pandas 讀取超過65536行的Excel文件問題
這篇文章主要介紹了解決使用Pandas 讀取超過65536行的Excel文件問題,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2020-11-11