Python爬蟲實現(xiàn)百度翻譯功能過程詳解
首先,需要簡單的了解一下爬蟲,盡可能簡單快速的上手,其次,需要了解的是百度的API的接口,搞定這個之后,最后,按照官方給出的demo,然后寫自己的一個小程序
打開瀏覽器 F12 打開百度翻譯網(wǎng)頁源代碼:

我們可以輕松的找到百度翻譯的請求接口為:http://fanyi.baidu.com/sug

然后我們可以從方法為POST的請求中找到參數(shù)為:kw:job(job是輸入翻譯的內容)


下面是代碼部分:
from urllib import request,parse
import json
def translate(content):
url = "http://fanyi.baidu.com/sug"
data = parse.urlencode({"kw":content}) # 將參數(shù)進行轉碼
headers = {
'User-Agent': 'Opera/9.80 (Android 2.3.4; Linux; Opera Mobi/build-1107180945; U; en-GB) Presto/2.8.149 Version/11.10'
}
req = request.Request(url,data=bytes(data,encoding="utf-8"),headers=headers)
r = request.urlopen(req)
# print(r.code) 查看返回的狀態(tài)碼
html = r.read().decode('utf-8')
# json格式化
html = json.loads(html)
# print(html)
for k in html["data"]:
print(k["k"],k["v"])
if __name__ == '__main__':
content = input("請輸入您要翻譯的內容:")
translate(content)
結果如下

以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支持腳本之家。
相關文章
pytorch實現(xiàn)特殊的Module--Sqeuential三種寫法
今天小編就為大家分享一篇pytorch實現(xiàn)特殊的Module--Sqeuential三種寫法。具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2020-01-01
python基于xml parse實現(xiàn)解析cdatasection數(shù)據(jù)
這篇文章主要介紹了python基于xml parse實現(xiàn)解析cdatasection數(shù)據(jù)的方法,是非常實用技巧,需要的朋友可以參考下2014-09-09
詳解在python中如何使用zlib模塊進行數(shù)據(jù)壓縮和解壓縮
Python有一些內置庫用于處理數(shù)據(jù)壓縮和解壓縮,其中一個就是zlib模塊,這個模塊為DEFLATE壓縮算法和相關的gzip(文件格式)提供了支持,在這篇文章中,我們將深入探討如何使用zlib模塊進行數(shù)據(jù)壓縮和解壓縮2023-06-06
國產麒麟系統(tǒng)kylin部署python項目詳細步驟
這篇文章主要給大家介紹了關于國產麒麟系統(tǒng)kylin部署python項目的相關資料,文中通過代碼示例介紹的非常詳細,對大家的學習或者工作具有一定的參考借鑒價值,需要的朋友可以參考下2023-09-09
Python簡單連接MongoDB數(shù)據(jù)庫的方法
這篇文章主要介紹了Python簡單連接MongoDB數(shù)據(jù)庫的方法,結合實例形式分析了Python使用pymongo模塊操作MongoDB數(shù)據(jù)庫的相關技巧,需要的朋友可以參考下2016-03-03
Python中使用logging模塊代替print(logging簡明指南)
這篇文章主要介紹了Python中使用logging模塊代替print的好處說明,主旨是logging模塊簡明指南,logging模塊的使用方法介紹,需要的朋友可以參考下2014-07-07

