欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

詳解Python3網(wǎng)絡(luò)爬蟲(二):利用urllib.urlopen向有道翻譯發(fā)送數(shù)據(jù)獲得翻譯結(jié)果

 更新時(shí)間:2019年05月07日 15:11:27   作者:Jack-Cui  
這篇文章主要介紹了Python3網(wǎng)絡(luò)爬蟲(二):利用urllib.urlopen向有道翻譯發(fā)送數(shù)據(jù)獲得翻譯結(jié)果,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧

上一篇內(nèi)容,已經(jīng)學(xué)會(huì)了使用簡(jiǎn)單的語(yǔ)句對(duì)網(wǎng)頁(yè)進(jìn)行抓取。接下來(lái),詳細(xì)看下urlopen的兩個(gè)重要參數(shù)url和data,學(xué)習(xí)如何發(fā)送數(shù)據(jù)data

一、urlopen的url參數(shù) Agent

url不僅可以是一個(gè)字符串,例如:http://www.baidu.com。url也可以是一個(gè)Request對(duì)象,這就需要我們先定義一個(gè)Request對(duì)象,然后將這個(gè)Request對(duì)象作為urlopen的參數(shù)使用,方法如下:

# -*- coding: UTF-8 -*-
from urllib import request

if __name__ == "__main__":
  req = request.Request("http://fanyi.baidu.com/")
  response = request.urlopen(req)
  html = response.read()
  html = html.decode("utf-8")
  print(html)

同樣,運(yùn)行這段代碼同樣可以得到網(wǎng)頁(yè)信息。可以看一下這段代碼和上個(gè)筆記中代碼的不同,對(duì)比一下就明白了。

urlopen()返回的對(duì)象,可以使用read()進(jìn)行讀取,同樣也可以使用geturl()方法、info()方法、getcode()方法。

geturl()返回的是一個(gè)url的字符串;

info()返回的是一些meta標(biāo)記的元信息,包括一些服務(wù)器的信息;

getcode()返回的是HTTP的狀態(tài)碼,如果返回200表示請(qǐng)求成功。

關(guān)于META標(biāo)簽和HTTP狀態(tài)碼的內(nèi)容可以自行百度百科,里面有很詳細(xì)的介紹。

了解到這些,我們就可以進(jìn)行新一輪的測(cè)試,新建文件名urllib_test04.py,編寫如下代碼:

# -*- coding: UTF-8 -*-
from urllib import request

if __name__ == "__main__":
  req = request.Request("http://fanyi.baidu.com/")
  response = request.urlopen(req)
  print("geturl打印信息:%s"%(response.geturl()))
  print('**********************************************')
  print("info打印信息:%s"%(response.info()))
  print('**********************************************')
  print("getcode打印信息:%s"%(response.getcode()))

可以得到如下運(yùn)行結(jié)果:

二、urlopen的data參數(shù)

我們可以使用data參數(shù),向服務(wù)器發(fā)送數(shù)據(jù)。根據(jù)HTTP規(guī)范,GET用于信息獲取,POST是向服務(wù)器提交數(shù)據(jù)的一種請(qǐng)求,再換句話說(shuō):

從客戶端向服務(wù)器提交數(shù)據(jù)使用POST;

從服務(wù)器獲得數(shù)據(jù)到客戶端使用GET(GET也可以提交,暫不考慮)。

如果沒(méi)有設(shè)置urlopen()函數(shù)的data參數(shù),HTTP請(qǐng)求采用GET方式,也就是我們從服務(wù)器獲取信息,如果我們?cè)O(shè)置data參數(shù),HTTP請(qǐng)求采用POST方式,也就是我們向服務(wù)器傳遞數(shù)據(jù)。

data參數(shù)有自己的格式,它是一個(gè)基于application/x-www.form-urlencoded的格式,具體格式我們不用了解, 因?yàn)槲覀兛梢允褂胾rllib.parse.urlencode()函數(shù)將字符串自動(dòng)轉(zhuǎn)換成上面所說(shuō)的格式。

三、發(fā)送data實(shí)例

向有道翻譯發(fā)送data,得到翻譯結(jié)果。

1.打開有道翻譯界面,如下圖所示:

2.鼠標(biāo)右鍵檢查,也就是審查元素,如下圖所示:

3.選擇右側(cè)出現(xiàn)的Network,如下圖所示:

4.在左側(cè)輸入翻譯內(nèi)容,輸入Jack,如下圖所示:

5.點(diǎn)擊自動(dòng)翻譯按鈕,我們就可以看到右側(cè)出現(xiàn)的內(nèi)容,如下圖所示:

6.點(diǎn)擊上圖紅框中的內(nèi)容,查看它的信息,如下圖所示:

7.記住這些信息,這是我們一會(huì)兒寫程序需要用到的。

新建文件translate_test.py,編寫如下代碼:

# -*- coding: UTF-8 -*-
from urllib import request
from urllib import parse
import json

if __name__ == "__main__":
  #對(duì)應(yīng)上圖的Request URL
  Request_URL = 'http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule&smartresult=ugc&sessionFrom=https://www.baidu.com/link'
  #創(chuàng)建Form_Data字典,存儲(chǔ)上圖的Form Data
  Form_Data = {}
  Form_Data['type'] = 'AUTO'
  Form_Data['i'] = 'Jack'
  Form_Data['doctype'] = 'json'
  Form_Data['xmlVersion'] = '1.8'
  Form_Data['keyfrom'] = 'fanyi.web'
  Form_Data['ue'] = 'ue:UTF-8'
  Form_Data['action'] = 'FY_BY_CLICKBUTTON'
  #使用urlencode方法轉(zhuǎn)換標(biāo)準(zhǔn)格式
  data = parse.urlencode(Form_Data).encode('utf-8')
  #傳遞Request對(duì)象和轉(zhuǎn)換完格式的數(shù)據(jù)
  response = request.urlopen(Request_URL,data)
  #讀取信息并解碼
  html = response.read().decode('utf-8')
  #使用JSON
  translate_results = json.loads(html)
  #找到翻譯結(jié)果
  translate_results = translate_results['translateResult'][0][0]['tgt']
  #打印翻譯信息
  print("翻譯的結(jié)果是:%s" % translate_results)

這樣我們就可以查看翻譯的結(jié)果了,如下圖所示:

JSON是一種輕量級(jí)的數(shù)據(jù)交換格式,我們需要從爬取到的內(nèi)容中找到JSON格式的數(shù)據(jù),這里面保存著我們想要的翻譯結(jié)果,再將得到的JSON格式的翻譯結(jié)果進(jìn)行解析,得到我們最終想要的樣子:杰克。

以上所述是小編給大家介紹的Python3網(wǎng)絡(luò)爬蟲(二):利用urllib.urlopen向有道翻譯發(fā)送數(shù)據(jù)獲得翻譯結(jié)果詳解整合,希望對(duì)大家有所幫助,如果大家有任何疑問(wèn)請(qǐng)給我留言,小編會(huì)及時(shí)回復(fù)大家的。在此也非常感謝大家對(duì)腳本之家網(wǎng)站的支持!

相關(guān)文章

最新評(píng)論