欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

python socket 超時(shí)設(shè)置 errno 10054

 更新時(shí)間:2014年07月01日 23:08:16   投稿:mdxy-dxy  
這篇文章主要介紹了python 遠(yuǎn)程主機(jī)強(qiáng)迫關(guān)閉了一個(gè)現(xiàn)有的連接 socket 超時(shí)設(shè)置 errno 10054 ,需要的朋友可以參考下

python socket.error: [Errno 10054] 遠(yuǎn)程主機(jī)強(qiáng)迫關(guān)閉了一個(gè)現(xiàn)有的連接。問題解決方案:

前幾天使用python讀取網(wǎng)頁。因?yàn)閷?duì)一個(gè)網(wǎng)站大量的使用urlopen操作,所以會(huì)被那個(gè)網(wǎng)站認(rèn)定為攻擊行為。有時(shí)就不再允許下載。導(dǎo)致urlopen()后,request.read()一直卡死在那里。最后會(huì)拋出errno 10054.

這個(gè)錯(cuò)誤是connection reset by peer.也就是傳說的遠(yuǎn)端主機(jī)重置了此連接。原因可能是socket超時(shí)時(shí)間過長;也可能是request = urllib.request.urlopen(url)之后,沒有進(jìn)行request.close()操作;也可能是沒有sleep幾秒,導(dǎo)致網(wǎng)站認(rèn)定這種行為是攻擊。

具體解決方案如下面的代碼:

01.import socket 
02.import time 
03.timeout = 20  
04.socket.setdefaulttimeout(timeout)#這里對(duì)整個(gè)socket層設(shè)置超時(shí)時(shí)間。后續(xù)文件中如果再使用到socket,不必再設(shè)置  
05.sleep_download_time = 10 
06.time.sleep(sleep_download_time) #這里時(shí)間自己設(shè)定  
07.request = urllib.request.urlopen(url)#這里是要讀取內(nèi)容的url  
08.content = request.read()#讀取,一般會(huì)在這里報(bào)異常  
09.request.close()#記得要關(guān)閉 

因?yàn)閡rlopen之后的read()操作其實(shí)是調(diào)用了socket層的某些函數(shù)。所以設(shè)置socket缺省超時(shí)時(shí)間,就可以讓網(wǎng)絡(luò)自己斷掉。不必在read()處一直等待。

當(dāng)然你也可以再外層再寫幾個(gè)try,except,例如:

try: 
  time.sleep(self.sleep_download_time) 
  request = urllib.request.urlopen(url) 
  content = request.read() 
  request.close() 
   
except UnicodeDecodeError as e: 
     
  print('-----UnicodeDecodeError url:',url) 
   
except urllib.error.URLError as e: 
  print("-----urlError url:",url) 
 
except socket.timeout as e: 
  print("-----socket timout:",url) 

一般來說就莫有問題了。我測(cè)試了幾千個(gè)網(wǎng)頁的下載,然后才說出此話。不過如果是下載成千上萬的,我做了下測(cè)試,ms還是會(huì)跳出這個(gè)異常??赡苁莟ime.sleep()的時(shí)間太短,也可能是網(wǎng)絡(luò)突然中斷。我使用urllib.request.retrieve()測(cè)試了一下,發(fā)現(xiàn)不停的下載數(shù)據(jù),總會(huì)有失敗的情況出現(xiàn)。

簡單的處理方法是:首先參照的我的文章:python檢查點(diǎn)簡單實(shí)現(xiàn) 。先做一個(gè)檢查點(diǎn)。然后將以上會(huì)跑出異常的那段代碼while True一下。參見下面的偽代碼:

def Download_auto(downloadlist,fun,sleep_time=15): 
  while True:     
    try: # 外包一層try  
      value = fun(downloadlist,sleep_time) # 這里的fun是你的下載函數(shù),我當(dāng)函數(shù)指針傳進(jìn)來。 
      # 只有正常執(zhí)行方能退出。  
      if value == Util.SUCCESS: 
        break 
    except : # 如果發(fā)生了10054或者IOError或者XXXError 
      sleep_time += 5 #多睡5秒,重新執(zhí)行以上的download.因?yàn)樽隽藱z查點(diǎn)的緣故,上面的程序會(huì)從拋出異常的地方繼續(xù)執(zhí)行。防止了因?yàn)榫W(wǎng)絡(luò)連接不穩(wěn)定帶來的程序中斷。 
      print('enlarge sleep time:',sleep_time) 

不過對(duì)于找不到相應(yīng)的網(wǎng)頁,又要做另外的一番處理:

# 打印下載信息  
def reporthook(blocks_read, block_size, total_size): 
  if not blocks_read: 
    print ('Connection opened') 
  if total_size < 0: 
    print ('Read %d blocks' % blocks_read) 
  else: 
    # 如果找不到,頁面不存在,可能totalsize就是0,不能計(jì)算百分比  
    print('downloading:%d MB, totalsize:%d MB' % (blocks_read*block_size/1048576.0,total_size/1048576.0)) 
    
 
def Download(path,url): 
#url = 'http://downloads.sourceforge.net/sourceforge/alliancep2p/Alliance-v1.0.6.jar' 
  #filename = url.rsplit("/")[-1]  
  try: 
  # python自帶的下載函數(shù)  
    urllib.request.urlretrieve(url, path, reporthook) 
  except IOError as e: # 如果找不到,好像會(huì)引發(fā)IOError。 
    print("download ",url,"/nerror:",e) 
  print("Done:%s/nCopy to:%s" %(url,path)) 

如果大家還是遇到了問題...請(qǐng)?jiān)僭u(píng)論里注上其他解決方案。

相關(guān)文章

最新評(píng)論