1. 程式人生 > >python 遠端主機強迫關閉了一個現有的連線 socket 超時設定 errno 10054

python 遠端主機強迫關閉了一個現有的連線 socket 超時設定 errno 10054

轉自:
http://blog.csdn.net/cctt_1/article/details/4512103

python socket.error: [Errno 10054] 遠端主機強迫關閉了一個現有的連線。問題解決方案:

前幾天使用python讀取網頁。因為對一個網站大量的使用urlopen操作,所以會被那個網站認定為攻擊行為。有時就不再允許下載。導致urlopen()後,request.read()一直卡死在那裡。最後會丟擲errno 10054.

這個錯誤是connection reset by peer.也就是傳說的遠端主機重置了此連線。原因可能是socket超時時間過長;也可能是request = urllib.request.urlopen(url)之後,沒有進行request.close()操作;也可能是沒有sleep幾秒,導致網站認定這種行為是攻擊。

具體解決方案如下面的程式碼:

  1. import socket  
  2. import time  
  3. timeout = 20
  4. socket.setdefaulttimeout(timeout)#這裡對整個socket層設定超時時間。後續檔案中如果再使用到socket,不必再設定
  5. sleep_download_time = 10
  6. time.sleep(sleep_download_time) #這裡時間自己設定
  7. request = urllib.request.urlopen(url)#這裡是要讀取內容的url
  8. content = request.read()#讀取,一般會在這裡報異常
  9. request.close()#記得要關閉

因為urlopen之後的read()操作其實是呼叫了socket層的某些函式。所以設定socket預設超時時間,就可以讓網路自己斷掉。不必在read()處一直等待。

當然你也可以再外層再寫幾個try,except,例如:

  1. try:  
  2.     time.sleep(self.sleep_download_time)  
  3.     request = urllib.request.urlopen(url)  
  4.     content = request.read()  
  5.     request.close()  
  6. except UnicodeDecodeError as e:  
  7.     print('-----UnicodeDecodeError url:'
    ,url)  
  8. except urllib.error.URLError as e:  
  9.     print("-----urlError url:",url)  
  10. except socket.timeout as e:  
  11.     print("-----socket timout:",url)  

一般來說就莫有問題了。我測試了幾千個網頁的下載,然後才說出此話。不過如果是下載成千上萬的,我做了下測試,ms還是會跳出這個異常。可能是time.sleep()的時間太短,也可能是網路突然中斷。我使用urllib.request.retrieve()測試了一下,發現不停的下載資料,總會有失敗的情況出現。

簡單的處理方法是:首先參照的我的文章:python檢查點簡單實現。先做一個檢查點。然後將以上會跑出異常的那段程式碼while True一下。參見下面的虛擬碼:

  1. def Download_auto(downloadlist,fun,sleep_time=15):  
  2.     while True:          
  3.         try: # 外包一層try
  4.             value = fun(downloadlist,sleep_time) # 這裡的fun是你的下載函式,我當函式指標傳進來。  
  5.            # 只有正常執行方能退出。
  6.             if value == Util.SUCCESS:  
  7.                 break
  8.         except : # 如果發生了10054或者IOError或者XXXError  
  9.             sleep_time += 5 #多睡5秒,重新執行以上的download.因為做了檢查點的緣故,上面的程式會從丟擲異常的地方繼續執行。防止了因為網路連線不穩定帶來的程式中斷。  
  10.             print('enlarge sleep time:',sleep_time)  

不過對於找不到相應的網頁,又要做另外的一番處理:

  1. # 列印下載資訊
  2. def reporthook(blocks_read, block_size, total_size):  
  3.     if not blocks_read:  
  4.         print ('Connection opened')  
  5.     if total_size < 0:  
  6.         print ('Read %d blocks' % blocks_read)  
  7.     else:  
  8.         # 如果找不到,頁面不存在,可能totalsize就是0,不能計算百分比
  9.         print('downloading:%d MB, totalsize:%d MB' % (blocks_read*block_size/1048576.0,total_size/1048576.0))  
  10. def Download(path,url):  
  11. #url = 'http://downloads.sourceforge.net/sourceforge/alliancep2p/Alliance-v1.0.6.jar'
  12.     #filename = url.rsplit("/")[-1]
  13.     try:  
  14.     # python自帶的下載函式
  15.         urllib.request.urlretrieve(url, path, reporthook)  
  16.     except IOError as e: # 如果找不到,好像會引發IOError。  
  17.         print("download ",url,"/nerror:",e)  
  18.     print("Done:%s/nCopy to:%s" %(url,path))