python socket 超時設置 errno10054


python socket.error: [Errno 10054] 遠程主機強迫關閉了一個現有的連接。問題解決方案:

前幾天使用python讀取網頁。因為對一個網站大量的使用urlopen操作,所以會被那個網站認定為攻擊行為。有時就不再允許下載。導致urlopen()后,request.read()一直卡死在那里。最后會拋出errno 10054.

這 個錯誤是connection reset by peer.也就是傳說的遠端主機重置了此連接。原因可能是socket超時時間過長;也可能是request = urllib.request.urlopen(url)之后,沒有進行request.close()操作;也可能是沒有sleep幾秒,導致網站認定 這種行為是攻擊。

具體解決方案如下面的代碼:

view plaincopy to clipboardprint?
import socket  
import time  
timeout = 20    
socket.setdefaulttimeout(timeout)#這里對整個socket層設置超時時間。后續文件中如果再使用到socket,不必再設置  
sleep_download_time = 10 
time.sleep(sleep_download_time) #這里時間自己設定  
request = urllib.request.urlopen(url)#這里是要讀取內容的url  
content = request.read()#讀取,一般會在這里報異常  
request.close()#記得要關閉 
import socket
import time
timeout = 20 
socket.setdefaulttimeout(timeout)#這里對整個socket層設置超時時間。后續文件中如果再使用到socket,不必再設置
sleep_download_time = 10
time.sleep(sleep_download_time) #這里時間自己設定
request = urllib.request.urlopen(url)#這里是要讀取內容的url
content = request.read()#讀取,一般會在這里報異常
request.close()#記得要關閉

因為urlopen之后的read()操作其實是調用了socket層的某些函數。所以設置socket缺省超時時間,就可以讓網絡自己斷掉。不必在read()處一直等待。

當然你也可以再外層再寫幾個try,except,例如:

view plaincopy to clipboardprint?
try:  
    time.sleep(self.sleep_download_time)  
    request = urllib.request.urlopen(url)  
    content = request.read()  
    request.close()  
      
except UnicodeDecodeError as e:  
         
    print('-----UnicodeDecodeErrorurl:',url)  
      
except urllib.error.URLError as e:  
    print("-----urlErrorurl:",url)  
 
except socket.timeout as e:  
    print("-----socket timout:",url) 
        try:
            time.sleep(self.sleep_download_time)
            request = urllib.request.urlopen(url)
            content = request.read()
            request.close()
           
        except UnicodeDecodeError as e:
              
            print('-----UnicodeDecodeErrorurl:',url)
           
        except urllib.error.URLError as e:
            print("-----urlErrorurl:",url)
  
        except socket.timeout as e:
            print("-----socket timout:",url)

一 般來說就莫有問題了。我測試了幾千個網頁的下載,然后才說出此話。不過如果是下載成千上萬的,我做了下測試,ms還是會跳出這個異常。可能是 time.sleep()的時間太短,也可能是網絡突然中斷。我使用urllib.request.retrieve()測試了一下,發現不停的下載數 據,總會有失敗的情況出現。

簡單的處理方法是:首先參照的我的文章:python檢查點簡單實現 。先做一個檢查點。然后將以上會跑出異常的那段代碼while True一下。參見下面的偽代碼:

view plaincopy to clipboardprint?
def Download_auto(downloadlist,fun,sleep_time=15):  
    while True:          
        try: # 外包一層try   
            value = fun(downloadlist,sleep_time) # 這里的fun是你的下載函數,我當函數指針傳進來。 
           # 只有正常執行方能退出。  
            if value == Util.SUCCESS:  
                break 
        except : # 如果發生了10054或者IOError或者XXXError  
            sleep_time += 5 #多睡5秒,重新執行以上的download.因為做了檢查點的緣故,上面的程序會從拋出異常的地方繼續執行。防止了因為網絡連接不穩定帶來的程序中斷。  
            print('enlarge sleep time:',sleep_time) 
def Download_auto(downloadlist,fun,sleep_time=15):
    while True:       
        try: # 外包一層try
            value = fun(downloadlist,sleep_time) # 這里的fun是你的下載函數,我當函數指針傳進來。
           # 只有正常執行方能退出。
            if value == Util.SUCCESS:
                break
        except : # 如果發生了10054或者IOError或者XXXError
            sleep_time += 5 #多睡5秒,重新執行以上的download.因為做了檢查點的緣故,上面的程序會從拋出異常的地方繼續執行。防止了因為網絡連接不穩定帶來的程序中斷。
            print('enlarge sleep time:',sleep_time)

不過對於找不到相應的網頁,又要做另外的一番處理:

view plaincopy to clipboardprint?
# 打印下載信息  
def reporthook(blocks_read, block_size, total_size):  
    if not blocks_read:  
        print ('Connection opened')  
    if total_size < 0:  
        print ('Read %d blocks' % blocks_read)  
    else: 
        # 如果找不到,頁面不存在,可能totalsize就是0,不能計算百分比  
        print('downloading:%d MB, totalsize:%d MB' % (blocks_read*block_size/1048576.0,total_size/1048576.0))  
        
 
def Download(path,url): 
#url = 'http://downloads.sourceforge.net/sourceforge/alliancep2p/Alliance-v1.0.6.jar' 
    #filename = url.rsplit("/")[-1]  
    try: 
    # python自帶的下載函數  
        urllib.request.urlretrieve(url, path, reporthook)  
    except IOError as e: # 如果找不到,好像會引發IOError。  
        print("download ",url,"\nerror:",e)  
    print("Done:%s\nCopy to:%s" %(url,path)) 
# 打印下載信息
def reporthook(blocks_read, block_size, total_size):
    if not blocks_read:
        print ('Connection opened')
    if total_size < 0:
        print ('Read %d blocks' % blocks_read)
    else:
        # 如果找不到,頁面不存在,可能totalsize就是0,不能計算百分比
        print('downloading:%d MB, totalsize:%d MB' % (blocks_read*block_size/1048576.0,total_size/1048576.0))
     

def Download(path,url):
#url = 'http://downloads.sourceforge.net/sourceforge/alliancep2p/Alliance-v1.0.6.jar'
    #filename = url.rsplit("/")[-1]
    try:
    # python自帶的下載函數
        urllib.request.urlretrieve(url, path, reporthook)
    except IOError as e: # 如果找不到,好像會引發IOError。
        print("download ",url,"\nerror:",e)
    print("Done:%s\nCopy to:%s" %(url,path))

如果大家還是遇到了問題...請再評論里注上其他解決方案。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM