Python尾遞歸優(yōu)化實現(xiàn)代碼及原理詳解
在傳統(tǒng)的遞歸中,典型的模式是,你執(zhí)行第一個遞歸調用,然后接著調用下一個遞歸來計算結果。這種方式中途你是得不到計算結果,知道所有的遞歸調用都返回。 這樣雖然很大程度上簡潔了代碼編寫,但是讓人很難它跟高效聯(lián)系起來。因為隨著遞歸的深入,之前的一些變量需要分配堆棧來保存。
尾遞歸相對傳統(tǒng)遞歸,其是一種特例。在尾遞歸中,先執(zhí)行某部分的計算,然后開始調用遞歸,所以你可以得到當前的計算結果,而這個結果也將作為參數(shù)傳入下一次遞歸。這也就是說函數(shù)調用出現(xiàn)在調用者函數(shù)的尾部,因為是尾部,所以其有一個優(yōu)越于傳統(tǒng)遞歸之處在于無需去保存任何局部變量,從內存消耗上,實現(xiàn)節(jié)約特性。
下面以遞歸計算加法的實例來說明:
我們用python實現(xiàn):
普通遞歸調用:
def recursion(n):
if n==1:
return n
else:
return n+recursion(n-1)
調用這個函數(shù)recursion(5),編譯器會執(zhí)行:
recursion(5)
5+recursion(4)
5+(4+recursion(3))
5+(4+(3+recursion(2)))
5+(4+(3+(2+recursion(1))))
5+(4+(3+(2+1)))
15
此處編譯器會分配遞歸棧來保存中間結果
下來看尾遞歸實現(xiàn):
def tail_recursion(n,total=0):
if n==0:
return total
else:
return tail_recursion(n-1, total+n)
此時,編譯器做的工作:
tail_recursion(5,0)
tail_recursion(4,5)
tail_recursion(3,9)
tail_recursion(2,12)
tail_recursion(1,14)
tail_recursion(0,15)
15
你可以看到當前時刻的計算值作為第二個參數(shù)傳入下一個遞歸,使得系統(tǒng)不再需要保留之前計算結果。
尾遞歸的優(yōu)勢就顯而易見了。
但是python本身不支持尾遞歸(沒有對尾遞歸做優(yōu)化),而且對遞歸的次數(shù)有限制,當遞歸深度超過1000時,會拋出異常:
分別執(zhí)行recursion(998),tail_recursion(998,0)
輸出:
498501
498501
沒有問題,當調用
recursion(999),tail_recursion(999,0)時,
輸出:RuntimeError: maximum recursion depth exceeded
因為遞歸次數(shù)超出了1000
有人對此為Python的尾遞歸寫了一個優(yōu)化版本,讓Python突破遞歸調用1000次的限制:Tail Call Optimization Decorator (Python recipe)
以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支持腳本之家。
相關文章
python數(shù)據(jù)預處理之數(shù)據(jù)標準化的幾種處理方式
這篇文章主要介紹了python數(shù)據(jù)預處理之數(shù)據(jù)標準化的幾種處理方式,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧2019-07-07
python進階TensorFlow神經(jīng)網(wǎng)絡擬合線性及非線性函數(shù)
這篇文章是python進階學習主要介紹了TensorFlow神經(jīng)網(wǎng)絡擬合線性及非線性函數(shù)原理及示例解析,有需要的朋友可以借鑒參考下,希望能夠有所幫助2021-10-10
Python爬取YY評級分數(shù)并保存數(shù)據(jù)實現(xiàn)過程解析
這篇文章主要介紹了Python爬取YY評級分數(shù)并保存數(shù)據(jù)實現(xiàn)過程解析,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友可以參考下2020-06-06
Python學習筆記之open()函數(shù)打開文件路徑報錯問題
這篇文章主要介紹了Python學習筆記之open()函數(shù)打開文件路徑報錯問題,小編覺得挺不錯的,現(xiàn)在分享給大家,也給大家做個參考。一起跟隨小編過來看看吧2018-04-04

