python人工智能tensorflow常用激活函數(shù)Activation?Functions
前言
激活函數(shù)在機器學習中常常用在神經(jīng)網(wǎng)絡隱含層節(jié)點與神經(jīng)網(wǎng)絡的輸出層節(jié)點上,激活函數(shù)的作用是賦予神經(jīng)網(wǎng)絡更多的非線性因素,如果不用激勵函數(shù),輸出都是輸入的線性組合,這種情況與最原始的感知機相當,網(wǎng)絡的逼近能力相當有限。如果能夠引入恰當?shù)姆蔷€性函數(shù)作為激活函數(shù),這樣神經(jīng)網(wǎng)絡逼近能力就能夠更加強大。
哦豁,激活函數(shù)那么厲害,那常見的激活函數(shù)有什么呢?感覺還挺多的。
常見的激活函數(shù)種類及其圖像
1 sigmoid(logsig)函數(shù)
特點:sigmoid函數(shù)函數(shù)在不同的地方表達方式不同,常用的名稱就是sigmoid和logsig,它能夠把輸入的連續(xù)實值變換為0和1之間的輸出,如果輸入是特別大的負數(shù),則輸出為0,如果輸入是特別大的正數(shù),則輸出為1。
缺點:
- 在深度神經(jīng)網(wǎng)絡中,容易導致梯度爆炸和梯度消失;
- 冪函數(shù)運算較慢;
- 不是0均值。
其計算公式為:

其圖像如下所示。

2 tanh函數(shù)
特點:它能夠把輸入的連續(xù)實值變換為-1和1之間的輸出,如果輸入是特別大的負數(shù),則輸出為-1,如果輸入是特別大的正數(shù),則輸出為1;
解決了Sigmoid函數(shù)的不是0均值的問題。
缺點:梯度消失的問題和冪運算的問題仍然存在。
其計算公式為:

其圖像如下所示。

3 relu函數(shù)
特點:解決了梯度消失的問題;計算速度非??欤恍枰袛噍斎胧欠翊笥?;
收斂速度遠快于sigmoid和tanh兩個函數(shù)。
缺點:不是0均值。
其計算公式為:

其圖像如下所示

4 softplus函數(shù)
特點:softplus函數(shù)相當于平滑版的relu函數(shù)。
缺點:不是0均值。
其計算公式為:

其圖像如下所示(與relu函數(shù)對比)。

tensorflow中損失函數(shù)的表達
1 sigmoid(logsig)函數(shù)
tf.nn.sigmoid(x, name=None)
2 tanh函數(shù)
tf.nn.tanh(x, name=None)
3 relu函數(shù)
tf.nn.relu(features, name=None) tf.nn.relu6(features, name=None) #relu6相對于普通relu更容易學習到稀疏特征。
4 softplus函數(shù)
tf.nn.softplus(features, name=None)
以上就是python人工智能tensorflow常用激活函數(shù)Activation Functions的詳細內(nèi)容,更多關于tensorflow激活函數(shù)的資料請關注腳本之家其它相關文章!
相關文章
Python plt.imshow函數(shù)及其參數(shù)使用
plt.imshow()是Matplotlib庫中的一個函數(shù),主要用于顯示圖像或矩陣數(shù)據(jù),本文主要介紹了Python plt.imshow函數(shù)及其參數(shù)使用,具有一定的參考價值,感興趣的可以了解一下2024-02-02
python實現(xiàn)簡單聊天應用 python群聊和點對點均實現(xiàn)
這篇文章主要為大家詳細介紹了python實現(xiàn)簡單聊天應用,python群聊和點對點均實現(xiàn),具有一定的參考價值,感興趣的小伙伴們可以參考一下2017-09-09
如何利用Python和matplotlib更改縱橫坐標刻度顏色
對于圖表來說最簡單的莫過于作出一個單一函數(shù)的圖像,下面這篇文章主要給大家介紹了關于如何利用Python和matplotlib更改縱橫坐標刻度顏色的相關資料,文中通過實例代碼介紹的非常詳細,需要的朋友可以參考下2022-08-08
你知道怎么改進Python 二分法和牛頓迭代法求算術平方根嗎
這篇文章主要介紹了Python編程實現(xiàn)二分法和牛頓迭代法求平方根代碼的改進,具有一定參考價值,需要的朋友可以了解下,希望能夠給你帶來幫助2021-08-08

