python人工智能tensorflow常用激活函數(shù)Activation?Functions
前言
激活函數(shù)在機(jī)器學(xué)習(xí)中常常用在神經(jīng)網(wǎng)絡(luò)隱含層節(jié)點與神經(jīng)網(wǎng)絡(luò)的輸出層節(jié)點上,激活函數(shù)的作用是賦予神經(jīng)網(wǎng)絡(luò)更多的非線性因素,如果不用激勵函數(shù),輸出都是輸入的線性組合,這種情況與最原始的感知機(jī)相當(dāng),網(wǎng)絡(luò)的逼近能力相當(dāng)有限。如果能夠引入恰當(dāng)?shù)姆蔷€性函數(shù)作為激活函數(shù),這樣神經(jīng)網(wǎng)絡(luò)逼近能力就能夠更加強(qiáng)大。
哦豁,激活函數(shù)那么厲害,那常見的激活函數(shù)有什么呢?感覺還挺多的。
常見的激活函數(shù)種類及其圖像
1 sigmoid(logsig)函數(shù)
特點:sigmoid函數(shù)函數(shù)在不同的地方表達(dá)方式不同,常用的名稱就是sigmoid和logsig,它能夠把輸入的連續(xù)實值變換為0和1之間的輸出,如果輸入是特別大的負(fù)數(shù),則輸出為0,如果輸入是特別大的正數(shù),則輸出為1。
缺點:
- 在深度神經(jīng)網(wǎng)絡(luò)中,容易導(dǎo)致梯度爆炸和梯度消失;
- 冪函數(shù)運算較慢;
- 不是0均值。
其計算公式為:
其圖像如下所示。
2 tanh函數(shù)
特點:它能夠把輸入的連續(xù)實值變換為-1和1之間的輸出,如果輸入是特別大的負(fù)數(shù),則輸出為-1,如果輸入是特別大的正數(shù),則輸出為1;
解決了Sigmoid函數(shù)的不是0均值的問題。
缺點:梯度消失的問題和冪運算的問題仍然存在。
其計算公式為:
其圖像如下所示。
3 relu函數(shù)
特點:解決了梯度消失的問題;計算速度非???,只需要判斷輸入是否大于0;
收斂速度遠(yuǎn)快于sigmoid和tanh兩個函數(shù)。
缺點:不是0均值。
其計算公式為:
其圖像如下所示
4 softplus函數(shù)
特點:softplus函數(shù)相當(dāng)于平滑版的relu函數(shù)。
缺點:不是0均值。
其計算公式為:
其圖像如下所示(與relu函數(shù)對比)。
tensorflow中損失函數(shù)的表達(dá)
1 sigmoid(logsig)函數(shù)
tf.nn.sigmoid(x, name=None)
2 tanh函數(shù)
tf.nn.tanh(x, name=None)
3 relu函數(shù)
tf.nn.relu(features, name=None) tf.nn.relu6(features, name=None) #relu6相對于普通relu更容易學(xué)習(xí)到稀疏特征。
4 softplus函數(shù)
tf.nn.softplus(features, name=None)
以上就是python人工智能tensorflow常用激活函數(shù)Activation Functions的詳細(xì)內(nèi)容,更多關(guān)于tensorflow激活函數(shù)的資料請關(guān)注腳本之家其它相關(guān)文章!
相關(guān)文章
Python plt.imshow函數(shù)及其參數(shù)使用
plt.imshow()是Matplotlib庫中的一個函數(shù),主要用于顯示圖像或矩陣數(shù)據(jù),本文主要介紹了Python plt.imshow函數(shù)及其參數(shù)使用,具有一定的參考價值,感興趣的可以了解一下2024-02-02python實現(xiàn)簡單聊天應(yīng)用 python群聊和點對點均實現(xiàn)
這篇文章主要為大家詳細(xì)介紹了python實現(xiàn)簡單聊天應(yīng)用,python群聊和點對點均實現(xiàn),具有一定的參考價值,感興趣的小伙伴們可以參考一下2017-09-09如何利用Python和matplotlib更改縱橫坐標(biāo)刻度顏色
對于圖表來說最簡單的莫過于作出一個單一函數(shù)的圖像,下面這篇文章主要給大家介紹了關(guān)于如何利用Python和matplotlib更改縱橫坐標(biāo)刻度顏色的相關(guān)資料,文中通過實例代碼介紹的非常詳細(xì),需要的朋友可以參考下2022-08-08你知道怎么改進(jìn)Python 二分法和牛頓迭代法求算術(shù)平方根嗎
這篇文章主要介紹了Python編程實現(xiàn)二分法和牛頓迭代法求平方根代碼的改進(jìn),具有一定參考價值,需要的朋友可以了解下,希望能夠給你帶來幫助2021-08-08