PyTorch中常用的激活函數(shù)的方法示例
神經(jīng)網(wǎng)絡只是由兩個或多個線性網(wǎng)絡層疊加,并不能學到新的東西,簡單地堆疊網(wǎng)絡層,不經(jīng)過非線性激活函數(shù)激活,學到的仍然是線性關系。
但是加入激活函數(shù)可以學到非線性的關系,就具有更強的能力去進行特征提取。
構造數(shù)據(jù)
import torch import torch.nn.functional as F from torch.autograd import Variable import matplotlib.pyplot as plt x = torch.linspace(-5, 5, 200) # 構造一段連續(xù)的數(shù)據(jù) x = Variable(x) # 轉換成張量 x_np = x.data.numpy() # 換成 numpy array, 出圖時用
Relu
表達式:
代碼:
y_relu = F.relu(x).data.numpy() plt.plot(x_np, y_relu, c='red', label='relu') plt.ylim((-1, 5)) plt.legend(loc='best') plt.show()
形狀如圖:
Sigmoid
表達式:
代碼:
y_sigmoid = F.sigmoid(x).data.numpy() plt.plot(x_np, y_sigmoid, c='red', label='sigmoid') plt.ylim((-0.2, 1.2)) plt.legend(loc='best') plt.show()
形狀如圖:
Tanh
表達式:
代碼:
y_tanh = F.tanh(x).data.numpy() plt.plot(x_np, y_tanh, c='red', label='tanh') plt.ylim((-1.2, 1.2)) plt.legend(loc='best') plt.show()
形狀如圖:
Softplus
表達式:
代碼:
y_softplus = F.softplus(x).data.numpy() plt.plot(x_np, y_softplus, c='red', label='softplus') plt.ylim((-0.2, 6)) plt.legend(loc='best') plt.show()
形狀如圖:
以上就是本文的全部內(nèi)容,希望對大家的學習有所幫助,也希望大家多多支持腳本之家。
相關文章
Python中集合的內(nèi)建函數(shù)和內(nèi)建方法學習教程
這篇文章主要介紹了Python中集合的內(nèi)建函數(shù)和內(nèi)建方法學習教程,包括工廠函數(shù)和僅用于可變集合的方法等知識點,需要的朋友可以參考下2015-08-08

用Django實現(xiàn)一個可運行的區(qū)塊鏈應用

windows下pycharm搭建spark環(huán)境并成功運行 附源碼