欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

淺談Keras的Sequential與PyTorch的Sequential的區(qū)別

 更新時(shí)間:2020年06月17日 10:51:06   作者:鵲踏枝-碼農(nóng)  
這篇文章主要介紹了淺談Keras的Sequential與PyTorch的Sequential的區(qū)別,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧

深度學(xué)習(xí)庫(kù)Keras中的Sequential是多個(gè)網(wǎng)絡(luò)層的線性堆疊,在實(shí)現(xiàn)AlexNet與VGG等網(wǎng)絡(luò)方面比較容易,因?yàn)樗鼈儧](méi)有ResNet那樣的shortcut連接。在Keras中要實(shí)現(xiàn)ResNet網(wǎng)絡(luò)則需要Model模型。

下面是Keras的Sequential具體示例:

可以通過(guò)向Sequential模型傳遞一個(gè)layer的list來(lái)構(gòu)造該模型:

from keras.models import Sequential
from keras.layers import Dense, Activation
 
model = Sequential([
Dense(32, input_dim=784),
Activation('relu'),
Dense(10),
Activation('softmax'),
])

也可以通過(guò).add()方法一個(gè)個(gè)的將layer加入模型中:

model = Sequential()
model.add(Dense(32, input_dim=784))
model.add(Activation('relu'))

Keras可以通過(guò)泛型模型(Model)實(shí)現(xiàn)復(fù)雜的網(wǎng)絡(luò),如ResNet,Inception等,具體示例如下:

from keras.layers import Input, Dense
from keras.models import Model
 
# this returns a tensor
inputs = Input(shape=(784,))
 
# a layer instance is callable on a tensor, and returns a tensor
x = Dense(64, activation='relu')(inputs)
x = Dense(64, activation='relu')(x)
predictions = Dense(10, activation='softmax')(x)
 
# this creates a model that includes
# the Input layer and three Dense layers
model = Model(input=inputs, output=predictions)
 
model.compile(optimizer='rmsprop',
loss='categorical_crossentropy',
metrics=['accuracy'])
 
model.fit(data, labels) # starts training

在目前的PyTorch版本中,可以?xún)H通過(guò)Sequential實(shí)現(xiàn)線性模型和復(fù)雜的網(wǎng)絡(luò)模型。PyTorch中的Sequential具體示例如下:

model = torch.nn.Sequential(
 torch.nn.Linear(D_in, H),
 torch.nn.ReLU(),
 torch.nn.Linear(H, D_out),
)

也可以通過(guò).add_module()方法一個(gè)個(gè)的將layer加入模型中:

layer1 = nn.Sequential()
layer1.add_module('conv1', nn.Conv2d(3, 32, 3, 1, padding=1))
layer1.add_module('relu1', nn.ReLU(True))
layer1.add_module('pool1', nn.MaxPool2d(2, 2))

由上可以看出,PyTorch創(chuàng)建網(wǎng)絡(luò)的方法與Keras類(lèi)似,PyTorch借鑒了Keras的一些優(yōu)點(diǎn)。

以上這篇淺談Keras的Sequential與PyTorch的Sequential的區(qū)別就是小編分享給大家的全部?jī)?nèi)容了,希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。

相關(guān)文章

  • python實(shí)現(xiàn)磁盤(pán)日志清理的示例

    python實(shí)現(xiàn)磁盤(pán)日志清理的示例

    這篇文章主要介紹了python實(shí)現(xiàn)磁盤(pán)日志清理的示例,幫助大家更好的理解和使用python,感興趣的朋友可以了解下
    2020-11-11
  • Python編程itertools模塊處理可迭代集合相關(guān)函數(shù)

    Python編程itertools模塊處理可迭代集合相關(guān)函數(shù)

    本篇博客將為你介紹Python函數(shù)式編程itertools模塊中處理可迭代集合的相關(guān)函數(shù),有需要的朋友可以借鑒參考下,希望可以有所幫助
    2021-09-09
  • Python處理菜單消息操作示例【基于win32ui模塊】

    Python處理菜單消息操作示例【基于win32ui模塊】

    這篇文章主要介紹了Python處理菜單消息操作,結(jié)合實(shí)例形式分析了Python基于win32ui模塊實(shí)現(xiàn)菜單的創(chuàng)建及菜單項(xiàng)響應(yīng)相關(guān)操作技巧,需要的朋友可以參考下
    2018-05-05
  • Python中的查找算法代碼實(shí)例

    Python中的查找算法代碼實(shí)例

    這篇文章主要介紹了Python中的查找算法代碼實(shí)例,算法是解決一系列問(wèn)題的清晰指令,也就是,能對(duì)一定規(guī)范的輸入,在有限的時(shí)間內(nèi)獲得所要求的輸出,簡(jiǎn)單來(lái)說(shuō),算法就是解決一個(gè)問(wèn)題的具體方法和步驟,算法是程序的靈魂,需要的朋友可以參考下
    2023-07-07
  • 循環(huán)神經(jīng)網(wǎng)絡(luò)TextRNN實(shí)現(xiàn)情感短文本分類(lèi)任務(wù)

    循環(huán)神經(jīng)網(wǎng)絡(luò)TextRNN實(shí)現(xiàn)情感短文本分類(lèi)任務(wù)

    這篇文章主要為大家介紹了循環(huán)神經(jīng)網(wǎng)絡(luò)TextRNN實(shí)現(xiàn)情感短文本分類(lèi)任務(wù)詳解,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步,早日升職加薪
    2023-04-04
  • 把項(xiàng)目從Python2.x移植到Python3.x的經(jīng)驗(yàn)總結(jié)

    把項(xiàng)目從Python2.x移植到Python3.x的經(jīng)驗(yàn)總結(jié)

    這篇文章主要介紹了把項(xiàng)目從Python2.x移植到Python3.x的經(jīng)驗(yàn)總結(jié),包括作者所使用的Jinja2框架中一些需要注意的地方,需要的朋友可以參考下
    2015-04-04
  • 使用TensorBoard進(jìn)行超參數(shù)優(yōu)化的實(shí)現(xiàn)

    使用TensorBoard進(jìn)行超參數(shù)優(yōu)化的實(shí)現(xiàn)

    這篇文章主要介紹了使用TensorBoard進(jìn)行超參數(shù)優(yōu)化的實(shí)現(xiàn),文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧
    2020-07-07
  • pandas groupby + unstack的使用說(shuō)明

    pandas groupby + unstack的使用說(shuō)明

    這篇文章主要介紹了pandas groupby + unstack的使用說(shuō)明,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧
    2021-03-03
  • Python基礎(chǔ)之文件讀取的講解

    Python基礎(chǔ)之文件讀取的講解

    今天小編就為大家分享一篇關(guān)于Python基礎(chǔ)之文件讀取的講解,小編覺(jué)得內(nèi)容挺不錯(cuò)的,現(xiàn)在分享給大家,具有很好的參考價(jià)值,需要的朋友一起跟隨小編來(lái)看看吧
    2019-02-02
  • 使用PyTorch將數(shù)據(jù)從CPU移動(dòng)到GPU的四個(gè)方法

    使用PyTorch將數(shù)據(jù)從CPU移動(dòng)到GPU的四個(gè)方法

    這篇文章給大家介紹了在 PyTorch 中,將數(shù)據(jù)從 CPU 移動(dòng)到 GPU 的幾種方法,使用 .to() 方法,使用 .cuda() 方法,使用 torch.Tensor 構(gòu)造函數(shù)和使用 torch.tensor 構(gòu)造函數(shù)這四個(gè)方法,通過(guò)代碼示例介紹非常詳細(xì),需要的朋友可以參考下
    2024-01-01

最新評(píng)論