Keras中的兩種模型:Sequential和Model用法
在Keras中有兩種深度學(xué)習(xí)的模型:序列模型(Sequential)和通用模型(Model)。差異在于不同的拓?fù)浣Y(jié)構(gòu)。
序列模型 Sequential
序列模型各層之間是依次順序的線性關(guān)系,模型結(jié)構(gòu)通過一個列表來制定。
from keras.models import Sequential from keras.layers import Dense, Activation layers = [Dense(32, input_shape = (784,)), Activation('relu'), Dense(10), Activation('softmax')] model = Sequential(layers)
或者逐層添加網(wǎng)絡(luò)結(jié)構(gòu)
from keras.models import Sequential from keras.layers import Dense, Activation model = Sequential() model.add(Dense(32, input_shape = (784,))) model.add(Activation('relu')) model.add(Dense(10)) model.add(Activation('softmax'))
通用模型Model
通用模型可以設(shè)計(jì)非常復(fù)雜、任意拓?fù)浣Y(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò),例如有向無環(huán)網(wǎng)絡(luò)、共享層網(wǎng)絡(luò)等。相比于序列模型只能依次線性逐層添加,通用模型能夠比較靈活地構(gòu)造網(wǎng)絡(luò)結(jié)構(gòu),設(shè)定各層級的關(guān)系。
from keras.layers import Input, Dense from keras.models import Model # 定義輸入層,確定輸入維度 input = input(shape = (784, )) # 2個隱含層,每個都有64個神經(jīng)元,使用relu激活函數(shù),且由上一層作為參數(shù) x = Dense(64, activation='relu')(input) x = Dense(64, activation='relu')(x) # 輸出層 y = Dense(10, activation='softmax')(x) # 定義模型,指定輸入輸出 model = Model(input=input, output=y) # 編譯模型,指定優(yōu)化器,損失函數(shù),度量 model.compile(optimizer='rmsprop', loss='categorical_crossentropy', metrics=['accuracy']) # 模型擬合,即訓(xùn)練 model.fit(data, labels)
補(bǔ)充知識:keras神經(jīng)網(wǎng)絡(luò),Sequential序貫?zāi)P停ǘ诸?、多分類?/strong>
1 Sequential參數(shù)
model = Sequential() model.add(Dense(32, input_dim=78))
解釋:
Sequential 的第一個關(guān)于輸入數(shù)據(jù)shape的參數(shù),后邊的各個層則可以自動推到出中間數(shù)據(jù)的shape
01 傳遞一個input_shape的關(guān)鍵字參數(shù)給第一層,如果填入None則表示此位置可能是任何正整數(shù)。數(shù)據(jù)的batch大小不應(yīng)包含在其中。
02 有些2D層,如Dense,支持通過指定其輸入維度input_dim來隱含的指定輸入數(shù)據(jù)shape,是一個Int類型的數(shù)據(jù)。一些3D的時域?qū)又С滞ㄟ^參數(shù)input_dim和input_length來指定輸入shape。
03 如果你需要為輸入指定一個固定大小的batch_size(常用于stateful RNN網(wǎng)絡(luò)),可以傳遞batch_size參數(shù)到一個層中,例如你想指定輸入張量的batch大小是32,數(shù)據(jù)shape是(6,8),則你需要傳遞batch_size=32和input_shape=(6,8)。
2、compile配置學(xué)習(xí)過程
model.compile(optimizer='rmspropy',loss='categorical_crossentropy',metrics=['accuracy'])
01 優(yōu)化器optimizer:
該參數(shù)可指定為已預(yù)定義的優(yōu)化器名,如rmsprop、adagrad,或一個Optimizer類的對象。
02 損失函數(shù)loss:
該參數(shù)為模型試圖最小化的目標(biāo)函數(shù),它可為預(yù)定義的損失函數(shù)名,如categorical_crossentropy、mse,也可以為一個損失函數(shù)。
03 指標(biāo)列表metrics:
對分類問題,我們一般將該列表設(shè)置為metrics=['accuracy']。指標(biāo)可以是一個預(yù)定義指標(biāo)的名字,也可以是一個用戶定制的函數(shù).指標(biāo)函數(shù)應(yīng)該返回單個張量,或一個完成metric_name - > metric_value映射的字典.
3、案例
01 基于多層感知器Softmax多分類(圖片)
from keras.models import Sequential from keras.layers import Dense,Dropout,Activation from keras.optimizers import SGD import keras #abd # Generate dummy data import numpy as np x_train=np.random.random((1000,20)) y_train=keras.utils.to_categorical(np.random.randint(10,size=(1000,1)),num_classes=10) x_test=np.random.random((100,20)) y_test=keras.utils.to_categorical(np.random.randint(10,size=(100,1)),num_classes=10) model=Sequential() # Dense(64) is a fully-connected Layer with 64 hidden units. # in the first layer ,you must specify the expected input data shape; # here,20-dimensional vectors. model.add(Dense(64,activation='relu',input_dim=20)) model.add(Dropout(0.5)) model.add(Dense(64,activation='relu')) model.add(Dropout(0.5)) model.add(Dense(10,activation='softmax')) sgd=SGD(lr=0.01,decay=1e-6,momentum=0.9,nesterov=True) model.compile(loss='categorical_crossentropy', # 損失函數(shù) optimizer=sgd, # metrics=['accuracy'] # 精確度,評估模型在訓(xùn)練和測試時的網(wǎng)絡(luò)性能的指標(biāo)。 ) model.fit(x_train,y_train,epochs=20,batch_size=128) # batch_size 整數(shù),指定進(jìn)行梯度下降時每個批次包含的樣本數(shù)訓(xùn)練時一個批次的樣本 # 會被計(jì)算一次梯度下降,使目標(biāo)函數(shù)進(jìn)行一步優(yōu)化 # epochs;訓(xùn)練20次,整數(shù),訓(xùn)練終止時候的epoch值 score=model.evaluate(x_test,y_test,batch_size=128) # 評估函數(shù) ,本函數(shù)返回一個測試誤差的標(biāo)量值(如果模型沒有其他評價指標(biāo))。
02 MLP的二分類
import numpy as np from keras.models import Sequential from keras.layers import Dense,Dropout x_train=np.random.random((1000,20)) y_train=keras.utils.to_categorical(np.random.randint(10,size=(1000,1)),num_classes=10) x_test=np.random.random((100,20)) y_test=keras.utils.to_categorical(np.random.randint(10,size=(100,1)),num_classes=10) model=Sequential() model.add(Dense(64,input_dim=20,activation='relu')) model.add(Dropout(0.5)) model.add(Dense(64,activation='relu')) model.add(Dropout(0.5)) model.add(Dense(1,activation='sigmoid')) model.compile(loss='binary_crossentropy', optimizer='rmsprop', metrics=['accuracy']) model.fit(x_train,y_train, epoches=20, batch_size=128) score=model.evaluate(x_test,y_test,batch_size=128)
相關(guān)詳細(xì)說明見官方文檔:https://keras-cn.readthedocs.io/en/latest/getting_started/sequential_model/
以上這篇Keras中的兩種模型:Sequential和Model用法就是小編分享給大家的全部內(nèi)容了,希望能給大家一個參考,也希望大家多多支持腳本之家。
相關(guān)文章
基于python實(shí)現(xiàn)藍(lán)牙通信代碼實(shí)例
這篇文章主要介紹了基于python實(shí)現(xiàn)藍(lán)牙通信代碼實(shí)例,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友可以參考下2019-11-11python自帶tkinter庫實(shí)現(xiàn)棋盤覆蓋圖形界面
這篇文章主要為大家詳細(xì)介紹了python自帶tkinter庫實(shí)現(xiàn)棋盤覆蓋圖形界面,具有一定的參考價值,感興趣的小伙伴們可以參考一下2019-07-07淺談Python數(shù)據(jù)處理csv的應(yīng)用小結(jié)
這篇文章主要介紹了Python數(shù)據(jù)處理csv的簡單應(yīng)用,本文通過實(shí)例代碼給大家介紹的非常詳細(xì),對大家的學(xué)習(xí)或工作具有一定的參考借鑒價值,需要的朋友可以參考下2022-01-01python中pyplot基礎(chǔ)圖標(biāo)函數(shù)整理
在本篇文章里小編給大家整理的是一篇關(guān)于python中pyplot基礎(chǔ)圖標(biāo)函數(shù)整理的相關(guān)知識點(diǎn),有興趣的朋友們可以參考下。2020-11-11Python subprocess模塊學(xué)習(xí)總結(jié)
從Python 2.4開始,Python引入subprocess模塊來管理子進(jìn)程,以取代一些舊模塊的方法:如 os.system、os.spawn*、os.popen*、popen2.*、commands.*不但可以調(diào)用外部的命令作為子進(jìn)程,而且可以連接到子進(jìn)程的input/output/error管道,獲取相關(guān)的返回信息2014-03-03Python實(shí)現(xiàn)給文件添加內(nèi)容及得到文件信息的方法
這篇文章主要介紹了Python實(shí)現(xiàn)給文件添加內(nèi)容及得到文件信息的方法,可實(shí)現(xiàn)從文件開頭添加內(nèi)容的功能,需要的朋友可以參考下2015-05-05在Python中封裝GObject模塊進(jìn)行圖形化程序編程的教程
這篇文章主要介紹了在Python中封裝GObject模塊進(jìn)行圖形化程序編程的教程,本文來自于IBM官方網(wǎng)站技術(shù)文檔,需要的朋友可以參考下2015-04-04python實(shí)現(xiàn)讀取類別頻數(shù)數(shù)據(jù)畫水平條形圖案例
這篇文章主要介紹了python實(shí)現(xiàn)讀取類別頻數(shù)數(shù)據(jù)畫水平條形圖案例,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2020-04-04