Keras中的兩種模型:Sequential和Model用法
在Keras中有兩種深度學習的模型:序列模型(Sequential)和通用模型(Model)。差異在于不同的拓撲結(jié)構(gòu)。
序列模型 Sequential
序列模型各層之間是依次順序的線性關(guān)系,模型結(jié)構(gòu)通過一個列表來制定。
from keras.models import Sequential from keras.layers import Dense, Activation layers = [Dense(32, input_shape = (784,)), Activation('relu'), Dense(10), Activation('softmax')] model = Sequential(layers)
或者逐層添加網(wǎng)絡結(jié)構(gòu)
from keras.models import Sequential from keras.layers import Dense, Activation model = Sequential() model.add(Dense(32, input_shape = (784,))) model.add(Activation('relu')) model.add(Dense(10)) model.add(Activation('softmax'))
通用模型Model
通用模型可以設計非常復雜、任意拓撲結(jié)構(gòu)的神經(jīng)網(wǎng)絡,例如有向無環(huán)網(wǎng)絡、共享層網(wǎng)絡等。相比于序列模型只能依次線性逐層添加,通用模型能夠比較靈活地構(gòu)造網(wǎng)絡結(jié)構(gòu),設定各層級的關(guān)系。
from keras.layers import Input, Dense from keras.models import Model # 定義輸入層,確定輸入維度 input = input(shape = (784, )) # 2個隱含層,每個都有64個神經(jīng)元,使用relu激活函數(shù),且由上一層作為參數(shù) x = Dense(64, activation='relu')(input) x = Dense(64, activation='relu')(x) # 輸出層 y = Dense(10, activation='softmax')(x) # 定義模型,指定輸入輸出 model = Model(input=input, output=y) # 編譯模型,指定優(yōu)化器,損失函數(shù),度量 model.compile(optimizer='rmsprop', loss='categorical_crossentropy', metrics=['accuracy']) # 模型擬合,即訓練 model.fit(data, labels)
補充知識:keras神經(jīng)網(wǎng)絡,Sequential序貫模型(二分類、多分類)
1 Sequential參數(shù)
model = Sequential() model.add(Dense(32, input_dim=78))
解釋:
Sequential 的第一個關(guān)于輸入數(shù)據(jù)shape的參數(shù),后邊的各個層則可以自動推到出中間數(shù)據(jù)的shape
01 傳遞一個input_shape的關(guān)鍵字參數(shù)給第一層,如果填入None則表示此位置可能是任何正整數(shù)。數(shù)據(jù)的batch大小不應包含在其中。
02 有些2D層,如Dense,支持通過指定其輸入維度input_dim來隱含的指定輸入數(shù)據(jù)shape,是一個Int類型的數(shù)據(jù)。一些3D的時域?qū)又С滞ㄟ^參數(shù)input_dim和input_length來指定輸入shape。
03 如果你需要為輸入指定一個固定大小的batch_size(常用于stateful RNN網(wǎng)絡),可以傳遞batch_size參數(shù)到一個層中,例如你想指定輸入張量的batch大小是32,數(shù)據(jù)shape是(6,8),則你需要傳遞batch_size=32和input_shape=(6,8)。
2、compile配置學習過程
model.compile(optimizer='rmspropy',loss='categorical_crossentropy',metrics=['accuracy'])
01 優(yōu)化器optimizer:
該參數(shù)可指定為已預定義的優(yōu)化器名,如rmsprop、adagrad,或一個Optimizer類的對象。
02 損失函數(shù)loss:
該參數(shù)為模型試圖最小化的目標函數(shù),它可為預定義的損失函數(shù)名,如categorical_crossentropy、mse,也可以為一個損失函數(shù)。
03 指標列表metrics:
對分類問題,我們一般將該列表設置為metrics=['accuracy']。指標可以是一個預定義指標的名字,也可以是一個用戶定制的函數(shù).指標函數(shù)應該返回單個張量,或一個完成metric_name - > metric_value映射的字典.
3、案例
01 基于多層感知器Softmax多分類(圖片)
from keras.models import Sequential from keras.layers import Dense,Dropout,Activation from keras.optimizers import SGD import keras #abd # Generate dummy data import numpy as np x_train=np.random.random((1000,20)) y_train=keras.utils.to_categorical(np.random.randint(10,size=(1000,1)),num_classes=10) x_test=np.random.random((100,20)) y_test=keras.utils.to_categorical(np.random.randint(10,size=(100,1)),num_classes=10) model=Sequential() # Dense(64) is a fully-connected Layer with 64 hidden units. # in the first layer ,you must specify the expected input data shape; # here,20-dimensional vectors. model.add(Dense(64,activation='relu',input_dim=20)) model.add(Dropout(0.5)) model.add(Dense(64,activation='relu')) model.add(Dropout(0.5)) model.add(Dense(10,activation='softmax')) sgd=SGD(lr=0.01,decay=1e-6,momentum=0.9,nesterov=True) model.compile(loss='categorical_crossentropy', # 損失函數(shù) optimizer=sgd, # metrics=['accuracy'] # 精確度,評估模型在訓練和測試時的網(wǎng)絡性能的指標。 ) model.fit(x_train,y_train,epochs=20,batch_size=128) # batch_size 整數(shù),指定進行梯度下降時每個批次包含的樣本數(shù)訓練時一個批次的樣本 # 會被計算一次梯度下降,使目標函數(shù)進行一步優(yōu)化 # epochs;訓練20次,整數(shù),訓練終止時候的epoch值 score=model.evaluate(x_test,y_test,batch_size=128) # 評估函數(shù) ,本函數(shù)返回一個測試誤差的標量值(如果模型沒有其他評價指標)。
02 MLP的二分類
import numpy as np from keras.models import Sequential from keras.layers import Dense,Dropout x_train=np.random.random((1000,20)) y_train=keras.utils.to_categorical(np.random.randint(10,size=(1000,1)),num_classes=10) x_test=np.random.random((100,20)) y_test=keras.utils.to_categorical(np.random.randint(10,size=(100,1)),num_classes=10) model=Sequential() model.add(Dense(64,input_dim=20,activation='relu')) model.add(Dropout(0.5)) model.add(Dense(64,activation='relu')) model.add(Dropout(0.5)) model.add(Dense(1,activation='sigmoid')) model.compile(loss='binary_crossentropy', optimizer='rmsprop', metrics=['accuracy']) model.fit(x_train,y_train, epoches=20, batch_size=128) score=model.evaluate(x_test,y_test,batch_size=128)
相關(guān)詳細說明見官方文檔:https://keras-cn.readthedocs.io/en/latest/getting_started/sequential_model/
以上這篇Keras中的兩種模型:Sequential和Model用法就是小編分享給大家的全部內(nèi)容了,希望能給大家一個參考,也希望大家多多支持腳本之家。
相關(guān)文章
python自帶tkinter庫實現(xiàn)棋盤覆蓋圖形界面
這篇文章主要為大家詳細介紹了python自帶tkinter庫實現(xiàn)棋盤覆蓋圖形界面,具有一定的參考價值,感興趣的小伙伴們可以參考一下2019-07-07淺談Python數(shù)據(jù)處理csv的應用小結(jié)
這篇文章主要介紹了Python數(shù)據(jù)處理csv的簡單應用,本文通過實例代碼給大家介紹的非常詳細,對大家的學習或工作具有一定的參考借鑒價值,需要的朋友可以參考下2022-01-01python中pyplot基礎(chǔ)圖標函數(shù)整理
在本篇文章里小編給大家整理的是一篇關(guān)于python中pyplot基礎(chǔ)圖標函數(shù)整理的相關(guān)知識點,有興趣的朋友們可以參考下。2020-11-11Python實現(xiàn)給文件添加內(nèi)容及得到文件信息的方法
這篇文章主要介紹了Python實現(xiàn)給文件添加內(nèi)容及得到文件信息的方法,可實現(xiàn)從文件開頭添加內(nèi)容的功能,需要的朋友可以參考下2015-05-05在Python中封裝GObject模塊進行圖形化程序編程的教程
這篇文章主要介紹了在Python中封裝GObject模塊進行圖形化程序編程的教程,本文來自于IBM官方網(wǎng)站技術(shù)文檔,需要的朋友可以參考下2015-04-04python實現(xiàn)讀取類別頻數(shù)數(shù)據(jù)畫水平條形圖案例
這篇文章主要介紹了python實現(xiàn)讀取類別頻數(shù)數(shù)據(jù)畫水平條形圖案例,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2020-04-04