keras 特征圖可視化實例(中間層)
鑒于最近一段時間一直在折騰的CNN網(wǎng)絡(luò)效果不太理想,主要目標是為了檢測出圖像中的一些關(guān)鍵點,可以參考人臉的關(guān)鍵點檢測算法。
但是由于從數(shù)據(jù)集的制作是自己完成的,所以數(shù)據(jù)集質(zhì)量可能有待商榷,訓練效果不好的原因可能也是因為數(shù)據(jù)集沒有制作好(標點實在是太累了)。
于是想看看自己做的數(shù)據(jù)集在進入到網(wǎng)絡(luò)后那些中間的隱藏層到底發(fā)生了哪些變化。
今天主要是用已經(jīng)訓練好的mnist模型來提前測試一下,這里的mnist模型的準確度已經(jīng)達到了98%左右。
使用的比較簡單的一個模型:
def simple_cnn(): input_data = Input(shape=(28, 28, 1)) x = Conv2D(64, kernel_size=3, padding='same', activation='relu', name='conv1')(input_data) x = MaxPooling2D(pool_size=2, strides=2, name='maxpool1')(x) x = Conv2D(32, kernel_size=3, padding='same', activation='relu', name='conv2')(x) x = MaxPooling2D(pool_size=2, strides=2, name='maxpool2')(x) x = Dropout(0.25)(x) # 獲得最后一層卷積層的輸出 # 添加自己的全連接 x = Flatten(name='flatten')(x) x = Dense(128, activation='relu', name='fc1')(x) x = Dropout(0.25)(x) x = Dense(10, activation='softmax', name='fc2')(x) model = Model(inputs=input_data, outputs=x)
此模型已經(jīng)訓練好了,跑了10個epoch,驗證集0.33

這里的效果還是很好的,┓( ´∀` )┏
下面在網(wǎng)上搞了張手寫數(shù)字

使用網(wǎng)絡(luò)進行預(yù)測,這里就先給出如何可視化第一層的卷積層的輸出吧,哇哈哈
代碼:
input_data = Input(shape=(28, 28, 1))
x = Conv2D(64, kernel_size=3, padding='same', activation='relu', name='conv1')(input_data)
x = MaxPooling2D(pool_size=2, strides=2, name='maxpool1')(x)
x = Conv2D(32, kernel_size=3, padding='same', activation='relu', name='conv2')(x)
x = MaxPooling2D(pool_size=2, strides=2, name='maxpool2')(x)
x = Dropout(0.25)(x)
x = Flatten(name='flatten')(x)
x = Dense(128, activation='relu', name='fc1')(x)
x = Dropout(0.25)(x)
x = Dense(10, activation='softmax', name='fc2')(x)
model = Model(inputs=input_data, outputs=x)
model.load_weights('final_model_mnist_2019_1_28.h5')
raw_img = cv2.imread('test.png')
test_img = load_img('test.png', color_mode='grayscale', target_size=(28, 28))
test_img = np.array(test_img)
test_img = np.expand_dims(test_img, axis=0)
test_img = np.expand_dims(test_img, axis=3)
conv1_layer = Model(inputs=input_data, outputs=model.get_layer(index=1).output)
conv1_output = conv1_layer.predict(test_img)
for i in range(64):
show_img = conv1_output[:, :, :, i]
print(show_img.shape)
show_img.shape = [28,28]
cv2.imshow('img', show_img)
cv2.waitKey(0)
核心方法就是通過加載模型后,新建Model,將輸出部分換為你想要查看的網(wǎng)絡(luò)層數(shù)即可,當然get_layer()包括了name和index兩個參數(shù)。最后通過遍歷當前卷積層的所有特征映射,將每一個都展示出來。就可以了。

以上這篇keras 特征圖可視化實例(中間層)就是小編分享給大家的全部內(nèi)容了,希望能給大家一個參考,也希望大家多多支持腳本之家。
- keras獲得model中某一層的某一個Tensor的輸出維度教程
- keras獲得某一層或者某層權(quán)重的輸出實例
- 淺談keras的深度模型訓練過程及結(jié)果記錄方式
- 關(guān)于Keras模型可視化教程及關(guān)鍵問題的解決
- 基于keras 模型、結(jié)構(gòu)、權(quán)重保存的實現(xiàn)
- 利用keras加載訓練好的.H5文件,并實現(xiàn)預(yù)測圖片
- keras模型可視化,層可視化及kernel可視化實例
- 基于keras輸出中間層結(jié)果的2種實現(xiàn)方式
- PyTorch和Keras計算模型參數(shù)的例子
- 在keras中獲取某一層上的feature map實例
相關(guān)文章
jupyter notebook 多環(huán)境conda kernel配置方式
這篇文章主要介紹了jupyter notebook 多環(huán)境conda kernel配置方式,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2020-04-04

