keras 特征圖可視化實例(中間層)
鑒于最近一段時間一直在折騰的CNN網(wǎng)絡(luò)效果不太理想,主要目標(biāo)是為了檢測出圖像中的一些關(guān)鍵點,可以參考人臉的關(guān)鍵點檢測算法。
但是由于從數(shù)據(jù)集的制作是自己完成的,所以數(shù)據(jù)集質(zhì)量可能有待商榷,訓(xùn)練效果不好的原因可能也是因為數(shù)據(jù)集沒有制作好(標(biāo)點實在是太累了)。
于是想看看自己做的數(shù)據(jù)集在進入到網(wǎng)絡(luò)后那些中間的隱藏層到底發(fā)生了哪些變化。
今天主要是用已經(jīng)訓(xùn)練好的mnist模型來提前測試一下,這里的mnist模型的準確度已經(jīng)達到了98%左右。
使用的比較簡單的一個模型:
def simple_cnn(): input_data = Input(shape=(28, 28, 1)) x = Conv2D(64, kernel_size=3, padding='same', activation='relu', name='conv1')(input_data) x = MaxPooling2D(pool_size=2, strides=2, name='maxpool1')(x) x = Conv2D(32, kernel_size=3, padding='same', activation='relu', name='conv2')(x) x = MaxPooling2D(pool_size=2, strides=2, name='maxpool2')(x) x = Dropout(0.25)(x) # 獲得最后一層卷積層的輸出 # 添加自己的全連接 x = Flatten(name='flatten')(x) x = Dense(128, activation='relu', name='fc1')(x) x = Dropout(0.25)(x) x = Dense(10, activation='softmax', name='fc2')(x) model = Model(inputs=input_data, outputs=x)
此模型已經(jīng)訓(xùn)練好了,跑了10個epoch,驗證集0.33
這里的效果還是很好的,┓( ´∀` )┏
下面在網(wǎng)上搞了張手寫數(shù)字
使用網(wǎng)絡(luò)進行預(yù)測,這里就先給出如何可視化第一層的卷積層的輸出吧,哇哈哈
代碼:
input_data = Input(shape=(28, 28, 1)) x = Conv2D(64, kernel_size=3, padding='same', activation='relu', name='conv1')(input_data) x = MaxPooling2D(pool_size=2, strides=2, name='maxpool1')(x) x = Conv2D(32, kernel_size=3, padding='same', activation='relu', name='conv2')(x) x = MaxPooling2D(pool_size=2, strides=2, name='maxpool2')(x) x = Dropout(0.25)(x) x = Flatten(name='flatten')(x) x = Dense(128, activation='relu', name='fc1')(x) x = Dropout(0.25)(x) x = Dense(10, activation='softmax', name='fc2')(x) model = Model(inputs=input_data, outputs=x) model.load_weights('final_model_mnist_2019_1_28.h5') raw_img = cv2.imread('test.png') test_img = load_img('test.png', color_mode='grayscale', target_size=(28, 28)) test_img = np.array(test_img) test_img = np.expand_dims(test_img, axis=0) test_img = np.expand_dims(test_img, axis=3) conv1_layer = Model(inputs=input_data, outputs=model.get_layer(index=1).output) conv1_output = conv1_layer.predict(test_img) for i in range(64): show_img = conv1_output[:, :, :, i] print(show_img.shape) show_img.shape = [28,28] cv2.imshow('img', show_img) cv2.waitKey(0)
核心方法就是通過加載模型后,新建Model,將輸出部分換為你想要查看的網(wǎng)絡(luò)層數(shù)即可,當(dāng)然get_layer()包括了name和index兩個參數(shù)。最后通過遍歷當(dāng)前卷積層的所有特征映射,將每一個都展示出來。就可以了。
以上這篇keras 特征圖可視化實例(中間層)就是小編分享給大家的全部內(nèi)容了,希望能給大家一個參考,也希望大家多多支持腳本之家。
- keras獲得model中某一層的某一個Tensor的輸出維度教程
- keras獲得某一層或者某層權(quán)重的輸出實例
- 淺談keras的深度模型訓(xùn)練過程及結(jié)果記錄方式
- 關(guān)于Keras模型可視化教程及關(guān)鍵問題的解決
- 基于keras 模型、結(jié)構(gòu)、權(quán)重保存的實現(xiàn)
- 利用keras加載訓(xùn)練好的.H5文件,并實現(xiàn)預(yù)測圖片
- keras模型可視化,層可視化及kernel可視化實例
- 基于keras輸出中間層結(jié)果的2種實現(xiàn)方式
- PyTorch和Keras計算模型參數(shù)的例子
- 在keras中獲取某一層上的feature map實例
相關(guān)文章
jupyter notebook 多環(huán)境conda kernel配置方式
這篇文章主要介紹了jupyter notebook 多環(huán)境conda kernel配置方式,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2020-04-04