tf.nn.conv2d與tf.layers.conv2d的區(qū)別及說明
tf.nn.conv2d與tf.layers.conv2d的區(qū)別
在寫CNN中注意到tensorflow目前有tf.nn.conv2d和tf.layers.conv2d這兩個很相似的API.
tf.nn.conv2d, 需要自行傳入初始化好的filter(四個維度),在初始化filter或者說Weights中,已經手動選擇了初始化方案,一般用的是tf.truncated_normal。另外tf.nn.conv2d中激活函數(shù)需要另外寫。
而在tf.layers.conv2d中,只要寫入n和size,參數(shù)列表中kernel_initializer默認是None, 不清楚這里的參數(shù)是如何初始化的? tf.layers.conv2d中,激活函數(shù)是一個參數(shù),不需要另外調用。
問過大神,大神答曰:一般推薦使用tf.layers.下面的函數(shù),用起來方便。但是在tf2.0里,tf.layers.下面的API也都被遺棄了,tf2.0推薦使用keras.layers下面的API。
tf.nn.conv2d

tf.layers.conv2d

tf.nn.conv2d和tf.layers.conv2d的學習
看了很多tensorflow卷積的例子,有的用了tf.nn.conv2d,有的用了tf.layers.conv2d,那么這兩個究竟有啥不同呢?
tf.layers.conv2d(inputs, filters, kernel_size, strides=(1,1), ???????????????????????padding='valid', data_format='channels_last', ??????????????? dilation_rate=(1,1), activation=None, ??????????????? use_bias=True, kernel_initializer=None, ??????????????? bias_initializer=init_ops.zeros_initializer(), ??????????????? kernel_regularizer=None, ??????????????? bias_regularizer=None, ??????????????? activity_regularizer=None, trainable=True, ??????????????? name=None, reuse=None) tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None, data_format=None, name=None)
對于卷積來說,作用是一樣的。tf.layers.conv2d 使用tf.nn.convolution作為后端。
一個參數(shù)要注意一下:
filter:是一個4維張量,其type必須和輸入一樣,
[filter_height, filter_width, in_channels, out_channels]
filters:一個整數(shù),輸出空間的維度,也就是卷積核的數(shù)量。
tf.layers.conv2d參數(shù)豐富,一般用于從頭訓練一個模型。
tf.nn.conv2d,一般在下載預訓練好的模型時使用。
所以,喜歡哪個就用哪個咯。
總結
以上為個人經驗,希望能給大家一個參考,也希望大家多多支持腳本之家。
相關文章
Python設置matplotlib.plot的坐標軸刻度間隔以及刻度范圍
這篇文章主要介紹了Python設置matplotlib.plot的坐標軸刻度間隔以及刻度范圍,具有一定的參考價值,感興趣的小伙伴們可以參考一下2019-06-06
python神經網絡編程實現(xiàn)手寫數(shù)字識別
這篇文章主要為大家詳細介紹了python神經網絡編程實現(xiàn)手寫數(shù)字識別,文中示例代碼介紹的非常詳細,具有一定的參考價值,感興趣的小伙伴們可以參考一下2020-05-05

