欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

tf.nn.conv2d與tf.layers.conv2d的區(qū)別及說明

 更新時(shí)間:2023年02月21日 14:06:53   作者:zhongranxu  
這篇文章主要介紹了tf.nn.conv2d與tf.layers.conv2d的區(qū)別及說明,具有很好的參考價(jià)值,希望對大家有所幫助。如有錯誤或未考慮完全的地方,望不吝賜教

tf.nn.conv2d與tf.layers.conv2d的區(qū)別

在寫CNN中注意到tensorflow目前有tf.nn.conv2d和tf.layers.conv2d這兩個(gè)很相似的API.

tf.nn.conv2d, 需要自行傳入初始化好的filter(四個(gè)維度),在初始化filter或者說Weights中,已經(jīng)手動選擇了初始化方案,一般用的是tf.truncated_normal。另外tf.nn.conv2d中激活函數(shù)需要另外寫。

而在tf.layers.conv2d中,只要寫入n和size,參數(shù)列表中kernel_initializer默認(rèn)是None, 不清楚這里的參數(shù)是如何初始化的? tf.layers.conv2d中,激活函數(shù)是一個(gè)參數(shù),不需要另外調(diào)用。

問過大神,大神答曰:一般推薦使用tf.layers.下面的函數(shù),用起來方便。但是在tf2.0里,tf.layers.下面的API也都被遺棄了,tf2.0推薦使用keras.layers下面的API。

tf.nn.conv2d

tf.layers.conv2d

tf.nn.conv2d和tf.layers.conv2d的學(xué)習(xí)

看了很多tensorflow卷積的例子,有的用了tf.nn.conv2d,有的用了tf.layers.conv2d,那么這兩個(gè)究竟有啥不同呢?

tf.layers.conv2d(inputs, filters, kernel_size, strides=(1,1),

???????????????????????padding='valid', data_format='channels_last',
???????????????     dilation_rate=(1,1), activation=None,
???????????????     use_bias=True, kernel_initializer=None,
???????????????     bias_initializer=init_ops.zeros_initializer(),
???????????????     kernel_regularizer=None,
???????????????     bias_regularizer=None,
???????????????     activity_regularizer=None, trainable=True,
???????????????     name=None, reuse=None)

tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None, data_format=None, name=None)

對于卷積來說,作用是一樣的。tf.layers.conv2d 使用tf.nn.convolution作為后端。

一個(gè)參數(shù)要注意一下:

  • filter:是一個(gè)4維張量,其type必須和輸入一樣,
[filter_height, filter_width, in_channels, out_channels]
  • filters:一個(gè)整數(shù),輸出空間的維度,也就是卷積核的數(shù)量。

tf.layers.conv2d參數(shù)豐富,一般用于從頭訓(xùn)練一個(gè)模型。

tf.nn.conv2d,一般在下載預(yù)訓(xùn)練好的模型時(shí)使用。

所以,喜歡哪個(gè)就用哪個(gè)咯。

總結(jié)

以上為個(gè)人經(jīng)驗(yàn),希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。

相關(guān)文章

最新評論