python人工智能tensorflow函數(shù)tf.layers.dense使用方法
參數(shù)數(shù)量及其作用
tf.layers.dense用于添加一個(gè)全連接層。
函數(shù)如下:
tf.layers.dense(
inputs, #層的輸入
units, #該層的輸出維度
activation=None, #激活函數(shù)
use_bias=True,
kernel_initializer=None, # 卷積核的初始化器
bias_initializer=tf.zeros_initializer(), # 偏置項(xiàng)的初始化器
kernel_regularizer=None, # 卷積核的正則化
bias_regularizer=None, # 偏置項(xiàng)的正則化
activity_regularizer=None,
kernel_constraint=None,
bias_constraint=None,
trainable=True,
name=None, # 層的名字
reuse=None # 是否重復(fù)使用參數(shù)
)
部分參數(shù)解釋:
inputs:輸入該層的數(shù)據(jù)。
units:該層的輸出維度。
activation:激活函數(shù)。
use_bias:是否使用偏置項(xiàng)。
trainable=True : 表明該層的參數(shù)是否參與訓(xùn)練。
示例
手寫體例子,利用兩個(gè)dense可以構(gòu)成一個(gè)單層網(wǎng)絡(luò),在下面例子中,網(wǎng)絡(luò)的神經(jīng)元個(gè)數(shù)為200。
import numpy as np
import tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data
def compute_accuracy(x_data,y_data):
global dense2
y_pre = sess.run(dense2,feed_dict={xs:x_data})
correct_prediction = tf.equal(tf.arg_max(y_data,1),tf.arg_max(y_pre,1)) #判斷是否相等
accuracy = tf.reduce_mean(tf.cast(correct_prediction,tf.float32)) #賦予float32數(shù)據(jù)類型,求平均。
result = sess.run(accuracy,feed_dict = {xs:batch_xs,ys:batch_ys}) #執(zhí)行
return result
mnist = input_data.read_data_sets("MNIST_data",one_hot = "true")
xs = tf.placeholder(tf.float32,[None,784])
ys = tf.placeholder(tf.float32,[None,10])
dense1 = tf.layers.dense(
xs,
200,
activation = tf.nn.tanh,
kernel_initializer=tf.random_normal_initializer(mean=0, stddev=0.3),
bias_initializer=tf.constant_initializer(0.1),
name='fc1'
)
dense2 = tf.layers.dense(
dense1,
10,
activation = tf.nn.softmax,
kernel_initializer=tf.random_normal_initializer(mean=0, stddev=0.3),
bias_initializer=tf.constant_initializer(0.1),
name='fc2'
)
loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits = dense2, labels = ys),name = 'loss')
#label是標(biāo)簽,logits是預(yù)測值,交叉熵。
train = tf.train.GradientDescentOptimizer(0.5).minimize(loss)
init = tf.initialize_all_variables()
with tf.Session() as sess:
sess.run(init)
for i in range(5001):
batch_xs,batch_ys = mnist.train.next_batch(100)
sess.run(train,feed_dict = {xs:batch_xs,ys:batch_ys})
if i % 1000 == 0:
print("訓(xùn)練%d次的識(shí)別率為:%f。"%((i+1),compute_accuracy(mnist.test.images,mnist.test.labels)))
實(shí)驗(yàn)結(jié)果為:
訓(xùn)練1次的識(shí)別率為:0.107400。
訓(xùn)練1001次的識(shí)別率為:0.805200。
訓(xùn)練2001次的識(shí)別率為:0.822800。
訓(xùn)練3001次的識(shí)別率為:0.829400。
訓(xùn)練4001次的識(shí)別率為:0.833100。
訓(xùn)練5001次的識(shí)別率為:0.835300。
以上就是python人工智能tensorflow函數(shù)tf.layers.dense使用方法的詳細(xì)內(nèi)容,更多關(guān)于tensorflow函數(shù)tf.layers.dense的資料請(qǐng)關(guān)注腳本之家其它相關(guān)文章!
相關(guān)文章
解決python多行注釋引發(fā)縮進(jìn)錯(cuò)誤的問題
今天小編就為大家分享一篇解決python多行注釋引發(fā)縮進(jìn)錯(cuò)誤的問題,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過來看看吧2019-08-08
Python?Flask實(shí)現(xiàn)快速構(gòu)建Web應(yīng)用的方法詳解
Flask是一個(gè)輕量級(jí)的Web服務(wù)器網(wǎng)關(guān)接口(WSGI)web應(yīng)用框架,本文將和大家一起詳細(xì)探討一下Python?Flask?Web服務(wù),需要的小伙伴可以學(xué)習(xí)一下2023-06-06
python文字轉(zhuǎn)語音的實(shí)例代碼分析
在本篇文章里小編給大家整理的是關(guān)于python文字轉(zhuǎn)語音的實(shí)例代碼分析,有需要的朋友們可以參考下。2019-11-11
python?dataframe獲得指定行列實(shí)戰(zhàn)代碼
對(duì)于一個(gè)DataFrame,常常需要篩選出某列為指定值的行,下面這篇文章主要給大家介紹了關(guān)于python?dataframe獲得指定行列的相關(guān)資料,文中通過代碼介紹的非常詳細(xì),需要的朋友可以參考下2023-12-12
用TensorFlow實(shí)現(xiàn)多類支持向量機(jī)的示例代碼
這篇文章主要介紹了用TensorFlow實(shí)現(xiàn)多類支持向量機(jī)的示例代碼,小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,也給大家做個(gè)參考。一起跟隨小編過來看看吧2018-04-04
python導(dǎo)出chrome書簽到markdown文件的實(shí)例代碼
python導(dǎo)出chrome書簽到markdown文件,主要就是解析chrome的bookmarks文件,然后拼接成markdown格式的字符串,最后輸出到文件即可。下面給大家分享實(shí)例代碼,需要的朋友參考下2017-12-12
Python庫coala代碼分析和自動(dòng)化檢查改進(jìn)工具使用探索
Python的coala工具是一個(gè)強(qiáng)大的代碼分析和自動(dòng)化改進(jìn)工具,它可以幫助開發(fā)人員自動(dòng)化地檢查代碼并提供改進(jìn)建議,本文將詳細(xì)介紹coala的功能和用法,并提供豐富的示例代碼來幫助大家深入了解它2024-01-01

