用tensorflow實(shí)現(xiàn)彈性網(wǎng)絡(luò)回歸算法
本文實(shí)例為大家分享了tensorflow實(shí)現(xiàn)彈性網(wǎng)絡(luò)回歸算法,供大家參考,具體內(nèi)容如下
python代碼:
#用tensorflow實(shí)現(xiàn)彈性網(wǎng)絡(luò)算法(多變量) #使用鳶尾花數(shù)據(jù)集,后三個(gè)特征作為特征,用來預(yù)測第一個(gè)特征。 #1 導(dǎo)入必要的編程庫,創(chuàng)建計(jì)算圖,加載數(shù)據(jù)集 import matplotlib.pyplot as plt import tensorflow as tf import numpy as np from sklearn import datasets from tensorflow.python.framework import ops ops.get_default_graph() sess = tf.Session() iris = datasets.load_iris() x_vals = np.array([[x[1], x[2], x[3]] for x in iris.data]) y_vals = np.array([y[0] for y in iris.data]) #2 聲明學(xué)習(xí)率,批量大小,占位符和模型變量,模型輸出 learning_rate = 0.001 batch_size = 50 x_data = tf.placeholder(shape=[None, 3], dtype=tf.float32) #占位符大小為3 y_target = tf.placeholder(shape=[None, 1], dtype=tf.float32) A = tf.Variable(tf.random_normal(shape=[3,1])) b = tf.Variable(tf.random_normal(shape=[1,1])) model_output = tf.add(tf.matmul(x_data, A), b) #3 對于彈性網(wǎng)絡(luò)回歸算法,損失函數(shù)包括L1正則和L2正則 elastic_param1 = tf.constant(1.) elastic_param2 = tf.constant(1.) l1_a_loss = tf.reduce_mean(abs(A)) l2_a_loss = tf.reduce_mean(tf.square(A)) e1_term = tf.multiply(elastic_param1, l1_a_loss) e2_term = tf.multiply(elastic_param2, l2_a_loss) loss = tf.expand_dims(tf.add(tf.add(tf.reduce_mean(tf.square(y_target - model_output)), e1_term), e2_term), 0) #4 初始化變量, 聲明優(yōu)化器, 然后遍歷迭代運(yùn)行, 訓(xùn)練擬合得到參數(shù) init = tf.global_variables_initializer() sess.run(init) my_opt = tf.train.GradientDescentOptimizer(learning_rate) train_step = my_opt.minimize(loss) loss_vec = [] for i in range(1000): rand_index = np.random.choice(len(x_vals), size=batch_size) rand_x = x_vals[rand_index] rand_y = np.transpose([y_vals[rand_index]]) sess.run(train_step, feed_dict={x_data:rand_x, y_target:rand_y}) temp_loss = sess.run(loss, feed_dict={x_data:rand_x, y_target:rand_y}) loss_vec.append(temp_loss) if (i+1)%250 == 0: print('Step#' + str(i+1) +'A = ' + str(sess.run(A)) + 'b=' + str(sess.run(b))) print('Loss= ' +str(temp_loss)) #現(xiàn)在能觀察到, 隨著訓(xùn)練迭代后損失函數(shù)已收斂。 plt.plot(loss_vec, 'k--') plt.title('Loss per Generation') plt.xlabel('Generation') plt.ylabel('Loss') plt.show()
本文參考書《Tensorflow機(jī)器學(xué)習(xí)實(shí)戰(zhàn)指南》
以上就是本文的全部內(nèi)容,希望對大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。
- tensorflow實(shí)現(xiàn)簡單邏輯回歸
- Tensorflow使用支持向量機(jī)擬合線性回歸
- TensorFlow實(shí)現(xiàn)iris數(shù)據(jù)集線性回歸
- 用TensorFlow實(shí)現(xiàn)戴明回歸算法的示例
- 用TensorFlow實(shí)現(xiàn)lasso回歸和嶺回歸算法的示例
- 詳解用TensorFlow實(shí)現(xiàn)邏輯回歸算法
- TensorFlow實(shí)現(xiàn)Softmax回歸模型
- 運(yùn)用TensorFlow進(jìn)行簡單實(shí)現(xiàn)線性回歸、梯度下降示例
- 用tensorflow構(gòu)建線性回歸模型的示例代碼
- TensorFlow實(shí)現(xiàn)Logistic回歸
相關(guān)文章
python連接數(shù)據(jù)庫后通過占位符添加數(shù)據(jù)
在pymysql中支持對占位符的處理,開發(fā)者需要在SQL中使用“%”定義占位符,在使用excute()方法執(zhí)行時(shí)對占位符的數(shù)據(jù)進(jìn)行填充即可,本文給大家介紹python連接數(shù)據(jù)庫后通過占位符添加數(shù)據(jù)的方法,需要的朋友參考下吧2021-12-12Python?生成多行重復(fù)數(shù)據(jù)的方法實(shí)現(xiàn)
本文主要介紹了Python?生成多行重復(fù)數(shù)據(jù)的方法實(shí)現(xiàn),文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2023-03-03Python字符串轉(zhuǎn)換成浮點(diǎn)數(shù)函數(shù)分享
本文給大家分享的是一則使用Python實(shí)現(xiàn)字符串轉(zhuǎn)換成浮點(diǎn)數(shù)的代碼,主要是使用map和reduce方法來實(shí)現(xiàn),有需要的小伙伴可以參考下。2015-07-07徹底弄懂Python中的回調(diào)函數(shù)(callback)
回調(diào)函數(shù)就是一個(gè)通過函數(shù)指針調(diào)用的函數(shù),下面這篇文章主要給大家介紹了關(guān)于Python中回調(diào)函數(shù)(callback)的相關(guān)資料,文中通過實(shí)例代碼介紹的非常詳細(xì),需要的朋友可以參考下2022-06-06Python流式游標(biāo)與緩存式(默認(rèn))游標(biāo)的那些坑及解決
這篇文章主要介紹了Python流式游標(biāo)與緩存式(默認(rèn))游標(biāo)的那些坑及解決,具有很好的參考價(jià)值,希望對大家有所幫助,如有錯誤或未考慮完全的地方,望不吝賜教2024-07-07python使用標(biāo)準(zhǔn)庫根據(jù)進(jìn)程名如何獲取進(jìn)程的pid詳解
Python有一套很有用的標(biāo)準(zhǔn)庫(standard library)。標(biāo)準(zhǔn)庫會隨著Python解釋器,一起安裝在你的電腦中的,所以下面這篇文章主要給大家介紹了關(guān)于python使用標(biāo)準(zhǔn)庫根據(jù)進(jìn)程名如何獲取進(jìn)程pid的相關(guān)資料,需要的朋友可以參考下。2017-10-10Gradio機(jī)器學(xué)習(xí)模型快速部署工具quickstart
這篇文章主要為大家介紹了Gradio機(jī)器學(xué)習(xí)模型快速部署工具quickstart,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步,早日升職加薪2023-04-04Python實(shí)現(xiàn)GIF動圖以及視頻卡通化詳解
本文主要介紹了如何使用Python中的animegan2-pytorch實(shí)現(xiàn)動圖以及視頻的卡通化效果,文中的代碼具有一定的學(xué)習(xí)價(jià)值,需要的朋友可以參考一下2021-12-12