python 實(shí)現(xiàn)一個(gè)簡(jiǎn)單的線性回歸案例
#!/usr/bin/env python # -*- coding: utf-8 -*- # @File : 自實(shí)現(xiàn)一個(gè)線性回歸.py # @Author: 趙路倉(cāng) # @Date : 2020/4/12 # @Desc : # @Contact : 398333404@qq.com import os import tensorflow as tf def linear_regression(): """ 自實(shí)現(xiàn)一個(gè)線性回歸 :return: """ # 命名空間 with tf.variable_scope("prepared_data"): # 準(zhǔn)備數(shù)據(jù) x = tf.random_normal(shape=[100, 1], name="Feature") y_true = tf.matmul(x, [[0.08]]) + 0.7 # x = tf.constant([[1.0], [2.0], [3.0]]) # y_true = tf.constant([[0.78], [0.86], [0.94]]) with tf.variable_scope("create_model"): # 2.構(gòu)造函數(shù) # 定義模型變量參數(shù) weights = tf.Variable(initial_value=tf.random_normal(shape=[1, 1], name="Weights")) bias = tf.Variable(initial_value=tf.random_normal(shape=[1, 1], name="Bias")) y_predit = tf.matmul(x, weights) + bias with tf.variable_scope("loss_function"): # 3.構(gòu)造損失函數(shù) error = tf.reduce_mean(tf.square(y_predit - y_true)) with tf.variable_scope("optimizer"): # 4.優(yōu)化損失 optimizer = tf.train.GradientDescentOptimizer(learning_rate=0.01).minimize(error) # 收集變量 tf.summary.scalar("error", error) tf.summary.histogram("weights", weights) tf.summary.histogram("bias", bias) # 合并變量 merged = tf.summary.merge_all() # 創(chuàng)建saver對(duì)象 saver = tf.train.Saver() # 顯式的初始化變量 init = tf.global_variables_initializer() # 開(kāi)啟會(huì)話 with tf.Session() as sess: # 初始化變量 sess.run(init) # 創(chuàng)建事件文件 file_writer = tf.summary.FileWriter("E:/tmp/linear", graph=sess.graph) # print(x.eval()) # print(y_true.eval()) # 查看初始化變量模型參數(shù)之后的值 print("訓(xùn)練前模型參數(shù)為:權(quán)重%f,偏置%f" % (weights.eval(), bias.eval())) # 開(kāi)始訓(xùn)練 for i in range(1000): sess.run(optimizer) print("第%d次參數(shù)為:權(quán)重%f,偏置%f,損失%f" % (i + 1, weights.eval(), bias.eval(), error.eval())) # 運(yùn)行合并變量操作 summary = sess.run(merged) # 將每次迭代后的變量寫(xiě)入事件 file_writer.add_summary(summary, i) # 保存模型 if i == 999: saver.save(sess, "./tmp/model/my_linear.ckpt") # # 加載模型 # if os.path.exists("./tmp/model/checkpoint"): # saver.restore(sess, "./tmp/model/my_linear.ckpt") print("參數(shù)為:權(quán)重%f,偏置%f,損失%f" % (weights.eval(), bias.eval(), error.eval())) pre = [[0.5]] prediction = tf.matmul(pre, weights) + bias sess.run(prediction) print(prediction.eval()) return None if __name__ == "__main__": linear_regression()
以上就是python 實(shí)現(xiàn)一個(gè)簡(jiǎn)單的線性回歸案例的詳細(xì)內(nèi)容,更多關(guān)于python 實(shí)現(xiàn)線性回歸的資料請(qǐng)關(guān)注腳本之家其它相關(guān)文章!
- python 機(jī)器學(xué)習(xí)之支持向量機(jī)非線性回歸SVR模型
- python實(shí)現(xiàn)機(jī)器學(xué)習(xí)之多元線性回歸
- python實(shí)現(xiàn)機(jī)器學(xué)習(xí)之元線性回歸
- 如何用Python徒手寫(xiě)線性回歸
- python 還原梯度下降算法實(shí)現(xiàn)一維線性回歸
- 如何在python中實(shí)現(xiàn)線性回歸
- python 線性回歸分析模型檢驗(yàn)標(biāo)準(zhǔn)--擬合優(yōu)度詳解
- 8種用Python實(shí)現(xiàn)線性回歸的方法對(duì)比詳解
- python機(jī)器學(xué)習(xí)之線性回歸詳解
相關(guān)文章
超級(jí)好用的4個(gè)Python命令行可視化庫(kù)
通常大家都是在自己的電腦上跑程序,直接是可以可視化相應(yīng)的結(jié)果.如果是在服務(wù)器上的話,使用終端,是不太方便查看結(jié)果. 今天,小F就給大家介紹4個(gè)可以在命令行中使用的Python庫(kù). 分別是Bashplotlib、tqdm、PrettyTable、Colorama,需要的朋友可以參考下2021-06-06django form和field具體方法和屬性說(shuō)明
這篇文章主要介紹了django form和field具體方法和屬性說(shuō)明,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2020-07-07Python標(biāo)準(zhǔn)庫(kù)urllib2的一些使用細(xì)節(jié)總結(jié)
這篇文章主要介紹了Python標(biāo)準(zhǔn)庫(kù)urllib2的一些使用細(xì)節(jié)總結(jié),本文總結(jié)了Proxy 的設(shè)置、Timeout 設(shè)置、Redirect、Cookie等細(xì)節(jié)的使用,需要的朋友可以參考下2015-03-03從零開(kāi)始學(xué)習(xí)Python與BeautifulSoup網(wǎng)頁(yè)數(shù)據(jù)抓取
想要從零開(kāi)始學(xué)習(xí)Python和BeautifulSoup網(wǎng)頁(yè)數(shù)據(jù)抓取?本指南將為你提供簡(jiǎn)單易懂的指導(dǎo),讓你掌握這兩個(gè)強(qiáng)大的工具,不管你是初學(xué)者還是有經(jīng)驗(yàn)的開(kāi)發(fā)者,本指南都能幫助你快速入門(mén)并提升技能,不要錯(cuò)過(guò)這個(gè)機(jī)會(huì),開(kāi)始你的編程之旅吧!2024-01-01celery異步定時(shí)任務(wù)訂單定時(shí)回滾
這篇文章主要為大家介紹了celery異步定時(shí)任務(wù)訂單定時(shí)回滾的實(shí)現(xiàn)示例,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步早日升職加薪2022-04-04python 多進(jìn)程共享全局變量之Manager()詳解
這篇文章主要介紹了python 多進(jìn)程共享全局變量之Manager()詳解,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下2019-08-08