欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

Python 機器學習之線性回歸詳解分析

 更新時間:2021年11月09日 15:23:59   作者:路燈下的禿子ꈍ◡ꈍ  
回歸是監(jiān)督學習的一個重要問題,回歸用于預測輸入變量和輸出變量之間的關系,特別是當輸入變量的值發(fā)生變化時,輸出變量的值也隨之發(fā)生變化。回歸模型正是表示從輸入變量到輸出變量之間映射的函數(shù)

為了檢驗自己前期對機器學習中線性回歸部分的掌握程度并找出自己在學習中存在的問題,我使用C語言簡單實現(xiàn)了單變量簡單線性回歸。

本文對自己使用C語言實現(xiàn)單變量線性回歸過程中遇到的問題和心得做出總結。

線性回歸

線性回歸是機器學習和統(tǒng)計學中最基礎和最廣泛應用的模型,是一種對自變量和因變量之間關系進行建模的回歸分析。

代碼概述

本次實現(xiàn)的線性回歸為單變量的簡單線性回歸,模型中含有兩個參數(shù):變量系數(shù)w、偏置q。

訓練數(shù)據(jù)為自己使用隨機數(shù)生成的100個隨機數(shù)據(jù)并將其保存在數(shù)組中。采用批量梯度下降法訓練模型,損失函數(shù)使用平方損失函數(shù)。

上圖為整個程序的函數(shù)調用關系。

下面貼代碼:

#include<stdio.h>
#include<stdlib.h>
#include<math.h>
#include<time.h>
 
double w, q;
int m;
//模型
float Model(float x)
{
	float y;
	y = x * w + q;
	return y;
}
 
//損失函數(shù)
double Loss(float *y,float *x)
{
	double L=0;
	//循環(huán)參數(shù)
	int i, j, k;
	for (i = 0; i < m; i++)
	{
		L += (pow((y[i] - Model(x[i])), 2)) / (2 * m);
	}
	return L;
 
}
 
//梯度下降優(yōu)化函數(shù)
void Gradient_Descent_Optimizer(float *x,float *y,float a)
{
	int j, i;
	double Q = 0, W = 0;
	for (i = 0; i < m; i++)
		W += x[i] * (Model(x[i]) - y[i]);
	W = W / m;
	for (j = 0; j < m; j++)
		Q += Model(x[j]) - y[j];
	Q = Q / m;
	printf("W:%f\nQ:%f\n", W, Q);
	w = w - a * W;
	q = q - a * Q;
}
 
//主函數(shù);訓練過程
int main()
{
	//循環(huán)標志
	int i, j;
	//訓練輪次
	int epoch;
	//損失函數(shù)
	double L;
	//學習率
	float a;
	float x[100], y[100];
	//隨機數(shù)生成
	for (i = 0; i < 100; i++)
	{
		x[i] = 0.1*i;
		y[i] = x[i] * 3 + 5; //+ ((rand() % 11) / 10);
		printf("X:%.2f,Y:%.2f\n", x[i], y[i]);
	}
	//超參數(shù)設置
	m = 100;
	a = 0.05;
	epoch = 1000;
	//參數(shù)初始化
	w = 2;
	q = 3;
	for (j = 0; j < epoch; j++)
	{
		Gradient_Descent_Optimizer(x, y, a);
		L = Loss(y, x);
		printf("訓練輪次:%d,損失:%f,參數(shù)w的值:%lf,參數(shù)q的值:%lf\n", j+1, L, w, q);
	}
	printf("最終值:\nw:%lf\nq:%lf\n", w, q);
	system("pause");
}

問題總結

下面對在編寫過程中需要注意的問題進行總結:

1.參數(shù)更新

模型中的參數(shù)需要同步更新。所有參數(shù)的更新值經(jīng)過梯度下降法計算得出后要在最后同時更新所有參數(shù)。

2.保留損失函數(shù)

在代碼編寫過程中自己認為不用單獨寫一個損失函數(shù),只需在梯度下降的過程中利用求導后的公式進行相關的參數(shù)優(yōu)化操作即可,但在運行沒有算是函數(shù)的程序時,沒有實時的損失函數(shù)結果評估模型訓練效果可能會導致模型在錯誤的道路上越走越遠。

3.注意數(shù)據(jù)類型

初次運行程序,在訓練至十幾輪時參數(shù)就不再變化,一直到第1000輪參數(shù)都保持不變。后來在檢查代碼時發(fā)現(xiàn),在優(yōu)化函數(shù)將一些參數(shù)的數(shù)據(jù)類型錯誤設置為整型。因此當參數(shù)值改變程度小于1時,參數(shù)將不再變化。

4.超參數(shù)的設置及參數(shù)的初始化

學習率,訓練輪次等的設置是一個對程序編寫者經(jīng)驗要求比較高的工作,需要多次嘗試,找到合適的值,參數(shù)的初始化也是這樣。

心得

本次只是實現(xiàn)了簡單線性回歸的最基本的功能,同時也試一下自己剛買的機械鍵盤(用起來真的很舒服)。這只是我用來練手的程序,如果真的要編寫程序實現(xiàn)功能還是推薦使用python語言搭配TensorFlow、Pytorch等深度學習平臺實現(xiàn)自己想要的功能。程序的可完善空間非常大,比如數(shù)據(jù)和模型的可視化,將數(shù)據(jù)和模型的訓練效果直觀的展示出來,后面還會有序的用C語言實現(xiàn)諸如多元線性回歸,二分類問題,多分類問題甚至卷積神經(jīng)網(wǎng)絡等等。我會在下面貼出使用Python語言編寫的線性回歸的程序,可以兩者結合起來比較一下異同。

# -*- coding: utf-8 -*-
"""
Spyder Editor
This is a temporary script file.
"""
import matplotlib.pyplot as plt
import tensorflow as tf
import numpy as np
 
np.random.seed(5)
 
x_data = np.linspace(-1,1,100)
y_data = 2 * x_data + 1.0 + np.random.randn(*x_data.shape) * 0.4
 
np.random.randn(10)
 
#x_data.shape
 
#np.random.randn(*x_data.shape)
#np.random.randn(100)
plt.scatter(x_data,y_data)
plt.plot(x_data, 2 * x_data + 1.0, color = 'red',linewidth=3)
 
x = tf.placeholder("float",name="x")
y = tf.placeholder("float",name="y")
 
def model(x,w,b):
    return tf.multiply(x,w)+b
 
w = tf.Variable(1.0,name="w0")
b = tf.Variable(0.0,name="b0")
 
pred = model(x,w,b)
 
train_epochs = 10
learning_rate = 0.05
 
loss_function = tf.reduce_mean(tf.square(y-pred))
 
optimizer = tf.train.GradientDescentOptimizer(learning_rate).minimize(loss_function)
 
sess = tf.Session()
 
init = tf.global_variables_initializer()
sess.run(init)
 
i_ci=0
 
for epoch in range(train_epochs):
    for xs,ys in zip(x_data,y_data):
        _, loss=sess.run([optimizer,loss_function],feed_dict={x:xs,y:ys})
        b0temp=b.eval(session=sess)
        w0temp=w.eval(session=sess)
    plt.plot(x_data,w0temp*x_data+b0temp)
        
print("w:",sess.run(w))
print("b:",sess.run(b))
 
plt.scatter(x_data,y_data,label='Original data')
plt.plot(x_data,x_data*sess.run(w)+sess.run(b),label='Fitted Line',color='r',linewidth=3)
plt.legend(loc=2)

到此這篇關于Python 機器學習之線性回歸詳解分析的文章就介紹到這了,更多相關Python 機器學習內容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關文章希望大家以后多多支持腳本之家!

相關文章

  • Django卸載之后重新安裝的方法

    Django卸載之后重新安裝的方法

    如果你打算從過去的一個版本升級Django, 你需要先刪除老版本的Django之后,再安裝新的版本。下面這篇文章主要給大家介紹了在Django卸載之后重新安裝的方法,文中給出了詳細的步驟,需要的朋友可以參考借鑒,下面來一起看看吧。
    2017-03-03
  • python dataframe如何選擇某一列非空的行

    python dataframe如何選擇某一列非空的行

    這篇文章主要介紹了python dataframe如何選擇某一列非空的行問題,具有很好的參考價值,希望對大家有所幫助,如有錯誤或未考慮完全的地方,望不吝賜教
    2024-02-02
  • windows下cx_Freeze生成Python可執(zhí)行程序的詳細步驟

    windows下cx_Freeze生成Python可執(zhí)行程序的詳細步驟

    這篇文章主要介紹了windows下cx_Freeze生成Python可執(zhí)行程序的詳細步驟,小編覺得挺不錯的,現(xiàn)在分享給大家,也給大家做個參考。一起跟隨小編過來看看吧
    2018-10-10
  • 致Python初學者 Anaconda入門使用指南完整版

    致Python初學者 Anaconda入門使用指南完整版

    相信大多數(shù) Python 的初學者們都曾為環(huán)境問題而頭疼不已,但你并不孤獨,大家都是這么折騰過來的。為了在入門時少走彎路,并且讓高漲的積極性不至于太受打擊,這里推薦使用 Anaconda 來管理你的安裝環(huán)境和各種工具包
    2018-04-04
  • 詳解Python Flask框架的安裝及應用

    詳解Python Flask框架的安裝及應用

    Flask誕生于愚人節(jié)開的一個玩笑,后來逐漸發(fā)展成為一個成熟的 Python Web框架,越來越受到開發(fā)者的喜愛。本文將以一個博客后臺為例,詳解Flask框架的安裝及應用,需要的可以參考一下
    2022-05-05
  • Python requests庫參數(shù)提交的注意事項總結

    Python requests庫參數(shù)提交的注意事項總結

    這篇文章主要給大家介紹了關于Python requests庫參數(shù)提交的注意事項,文中通過示例代碼和圖片介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧
    2021-03-03
  • Python實現(xiàn)搜索算法的實例代碼

    Python實現(xiàn)搜索算法的實例代碼

    這篇文章主要介紹了Python實現(xiàn)搜索算法,文中通過實例代碼給大家分享高級搜索算法的想法,分為線性搜索和插值搜索,本文通過實例代碼給大家介紹的非常詳細,具有一定的參考借鑒價值,需要的朋友可以參考下
    2020-01-01
  • Python正則表達式匹配數(shù)字和小數(shù)的方法

    Python正則表達式匹配數(shù)字和小數(shù)的方法

    這篇文章主要介紹了Python正則匹配數(shù)字和小數(shù)的方法,本文通過示例代碼給大家介紹的非常詳細,具有一定的參考借鑒價值,需要的朋友可以參考下
    2019-07-07
  • python+selenium 簡易地疫情信息自動打卡簽到功能的實現(xiàn)代碼

    python+selenium 簡易地疫情信息自動打卡簽到功能的實現(xiàn)代碼

    這篇文章主要介紹了python+selenium 簡易地疫情信息自動打卡簽到功能的實現(xiàn)代碼,代碼簡單易懂,對大家的學習或工作具有一定的參考借鑒價值,需要的朋友可以參考下
    2020-08-08
  • Python數(shù)組條件過濾filter函數(shù)使用示例

    Python數(shù)組條件過濾filter函數(shù)使用示例

    數(shù)組條件過濾簡潔實現(xiàn)方式,使用filter函數(shù),實現(xiàn)一個條件判斷函數(shù)即可,示例代碼如下
    2014-07-07

最新評論