Python實(shí)現(xiàn)梯度下降法的示例代碼
1.首先讀取數(shù)據(jù)集
導(dǎo)包并讀取數(shù)據(jù),數(shù)據(jù)自行任意準(zhǔn)備,只要有兩列,可以分為自變量x和因變量y即可即可。
import numpy as np import matplotlib.pyplot as plt data = np.loadtxt("data.csv", delimiter=",") x_data = data[:, 0] y_data = data[:, 1]
2.初始化相關(guān)參數(shù)
# 初始化 學(xué)習(xí)率 即每次梯度下降時(shí)的步長 這里設(shè)置為0.0001 learning_rate = 0.0001 # 初始化 截距b 與 斜率k b = 0 k = 0 # 初始化最大迭代的次數(shù) 以50次為例 n_iterables = 50
3.定義計(jì)算代價(jià)函數(shù)–>MSE
使用均方誤差 MSE (Mean Square Error)來作為性能度量標(biāo)準(zhǔn)
假設(shè)共有m個(gè)樣本數(shù)據(jù),則均方誤差:
將該公式定義為代價(jià)函數(shù),此外為例后續(xù)求導(dǎo)方便,則使結(jié)果在原mse的基礎(chǔ)上,再乘以1/2。
def compute_mse(b, k, x_data, y_data): total_error = 0 for i in range(len(x_data)): total_error += (y_data[i] - (k * x_data[i] + b)) ** 2 # 為方便求導(dǎo):乘以1/2 mse_ = total_error / len(x_data) / 2 return mse_
4.梯度下降
分別對(duì)上述的MSE表達(dá)式(乘以1/2后)中的k,b求偏導(dǎo),
更新b和k時(shí),使用原來的b,k值分別減去關(guān)于b、k的偏導(dǎo)數(shù)與學(xué)習(xí)率的乘積即可。至于為什么使用減號(hào),可以這么理解:以斜率k為例,當(dāng)其導(dǎo)數(shù)大于零的時(shí)候,則表示均方誤差隨著斜率的增大而增大,為了使均方誤差減小,則不應(yīng)該使斜率繼續(xù)增大,所以需要使其減小,反之當(dāng)偏導(dǎo)大于零的時(shí)候也是同理。其次,因?yàn)檫@個(gè)導(dǎo)數(shù)衡量的是均方誤差的變化,而不是斜率和截距的變化,所以這里需要引入一個(gè)學(xué)習(xí)率,使得其與偏導(dǎo)數(shù)的乘積能夠在一定程度上起到控制截距和斜率變化的作用。
def gradient_descent(x_data, y_data, b, k, learning_rate, n_iterables): m = len(x_data) # 迭代 for i in range(n_iterables): # 初始化b、k的偏導(dǎo) b_grad = 0 k_grad = 0 # 遍歷m次 for j in range(m): # 對(duì)b,k求偏導(dǎo) b_grad += (1 / m) * ((k * x_data[j] + b) - y_data[j]) k_grad += (1 / m) * ((k * x_data[j] + b) - y_data[j]) * x_data[j] # 更新 b 和 k 減去偏導(dǎo)乘以學(xué)習(xí)率 b = b - (learning_rate * b_grad) k = k - (learning_rate * k_grad) # 每迭代 5 次 輸出一次圖形 if i % 5 == 0: print(f"當(dāng)前第{i}次迭代") print("b_gard:", b_grad, "k_gard:", k_grad) print("b:", b, "k:", k) plt.scatter(x_data, y_data, color="maroon", marker="x") plt.plot(x_data, k * x_data + b) plt.show() return b, k
5.執(zhí)行
print(f"開始:截距b=,斜率k={k},損失={compute_mse(b,k,x_data,y_data)}") print("開始迭代") b, k = gradient_descent(x_data, y_data, b, k, learning_rate, n_iterables) print(f"迭代{n_iterables}次后:截距b=,斜率k={k},損失={compute_mse(b,k,x_data,y_data)}")
代碼執(zhí)行過程產(chǎn)生了一系列的圖像,部分圖像如下圖所示,隨著迭代次數(shù)的增加,代價(jià)函數(shù)越來越小,最終達(dá)到預(yù)期效果,如下圖所示:
第5次迭代:
第10次迭代:
第50次迭代:
執(zhí)行過程的輸出結(jié)果如下圖所示:
可以看到,隨著偏導(dǎo)數(shù)越來越小,斜率與截距的變化也越來越細(xì)微。
到此這篇關(guān)于Python實(shí)現(xiàn)梯度下降法的示例代碼的文章就介紹到這了,更多相關(guān)Python梯度下降法內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
Python類的動(dòng)態(tài)修改的實(shí)例方法
這篇文章主要介紹了Python類的動(dòng)態(tài)修改的實(shí)例方法的相關(guān)資料,需要的朋友可以參考下2017-03-03在python中利用opencv簡單做圖片比對(duì)的方法
今天小編就為大家分享一篇在python中利用opencv簡單做圖片比對(duì)的方法,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過來看看吧2019-01-01使用python切片實(shí)現(xiàn)二維數(shù)組復(fù)制示例
今天小編就為大家分享一篇使用python切片實(shí)現(xiàn)二維數(shù)組復(fù)制示例,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過來看看吧2019-11-11Python+OpenCV之形態(tài)學(xué)操作詳解
這篇文章主要為大家詳細(xì)介紹了Python?OpenCV中的形態(tài)學(xué)操作(開運(yùn)算、閉運(yùn)算)的實(shí)現(xiàn),文中的示例代碼講解詳細(xì),感興趣的小伙伴可以了解一下2022-09-09Python使用itertools模塊實(shí)現(xiàn)排列組合功能示例
這篇文章主要介紹了Python使用itertools模塊實(shí)現(xiàn)排列組合功能,涉及Python基于itertools模塊product、permutations與combinations_with_replacement方法進(jìn)行排列、組合等相關(guān)操作實(shí)現(xiàn)技巧,需要的朋友可以參考下2018-07-07python中sleep函數(shù)用法實(shí)例分析
這篇文章主要介紹了python中sleep函數(shù)用法,實(shí)例分析了sleep函數(shù)的功能及使用技巧,非常具有實(shí)用價(jià)值,需要的朋友可以參考下2015-04-04詳解OpenCV執(zhí)行連通分量標(biāo)記的方法和分析
在本教程中,您將學(xué)習(xí)如何使用?OpenCV?執(zhí)行連通分量標(biāo)記和分析。具體來說,我們將重點(diǎn)介紹?OpenCV?最常用的連通分量標(biāo)記函數(shù):cv2.connectedComponentsWithStats,感興趣的可以了解一下2022-08-08