利用Python實(shí)現(xiàn)最小二乘法與梯度下降算法
導(dǎo)入所需庫(kù)
%matplotlib inline import sympy import numpy as np import matplotlib.pyplot as plt from sympy.abc import x as a,y as b
生成模擬數(shù)據(jù)
# 模擬函數(shù) y=3x-1 #自變量 x=np.linspace(-5,5,num=1000) #加入噪聲 noise=np.random.rand(len(x))*2-1 #因變量 y=3*x-1+noise
查看所生成數(shù)據(jù)的圖像
plt.figure(figsize=(10,10)) plt.scatter(x,y,s=1)
求代價(jià)函數(shù)的偏導(dǎo)
y=ax+b #目標(biāo)函數(shù) e=1/2*Σ([axi+b]-yi)^2 #代價(jià)函數(shù),求使得代價(jià)函數(shù)為最小值時(shí),對(duì)應(yīng)的a和b 對(duì)a求偏導(dǎo)->Σ(axi+b-yi)*xi 對(duì)b求偏導(dǎo)->Σ(axi+b-yi)
1. 通過(guò)最小二乘法求a,b
我們知道當(dāng)在a,b處的偏導(dǎo)為0時(shí),代價(jià)函數(shù)e達(dá)到最小值,所以得到二元一次方程組
Σ(axi+b-yi)*xi=0
Σ(axi+b-yi)=0
該方程組是關(guān)于未知數(shù)為a,b的二元一次方程組,通過(guò)求解該方程,得到a,b
result=sympy.solve([ np.sum((a*x+b-y)*x), np.sum(a*x+b-y)],[a,b]) print(result) #{x: 3.01182977621975, y: -1.00272253325765}
通過(guò)sympy庫(kù)解方程組,得出了a= 3.01182977621975,b= -1.00272253325765,已經(jīng)與我們真實(shí)的a,b很接近了,下面進(jìn)行作圖
plt.figure(figsize=(10,10)) plt.scatter(x,y,s=1) plt.plot(x,result[a]*x+result[b],c='red') print(type(a),type(b)) #<class 'sympy.core.symbol.Symbol'> <class 'sympy.core.symbol.Symbol'>
2. 通過(guò)梯度下降算法求a,b
我們注意到最小二乘法最后一步要求p個(gè)方程組,是非常大的計(jì)算量,其實(shí)計(jì)算起來(lái)很難,因此我們就有了一種新的計(jì)算方法,就是梯度下降法,梯度下降法可以看作是 更簡(jiǎn)單的一種 求最小二乘法最后一步解方程 的方法
# 注意這里覆蓋了sympy.abc的a和b # 設(shè)定a和b的起始點(diǎn) a,b=0.1,0.1 #步長(zhǎng),也稱(chēng)作學(xué)習(xí)率 alpha=0.00001 #循環(huán)一千次結(jié)束 for i in range(1000): a-=alpha*np.sum((a*x+b-y)*x) b-=alpha*np.sum(a*x+b-y) print(a,b) #3.0118297762197526 -1.002674927350334
通過(guò)梯度下降法,得出了a= 3.0118297762197526,b= -1.002674927350334,也是很接近真實(shí)的a,b值了,作圖看看
plt.figure(figsize=(10,10)) plt.scatter(x,y,s=1) plt.plot(x,a*x+b,c='black') print(type(a),type(b)) #<class 'numpy.float64'> <class 'numpy.float64'>
到此這篇關(guān)于利用Python實(shí)現(xiàn)最小二乘法與梯度下降算法的文章就介紹到這了,更多相關(guān)Python最小二乘法與梯度下降內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
淺談Pytorch torch.optim優(yōu)化器個(gè)性化的使用
今天小編就為大家分享一篇淺談Pytorch torch.optim優(yōu)化器個(gè)性化的使用,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2020-02-02PyTorch實(shí)現(xiàn)多維度特征輸入邏輯回歸
這篇文章主要介紹了PyTorch實(shí)現(xiàn)多維度特征輸入邏輯回歸,首先進(jìn)行數(shù)據(jù)采取數(shù)據(jù)集展開(kāi)詳細(xì)內(nèi)容,需要的小伙伴可以參考一下2022-03-03Python實(shí)現(xiàn)霍夫圓和橢圓變換代碼詳解
這篇文章主要介紹了Python實(shí)現(xiàn)霍夫圓和橢圓變換代碼詳解,具有一定借鑒價(jià)值,需要的朋友可以參考下2018-01-01從np.random.normal()到正態(tài)分布的擬合操作
這篇文章主要介紹了從np.random.normal()到正態(tài)分布的擬合操作,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教2021-06-06python實(shí)現(xiàn)爬蟲(chóng)統(tǒng)計(jì)學(xué)校BBS男女比例(一)
這篇文章主要介紹了python實(shí)現(xiàn)爬蟲(chóng)統(tǒng)計(jì)學(xué)校BBS男女比例,,需要的朋友可以參考下2015-12-12Python實(shí)現(xiàn)簡(jiǎn)易的圖書(shū)管理系統(tǒng)
這篇文章主要為大家詳細(xì)介紹了Python實(shí)現(xiàn)簡(jiǎn)易的圖書(shū)管理系統(tǒng),文中示例代碼介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下2022-03-03詳解Python中如何寫(xiě)控制臺(tái)進(jìn)度條的整理
這篇文章主要介紹了詳解Python中如何寫(xiě)控制臺(tái)進(jìn)度條的整理,小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,也給大家做個(gè)參考。一起跟隨小編過(guò)來(lái)看看吧2018-03-03Python大數(shù)據(jù)用Numpy Array的原因解讀
一個(gè)Numpy數(shù)組由許多值組成,所有值的類(lèi)型是相同的,Numpy 是Python科學(xué)計(jì)算的一個(gè)核心模塊,本文重點(diǎn)給大家介紹Python大數(shù)據(jù)Numpy Array的相關(guān)知識(shí),感興趣的朋友一起看看吧2022-02-02