欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

利用python實(shí)現(xiàn)3種梯度下降算法

 更新時(shí)間:2023年12月18日 11:08:12   作者:艾派森  
梯度下降法是一種優(yōu)化算法,用于求解函數(shù)的最小值或最大值,它通過(guò)迭代的方式,沿著函數(shù)的梯度方向逐步調(diào)整參數(shù),以找到函數(shù)的極值點(diǎn),本文給大家介紹了利用python實(shí)現(xiàn)3種梯度下降算法,需要的朋友可以參考下

全量梯度下降

Batch Gradient Descent

在梯度下降中,對(duì)于θ的更新,所有的樣本都有貢獻(xiàn),也就是參與調(diào)整θ。其計(jì)算得到 的是一個(gè)標(biāo)準(zhǔn)梯度。因而理論上來(lái)說(shuō)一次更新的幅度是比較大的。如果樣本不多的情況下, 當(dāng)然是這樣收斂的速度會(huì)更快啦。全量梯度下降每次學(xué)習(xí)都使用整個(gè)訓(xùn)練集,因此其優(yōu)點(diǎn)在 于每次更新都會(huì)朝著正確的方向進(jìn)行,最后能夠保證收斂于極值點(diǎn)(凸函數(shù)收斂于全局極值 點(diǎn),非凸函數(shù)可能會(huì)收斂于局部極值點(diǎn)),但是其缺點(diǎn)在于每次學(xué)習(xí)時(shí)間過(guò)長(zhǎng),并且如果訓(xùn) 練集很大以至于需要消耗大量的內(nèi)存,并且全量梯度下降不能進(jìn)行在線模型參數(shù)更新。

代碼實(shí)現(xiàn):

import numpy as np
 
# 創(chuàng)建數(shù)據(jù)集X,y
np.random.seed(1)
X = np.random.rand(100, 1)
y = 4 + 3*X + np.random.randn(100, 1)
X_b = np.c_[np.ones((100, 1)), X]
 
# 創(chuàng)建超參數(shù)
n_iterations = 10000
t0, t1 = 5, 500
 
# 定義一個(gè)函數(shù)來(lái)動(dòng)態(tài)調(diào)整學(xué)習(xí)率
def learning_rate_schedule(t):
    return t0/(t+t1)
 
# 1,初始化θ, W0...Wn,標(biāo)準(zhǔn)正太分布創(chuàng)建W
theta = np.random.randn(2, 1)
# 4,判斷是否收斂,一般不會(huì)去設(shè)定閾值,而是直接采用設(shè)置相對(duì)大的迭代次數(shù)保證可以收斂
for i in range(n_iterations):
    # 2,求梯度,計(jì)算gradient
    gradients = X_b.T.dot(X_b.dot(theta)-y)
    # 3,應(yīng)用梯度下降法的公式去調(diào)整θ值 θt+1=θt-η*gradient
    learning_rate = learning_rate_schedule(i)
    theta = theta - learning_rate * gradients
print(theta)
[[4.23695725]
 [2.68492509]]

隨機(jī)梯度下降

Stochastic Gradient Descent

梯度下降算法每次從訓(xùn)練集中隨機(jī)選擇一個(gè)樣本來(lái)進(jìn)行學(xué)習(xí)。批量梯度下降算法每次都 會(huì)使用全部訓(xùn)練樣本,因此這些計(jì)算是冗余的,因?yàn)槊看味际褂猛耆嗤臉颖炯?。而隨機(jī) 梯度下降算法每次只隨機(jī)選擇一個(gè)樣本來(lái)更新模型參數(shù),因此每次的學(xué)習(xí)是非??焖俚?,并 且可以進(jìn)行在線更新。隨機(jī)梯度下降最大的缺點(diǎn)在于每次更新可能并不會(huì)按照正確的方向進(jìn) 行,因此可以帶來(lái)優(yōu)化波動(dòng)(擾動(dòng))。

不過(guò)從另一個(gè)方面來(lái)看,隨機(jī)梯度下降所帶來(lái)的波動(dòng)有個(gè)好處就是,對(duì)于類似盆地區(qū)域 (即很多局部極小值點(diǎn))那么這個(gè)波動(dòng)的特點(diǎn)可能會(huì)使得優(yōu)化的方向從當(dāng)前的局部極小值點(diǎn) 跳到另一個(gè)更好的局部極小值點(diǎn),這樣便可能對(duì)于非凸函數(shù),最終收斂于一個(gè)較好的局部極 值點(diǎn),甚至全局極值點(diǎn)。由于波動(dòng),因此會(huì)使得迭代次數(shù)(學(xué)習(xí)次數(shù))增多,即收斂速度變 慢。不過(guò)最終其會(huì)和全量梯度下降算法一樣,具有相同的收斂性,即凸函數(shù)收斂于全局極值 點(diǎn),非凸損失函數(shù)收斂于局部極值點(diǎn)。       

代碼實(shí)現(xiàn):

import numpy as np
 
# 創(chuàng)建數(shù)據(jù)集
X = 2*np.random.rand(100, 1)
y = 4 + 3*X + np.random.randn(100, 1)
X_b = np.c_[np.ones((100, 1)), X]
# 創(chuàng)建超參數(shù)
n_epochs = 10000
m = 100
t0, t1 = 5, 500
 
# 定義一個(gè)函數(shù)來(lái)調(diào)整學(xué)習(xí)率
def learning_rate_schedule(t):
    return t0/(t+t1)
 
theta = np.random.randn(2, 1)
for epoch in range(n_epochs):
    # 在雙層for循環(huán)之間,每個(gè)輪次開(kāi)始分批次迭代之前打亂數(shù)據(jù)索引順序
    arr = np.arange(len(X_b))
    np.random.shuffle(arr)
    X_b = X_b[arr]
    y = y[arr]
    for i in range(m):
        xi = X_b[i:i+1]
        yi = y[i:i+1]
        gradients = xi.T.dot(xi.dot(theta)-yi)
        learning_rate = learning_rate_schedule(epoch*m + i)
        theta = theta - learning_rate * gradients
 
print(theta)
[[3.91306085]
 [3.16087742]]

小批量梯度下降

Mini-Batch Gradient Descent

Mini-batch 梯度下降綜合了 batch 梯度下降與 stochastic 梯度下降,在每次更新速 度與更新次數(shù)中間取得一個(gè)平衡,其每次更新從訓(xùn)練集中隨機(jī)選擇 batch_size,batch_size < m 個(gè)樣本進(jìn)行學(xué)習(xí)。相對(duì)于隨機(jī)梯度下降算法,小批量梯度下降算法降低了收斂波動(dòng)性, 即降低了參數(shù)更新的方差,使得更新更加穩(wěn)定。相對(duì)于全量梯度下降,其提高了每次學(xué)習(xí)的速度。并且其不用擔(dān)心內(nèi)存瓶頸從而可以利用矩陣運(yùn)算進(jìn)行高效計(jì)算。一般而言每次更新隨 機(jī)選擇[50,256]個(gè)樣本進(jìn)行學(xué)習(xí),但是也要根據(jù)具體問(wèn)題而選擇,實(shí)踐中可以進(jìn)行多次試驗(yàn), 選擇一個(gè)更新速度與更次次數(shù)都較適合的樣本數(shù)。

代碼實(shí)現(xiàn):

import numpy as np
 
# 創(chuàng)建數(shù)據(jù)集X,y
X = 2*np.random.rand(100, 1)
y = 4 + 3*X + np.random.randn(100, 1)
X_b = np.c_[np.ones((100, 1)), X]
 
# 創(chuàng)建超參數(shù)
t0, t1 = 5, 500
 
# 定義一個(gè)函數(shù)來(lái)動(dòng)態(tài)調(diào)整學(xué)習(xí)率
def learning_rate_schedule(t):
    return t0/(t+t1)
 
n_epochs = 100000
m = 100
batch_size = 10
num_batches = int(m / batch_size)
 
theta = np.random.randn(2, 1)
for epoch in range(n_epochs):
    arr = np.arange(len(X_b))
    np.random.shuffle(arr)
    X_b = X_b[arr]
    y = y[arr]
    for i in range(num_batches):
        x_batch = X_b[i*batch_size: i*batch_size + batch_size]
        y_batch = y[i*batch_size: i*batch_size + batch_size]
        gradients = x_batch.T.dot(x_batch.dot(theta)-y_batch)
        learning_rate = learning_rate_schedule(epoch * m + i)
        theta = theta - learning_rate*gradients
 
print(theta)
[[3.91630905]
 [2.95252566]]

三種梯度下降區(qū)別和優(yōu)缺點(diǎn)

在講三種梯度下降區(qū)別之前,我們先來(lái)總結(jié)一下梯度下降法的步驟:

1. 瞎蒙,Random 隨機(jī)θ,隨機(jī)一組數(shù)值 W0…Wn

2. 求梯度,為什么是梯度?因?yàn)樘荻却砬€某點(diǎn)上的切線的斜率,沿著切線往下下降就 相當(dāng)于沿著坡度最陡峭的方向下降

3. if g0, theta 往小調(diào)

4. 判斷是否收斂 convergence,如果收斂跳出迭代,如果沒(méi)有達(dá)到收斂,回第 2 步繼續(xù) 四步驟對(duì)應(yīng)計(jì)算方式:

a. np.random.rand()或者 np.random.randn()

b. i w j gradient = (h (x) - y)× x

c. Wi t+1 =Wi t -h ×gradient i

d. 判斷收斂這里使用 g=0 其實(shí)并不合理,因?yàn)楫?dāng)損失函數(shù)是非凸函數(shù)的話 g=0 有可能是 極大值對(duì)嗎!所以其實(shí)我們判斷 loss 的下降收益更合理,當(dāng)隨著迭代 loss 減小的幅度 即收益不再變化就可以認(rèn)為停止在最低點(diǎn),收斂!

區(qū)別:其實(shí)三種梯度下降的區(qū)別僅在于第 2 步求梯度所用到的 X 數(shù)據(jù)集的樣本數(shù)量不同! 它們每次學(xué)習(xí)(更新模型參數(shù))使用的樣本個(gè)數(shù),每次更新使用不同的樣本會(huì)導(dǎo)致每次學(xué)習(xí)的 準(zhǔn)確性和學(xué)習(xí)時(shí)間不同

以上就是利用python實(shí)現(xiàn)3種梯度下降算法的詳細(xì)內(nèi)容,更多關(guān)于python梯度下降算法的資料請(qǐng)關(guān)注腳本之家其它相關(guān)文章!

相關(guān)文章

  • Python3如何解決字符編碼問(wèn)題詳解

    Python3如何解決字符編碼問(wèn)題詳解

    字符串是一種數(shù)據(jù)類型,但是,字符串比較特殊的是還有一個(gè)編碼問(wèn)題。下面這篇文章主要給大家介紹了關(guān)于Python3如何解決字符編碼問(wèn)題的相關(guān)資料,文中介紹的還是相對(duì)比較詳細(xì)的,需要的朋友可以參考借鑒,下面來(lái)一起看看吧。
    2017-04-04
  • python判斷列表字典字符串元組是否存在某個(gè)值或者空值(多種方法)

    python判斷列表字典字符串元組是否存在某個(gè)值或者空值(多種方法)

    這篇文章主要介紹了python判斷列表字典字符串元組是否存在某個(gè)值或者空值,本文通過(guò)實(shí)例代碼給大家介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或工作具有一定的參考借鑒價(jià)值,需要的朋友參考下吧
    2024-02-02
  • Python字符串和其常用函數(shù)合集

    Python字符串和其常用函數(shù)合集

    這篇文章主要給大介紹Python字符串和分享其常用函數(shù)合集,字符串、首字母大寫(xiě)定義、所有字母大寫(xiě)、所有字母小寫(xiě)等函數(shù),具有一定的參考價(jià)值,需要的朋友可以參考一下
    2022-03-03
  • python實(shí)現(xiàn)摳圖給證件照換背景源碼

    python實(shí)現(xiàn)摳圖給證件照換背景源碼

    這篇文章主要為大家詳細(xì)介紹了python實(shí)現(xiàn)摳圖給證件照換背景源碼,具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下
    2019-08-08
  • python 自動(dòng)重連wifi windows的方法

    python 自動(dòng)重連wifi windows的方法

    今天小編就為大家分享一篇python 自動(dòng)重連wifi windows的方法,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧
    2018-12-12
  • python從sqlite讀取并顯示數(shù)據(jù)的方法

    python從sqlite讀取并顯示數(shù)據(jù)的方法

    這篇文章主要介紹了python從sqlite讀取并顯示數(shù)據(jù)的方法,涉及Python操作SQLite數(shù)據(jù)庫(kù)的讀取及顯示相關(guān)技巧,需要的朋友可以參考下
    2015-05-05
  • 用python批量下載apk

    用python批量下載apk

    這篇文章主要介紹了用python批量下載apk的方法,幫助大家更好的理解和使用python,感興趣的朋友可以了解下
    2020-12-12
  • python eval()函數(shù)使用詳情

    python eval()函數(shù)使用詳情

    這篇文章主要來(lái)來(lái)聊聊python eval()函數(shù)使用方法本文將以python eval()函數(shù)使用方法來(lái)展開(kāi)內(nèi)容,需要的小伙伴可以參考以下文章的內(nèi)容,希望對(duì)你有所幫助
    2021-10-10
  • python3 selenium 切換窗口的幾種方法小結(jié)

    python3 selenium 切換窗口的幾種方法小結(jié)

    今天小編就為大家分享一篇python3 selenium 切換窗口的幾種方法小結(jié),具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧
    2018-05-05
  • 關(guān)于Python調(diào)用百度語(yǔ)音合成SDK實(shí)現(xiàn)文字轉(zhuǎn)音頻的方法

    關(guān)于Python調(diào)用百度語(yǔ)音合成SDK實(shí)現(xiàn)文字轉(zhuǎn)音頻的方法

    這篇文章主要介紹了關(guān)于Python調(diào)用百度語(yǔ)音合成SDK實(shí)現(xiàn)文字轉(zhuǎn)音頻的方法,AipSpeech是語(yǔ)音合成的Python?SDK客戶端,為使用語(yǔ)音合成的開(kāi)發(fā)人員提供了一系列的交互方法,需要的朋友可以參考下
    2023-07-07

最新評(píng)論