欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

Python實現梯度下降法的示例代碼

 更新時間:2022年08月08日 10:46:32   作者:侯小啾  
梯度下降法的機器學習的重要思想之一,梯度下降法的目標,是使得代價函數最小。本文將對梯度下降算法的原理及實現展開詳細介紹,感興趣的快跟隨小編一起學習學習吧

1.首先讀取數據集

導包并讀取數據,數據自行任意準備,只要有兩列,可以分為自變量x和因變量y即可即可。

import numpy as np
import matplotlib.pyplot as plt

data = np.loadtxt("data.csv", delimiter=",")

x_data = data[:, 0]
y_data = data[:, 1]

2.初始化相關參數

# 初始化 學習率 即每次梯度下降時的步長 這里設置為0.0001
learning_rate = 0.0001

# 初始化 截距b 與 斜率k
b = 0
k = 0

# 初始化最大迭代的次數 以50次為例
n_iterables = 50

3.定義計算代價函數–>MSE

使用均方誤差 MSE (Mean Square Error)來作為性能度量標準

假設共有m個樣本數據,則均方誤差:

將該公式定義為代價函數,此外為例后續(xù)求導方便,則使結果在原mse的基礎上,再乘以1/2。

def compute_mse(b,  k,  x_data, y_data):
    total_error = 0
    for i in range(len(x_data)):
        total_error += (y_data[i] - (k * x_data[i] + b)) ** 2

    # 為方便求導:乘以1/2
    mse_ = total_error / len(x_data) / 2
    return mse_

4.梯度下降

分別對上述的MSE表達式(乘以1/2后)中的k,b求偏導,

更新b和k時,使用原來的b,k值分別減去關于b、k的偏導數與學習率的乘積即可。至于為什么使用減號,可以這么理解:以斜率k為例,當其導數大于零的時候,則表示均方誤差隨著斜率的增大而增大,為了使均方誤差減小,則不應該使斜率繼續(xù)增大,所以需要使其減小,反之當偏導大于零的時候也是同理。其次,因為這個導數衡量的是均方誤差的變化,而不是斜率和截距的變化,所以這里需要引入一個學習率,使得其與偏導數的乘積能夠在一定程度上起到控制截距和斜率變化的作用。

def gradient_descent(x_data, y_data, b,  k,  learning_rate,  n_iterables):
    m = len(x_data)
    # 迭代
    for i in range(n_iterables):
        # 初始化b、k的偏導
        b_grad = 0
        k_grad = 0

        # 遍歷m次
        for j in range(m):
            # 對b,k求偏導
            b_grad += (1 / m) * ((k * x_data[j] + b) - y_data[j])
            k_grad += (1 / m) * ((k * x_data[j] + b) - y_data[j]) * x_data[j]

        # 更新 b 和 k  減去偏導乘以學習率
        b = b - (learning_rate * b_grad)
        k = k - (learning_rate * k_grad)
        # 每迭代 5 次  輸出一次圖形
        if i % 5 == 0:
            print(f"當前第{i}次迭代")
            print("b_gard:", b_grad, "k_gard:", k_grad)
            print("b:", b, "k:", k)
            plt.scatter(x_data, y_data, color="maroon", marker="x")
            plt.plot(x_data, k * x_data + b)
            plt.show()
    return b, k

5.執(zhí)行

print(f"開始:截距b=,斜率k={k},損失={compute_mse(b,k,x_data,y_data)}")
print("開始迭代")
b, k = gradient_descent(x_data, y_data, b, k, learning_rate, n_iterables)
print(f"迭代{n_iterables}次后:截距b=,斜率k={k},損失={compute_mse(b,k,x_data,y_data)}")

代碼執(zhí)行過程產生了一系列的圖像,部分圖像如下圖所示,隨著迭代次數的增加,代價函數越來越小,最終達到預期效果,如下圖所示:

第5次迭代:

第10次迭代:

第50次迭代:

執(zhí)行過程的輸出結果如下圖所示:

可以看到,隨著偏導數越來越小,斜率與截距的變化也越來越細微。

到此這篇關于Python實現梯度下降法的示例代碼的文章就介紹到這了,更多相關Python梯度下降法內容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關文章希望大家以后多多支持腳本之家!

相關文章

  • Python類的動態(tài)修改的實例方法

    Python類的動態(tài)修改的實例方法

    這篇文章主要介紹了Python類的動態(tài)修改的實例方法的相關資料,需要的朋友可以參考下
    2017-03-03
  • 在python中利用opencv簡單做圖片比對的方法

    在python中利用opencv簡單做圖片比對的方法

    今天小編就為大家分享一篇在python中利用opencv簡單做圖片比對的方法,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2019-01-01
  • 使用python切片實現二維數組復制示例

    使用python切片實現二維數組復制示例

    今天小編就為大家分享一篇使用python切片實現二維數組復制示例,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2019-11-11
  • Python+OpenCV之形態(tài)學操作詳解

    Python+OpenCV之形態(tài)學操作詳解

    這篇文章主要為大家詳細介紹了Python?OpenCV中的形態(tài)學操作(開運算、閉運算)的實現,文中的示例代碼講解詳細,感興趣的小伙伴可以了解一下
    2022-09-09
  • 淺析python繼承與多重繼承

    淺析python繼承與多重繼承

    在本篇文章中我們給大家分析了python繼承與多重繼承的相關知識點內容,有興趣的讀者們參考下。
    2018-09-09
  • Python使用itertools模塊實現排列組合功能示例

    Python使用itertools模塊實現排列組合功能示例

    這篇文章主要介紹了Python使用itertools模塊實現排列組合功能,涉及Python基于itertools模塊product、permutations與combinations_with_replacement方法進行排列、組合等相關操作實現技巧,需要的朋友可以參考下
    2018-07-07
  • python中單下劃線(_)和雙下劃線(__)的特殊用法

    python中單下劃線(_)和雙下劃線(__)的特殊用法

    這篇文章主要介紹了python中單下劃線(_)和雙下劃線(__)的特殊用法,本文給大家介紹的非常詳細,具有一定的參考借鑒價值,需要的朋友可以參考下
    2019-08-08
  • python中sleep函數用法實例分析

    python中sleep函數用法實例分析

    這篇文章主要介紹了python中sleep函數用法,實例分析了sleep函數的功能及使用技巧,非常具有實用價值,需要的朋友可以參考下
    2015-04-04
  • django session完成狀態(tài)保持的方法

    django session完成狀態(tài)保持的方法

    這篇文章主要介紹了django session完成狀態(tài)保持的方法,使用登錄頁面演示session的狀態(tài)保持功能,小編覺得挺不錯的,現在分享給大家,也給大家做個參考。一起跟隨小編過來看看吧
    2018-11-11
  • 詳解OpenCV執(zhí)行連通分量標記的方法和分析

    詳解OpenCV執(zhí)行連通分量標記的方法和分析

    在本教程中,您將學習如何使用?OpenCV?執(zhí)行連通分量標記和分析。具體來說,我們將重點介紹?OpenCV?最常用的連通分量標記函數:cv2.connectedComponentsWithStats,感興趣的可以了解一下
    2022-08-08

最新評論