欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

python機(jī)器學(xué)習(xí)邏輯回歸隨機(jī)梯度下降法

 更新時(shí)間:2021年11月13日 15:46:34   作者:RDSunday  
這篇文章主要為大家介紹了python機(jī)器學(xué)習(xí)邏輯回歸隨機(jī)梯度下降法的詳細(xì)講解,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步

寫在前面

隨機(jī)梯度下降法就在隨機(jī)梯度上。意思就是說(shuō)當(dāng)我們?cè)诔跏键c(diǎn)時(shí)想找到下一點(diǎn)的梯度,這個(gè)點(diǎn)是隨機(jī)的。全批量梯度下降是從一個(gè)點(diǎn)接著一點(diǎn)是有順序的,全部數(shù)據(jù)點(diǎn)都要求梯度且有順序。

全批量梯度下降雖然穩(wěn)定,但速度較慢;

SGD雖然快,但是不夠穩(wěn)定

隨機(jī)梯度下降法

隨機(jī)梯度下降法(Stochastic Gradient Decent,
SGD)是對(duì)全批量梯度下降法計(jì)算效率的改進(jìn)算法。本質(zhì)上來(lái)說(shuō),我們預(yù)期隨機(jī)梯度下降法得到的結(jié)果和全批量梯度下降法相接近;SGD的優(yōu)勢(shì)是更快地計(jì)算梯度。

代碼

'''
隨機(jī)梯度下降法(Stochastic Gradient Decent, SGD)
是對(duì)全批量梯度下降法計(jì)算效率的改進(jìn)算法。本
質(zhì)上來(lái)說(shuō),我們預(yù)期隨機(jī)梯度下降法得到的結(jié)果和全批量梯度下降法相接近;
SGD的優(yōu)勢(shì)是更快地計(jì)算梯度。
'''
import pandas as pd
import numpy as np
import os
os.getcwd()
# F:\\pythonProject3\\data\\data\\train.csv
# dataset_path = '..'
# 這是一個(gè)全批量梯度下降(full-batch gradient descent)的應(yīng)用。
# 這個(gè)問(wèn)題是一個(gè)回歸問(wèn)題
# 我們給出美國(guó)某大型問(wèn)答社區(qū)從2010年10月1日到2016年11月30日,
# 每天新增的問(wèn)題的個(gè)數(shù)和回答的個(gè)數(shù)。
# 任務(wù)是預(yù)測(cè)2016年12月1日到2017年5月1日,該問(wèn)答網(wǎng)站每天新增的問(wèn)題數(shù)和回答數(shù)。
train = pd.read_csv('..\\train.csv')
# 導(dǎo)入數(shù)據(jù)
# train = pd.read_csv('train.csv')
test = pd.read_csv('..\\test.csv')
submit = pd.read_csv('..\\sample_submit.csv')
path1=os.path.abspath('.')
print("path1@@@@@",path1)
path2=os.path.abspath('..')
print("path2@@@@@",path2)
print(train)
# 初始設(shè)置
beta = [1,1] #初始點(diǎn)
alpha = 0.2 #學(xué)習(xí)率,也就是步長(zhǎng)
tol_L = 0.1 #閾值,也就是精度
# 對(duì)x進(jìn)行歸一化,train 是訓(xùn)練數(shù)據(jù)的二維表格
max_x = max(train['id']) #max_x是總共的id數(shù)
x = train['id'] / max_x #所有的id都除于max_x
y = train['questions'] # train二維表格中的questions列賦給y
type(train['id'])
print("train['id']#######\n",train['id'])
print("type(train['id'])###\n\n",x)
print("max_x#######",max_x)
#為了計(jì)算方向
def compute_grad_SGD(beta, x, y):
    '''
    :param beta: 是初始點(diǎn)
    :param x: 是自變量
    :param y: 是真是值
    :return: 梯度數(shù)組
    '''
    grad = [0, 0]
    r = np.random.randint(0, len(x)) #在0-len(x)之間隨機(jī)生成一個(gè)數(shù)
    grad[0] = 2. * np.mean(beta[0] + beta[1] * x[r] - y[r]) #求beta[1,1],中第1個(gè)數(shù)的梯度
    grad[1] = 2. * np.mean(x * (beta[0] + beta[1] * x - y))#求beta[1,1],中第2個(gè)數(shù)的梯度
    return np.array(grad)
#為了計(jì)算下一個(gè)點(diǎn)在哪,
def update_beta(beta, alpha, grad):
    '''
    :param beta: 第一點(diǎn),初始點(diǎn)
    :param alpha: 學(xué)習(xí)率,也就時(shí)步長(zhǎng)
    :param grad: 梯度
    :return:
    '''
    new_beta = np.array(beta) - alpha * grad
    return new_beta
# 定義計(jì)算RMSE的函數(shù)
# 均方根誤差(RMSE)
def rmse(beta, x, y):
    squared_err = (beta[0] + beta[1] * x - y) ** 2 # beta[0] + beta[1] * x是預(yù)測(cè)值,y是真實(shí)值,
    res = np.sqrt(np.mean(squared_err))
    return res
# 進(jìn)行第一次計(jì)算
grad = compute_grad_SGD(beta, x, y) #調(diào)用計(jì)算梯度函數(shù),計(jì)算梯度
loss = rmse(beta, x, y) #調(diào)用損失函數(shù),計(jì)算損失
beta = update_beta(beta, alpha, grad) #更新下一點(diǎn)
loss_new = rmse(beta, x, y) #調(diào)用損失函數(shù),計(jì)算下一個(gè)損失
# 開始迭代
i = 1
while np.abs(loss_new - loss) > tol_L:
    beta = update_beta(beta, alpha, grad)
    grad = compute_grad_SGD(beta, x, y)
    if i % 100 == 0:
        loss = loss_new
        loss_new = rmse(beta, x, y)
        print('Round %s Diff RMSE %s'%(i, abs(loss_new - loss)))
    i += 1
print('Coef: %s \nIntercept %s'%(beta[1], beta[0]))
res = rmse(beta, x, y)
print('Our RMSE: %s'%res)
from sklearn.linear_model import LinearRegression
lr = LinearRegression()
lr.fit(train[['id']], train[['questions']])
print('Sklearn Coef: %s'%lr.coef_[0][0])
print('Sklearn Coef: %s'%lr.intercept_[0])
res = rmse([936.051219649, 2.19487084], train['id'], y)
print('Sklearn RMSE: %s'%res)

參考文獻(xiàn)

隨機(jī)梯度下降法

相關(guān)文章

  • np.where()[0] 和 np.where()[1]的具體使用

    np.where()[0] 和 np.where()[1]的具體使用

    這篇文章主要介紹了np.where()[0] 和 np.where()[1]的具體使用,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧
    2021-03-03
  • python--shutil移動(dòng)文件到另一個(gè)路徑的操作

    python--shutil移動(dòng)文件到另一個(gè)路徑的操作

    這篇文章主要介紹了python--shutil移動(dòng)文件到另一個(gè)路徑的操作,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧
    2020-07-07
  • python pcm音頻添加頭轉(zhuǎn)成Wav格式文件的方法

    python pcm音頻添加頭轉(zhuǎn)成Wav格式文件的方法

    今天小編就為大家分享一篇python pcm音頻添加頭轉(zhuǎn)成Wav格式文件的方法,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧
    2019-01-01
  • 手把手教你配置JupyterLab 環(huán)境的實(shí)現(xiàn)

    手把手教你配置JupyterLab 環(huán)境的實(shí)現(xiàn)

    這篇文章主要介紹了手把手教你配置JupyterLab 環(huán)境,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧
    2021-02-02
  • python實(shí)現(xiàn)雙人版坦克大戰(zhàn)游戲

    python實(shí)現(xiàn)雙人版坦克大戰(zhàn)游戲

    這篇文章主要為大家詳細(xì)介紹了python實(shí)現(xiàn)雙人版坦克大戰(zhàn)游戲,文中示例代碼介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下
    2021-12-12
  • 詳解Python如何求不同分辨率圖像的峰值信噪比

    詳解Python如何求不同分辨率圖像的峰值信噪比

    這篇文章主要為大家詳細(xì)介紹了如何利用Python中的?NumPy?和?OpenCV?庫(kù)實(shí)現(xiàn)求不同分辨率圖像的峰值信噪比,感興趣的小伙伴可以跟隨不想一起學(xué)習(xí)一下
    2023-01-01
  • tensorboard顯示空白的解決

    tensorboard顯示空白的解決

    今天小編就為大家分享一篇tensorboard顯示空白的解決,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧
    2020-02-02
  • 利用python編寫一個(gè)圖片主色轉(zhuǎn)換的腳本

    利用python編寫一個(gè)圖片主色轉(zhuǎn)換的腳本

    這篇文章主要給大家介紹了關(guān)于利用python編寫一個(gè)圖片主色轉(zhuǎn)換腳本的相關(guān)資料,主要使用的是Python中的Pillow圖像處理庫(kù),文中通過(guò)示例代碼介紹的非常詳細(xì),需要的朋友可以參考借鑒,下面隨著小編來(lái)一起看看吧。
    2017-12-12
  • Pycharm中安裝Pygal并使用Pygal模擬擲骰子(推薦)

    Pycharm中安裝Pygal并使用Pygal模擬擲骰子(推薦)

    這篇文章主要介紹了Pycharm中安裝Pygal并使用Pygal模擬擲骰子,本文給大家介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或工作具有一定的參考借鑒價(jià)值,需要的朋友可以參考下
    2020-04-04
  • Python Scrapy多頁(yè)數(shù)據(jù)爬取實(shí)現(xiàn)過(guò)程解析

    Python Scrapy多頁(yè)數(shù)據(jù)爬取實(shí)現(xiàn)過(guò)程解析

    這篇文章主要介紹了Python Scrapy多頁(yè)數(shù)據(jù)爬取實(shí)現(xiàn)過(guò)程解析,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下
    2020-06-06

最新評(píng)論