python使用梯度下降和牛頓法尋找Rosenbrock函數(shù)最小值實(shí)例
Rosenbrock函數(shù)的定義如下:
其函數(shù)圖像如下:
我分別使用梯度下降法和牛頓法做了尋找Rosenbrock函數(shù)的實(shí)驗(yàn)。
梯度下降
梯度下降的更新公式:
圖中藍(lán)色的點(diǎn)為起點(diǎn),橙色的曲線(實(shí)際上是折線)是尋找最小值點(diǎn)的軌跡,終點(diǎn)(最小值點(diǎn))為 (1,1)(1,1)。
梯度下降用了約5000次才找到最小值點(diǎn)。
我選擇的迭代步長(zhǎng) α=0.002α=0.002,αα 沒(méi)有辦法取的太大,當(dāng)為0.003時(shí)就會(huì)發(fā)生振蕩:
牛頓法
牛頓法的更新公式:
Hessian矩陣中的每一個(gè)二階偏導(dǎo)我是用手算算出來(lái)的。
牛頓法只迭代了約5次就找到了函數(shù)的最小值點(diǎn)。
下面貼出兩個(gè)實(shí)驗(yàn)的代碼。
梯度下降:
import numpy as np import matplotlib.pyplot as plt from matplotlib import ticker def f(x, y): return (1 - x) ** 2 + 100 * (y - x * x) ** 2 def H(x, y): return np.matrix([[1200 * x * x - 400 * y + 2, -400 * x], [-400 * x, 200]]) def grad(x, y): return np.matrix([[2 * x - 2 + 400 * x * (x * x - y)], [200 * (y - x * x)]]) def delta_grad(x, y): g = grad(x, y) alpha = 0.002 delta = alpha * g return delta # ----- 繪制等高線 ----- # 數(shù)據(jù)數(shù)目 n = 256 # 定義x, y x = np.linspace(-1, 1.1, n) y = np.linspace(-0.1, 1.1, n) # 生成網(wǎng)格數(shù)據(jù) X, Y = np.meshgrid(x, y) plt.figure() # 填充等高線的顏色, 8是等高線分為幾部分 plt.contourf(X, Y, f(X, Y), 5, alpha=0, cmap=plt.cm.hot) # 繪制等高線 C = plt.contour(X, Y, f(X, Y), 8, locator=ticker.LogLocator(), colors='black', linewidth=0.01) # 繪制等高線數(shù)據(jù) plt.clabel(C, inline=True, fontsize=10) # --------------------- x = np.matrix([[-0.2], [0.4]]) tol = 0.00001 xv = [x[0, 0]] yv = [x[1, 0]] plt.plot(x[0, 0], x[1, 0], marker='o') for t in range(6000): delta = delta_grad(x[0, 0], x[1, 0]) if abs(delta[0, 0]) < tol and abs(delta[1, 0]) < tol: break x = x - delta xv.append(x[0, 0]) yv.append(x[1, 0]) plt.plot(xv, yv, label='track') # plt.plot(xv, yv, label='track', marker='o') plt.xlabel('x') plt.ylabel('y') plt.title('Gradient for Rosenbrock Function') plt.legend() plt.show()
牛頓法:
import numpy as np import matplotlib.pyplot as plt from matplotlib import ticker def f(x, y): return (1 - x) ** 2 + 100 * (y - x * x) ** 2 def H(x, y): return np.matrix([[1200 * x * x - 400 * y + 2, -400 * x], [-400 * x, 200]]) def grad(x, y): return np.matrix([[2 * x - 2 + 400 * x * (x * x - y)], [200 * (y - x * x)]]) def delta_newton(x, y): alpha = 1.0 delta = alpha * H(x, y).I * grad(x, y) return delta # ----- 繪制等高線 ----- # 數(shù)據(jù)數(shù)目 n = 256 # 定義x, y x = np.linspace(-1, 1.1, n) y = np.linspace(-1, 1.1, n) # 生成網(wǎng)格數(shù)據(jù) X, Y = np.meshgrid(x, y) plt.figure() # 填充等高線的顏色, 8是等高線分為幾部分 plt.contourf(X, Y, f(X, Y), 5, alpha=0, cmap=plt.cm.hot) # 繪制等高線 C = plt.contour(X, Y, f(X, Y), 8, locator=ticker.LogLocator(), colors='black', linewidth=0.01) # 繪制等高線數(shù)據(jù) plt.clabel(C, inline=True, fontsize=10) # --------------------- x = np.matrix([[-0.3], [0.4]]) tol = 0.00001 xv = [x[0, 0]] yv = [x[1, 0]] plt.plot(x[0, 0], x[1, 0], marker='o') for t in range(100): delta = delta_newton(x[0, 0], x[1, 0]) if abs(delta[0, 0]) < tol and abs(delta[1, 0]) < tol: break x = x - delta xv.append(x[0, 0]) yv.append(x[1, 0]) plt.plot(xv, yv, label='track') # plt.plot(xv, yv, label='track', marker='o') plt.xlabel('x') plt.ylabel('y') plt.title('Newton\'s Method for Rosenbrock Function') plt.legend() plt.show()
以上這篇python使用梯度下降和牛頓法尋找Rosenbrock函數(shù)最小值實(shí)例就是小編分享給大家的全部?jī)?nèi)容了,希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。
相關(guān)文章
Python循環(huán)實(shí)現(xiàn)n的全排列功能
這篇文章主要介紹了Python循環(huán)實(shí)現(xiàn)n的全排列功能,本文給大家介紹的非常詳細(xì),具有一定的參考借鑒價(jià)值,需要的朋友可以參考下2019-09-09Python被遠(yuǎn)程主機(jī)強(qiáng)制關(guān)閉后自動(dòng)重新運(yùn)行進(jìn)程的示例
要實(shí)現(xiàn)Python程序在被遠(yuǎn)程主機(jī)強(qiáng)制關(guān)閉后能夠自動(dòng)重新運(yùn)行,我們可以采用幾種方法,但最直接且常用的方法之一是結(jié)合操作系統(tǒng)級(jí)的工具或腳本,這篇文章主要介紹了Python被遠(yuǎn)程主機(jī)強(qiáng)制關(guān)閉后怎么自動(dòng)重新運(yùn)行進(jìn)程,需要的朋友可以參考下2024-08-08Python 利用高德地圖api實(shí)現(xiàn)經(jīng)緯度與地址的批量轉(zhuǎn)換
這篇文章主要介紹了Python 利用高德地圖api實(shí)現(xiàn)經(jīng)緯度與地址的批量轉(zhuǎn)換,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧2019-08-08關(guān)于PyTorch中nn.Module類的簡(jiǎn)介
這篇文章主要介紹了關(guān)于PyTorch中nn.Module類的簡(jiǎn)介,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教2023-02-02tensorflow的ckpt及pb模型持久化方式及轉(zhuǎn)化詳解
今天小編就為大家分享一篇tensorflow的ckpt及pb模型持久化方式及轉(zhuǎn)化詳解,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2020-02-02