使用keras實(shí)現(xiàn)非線(xiàn)性回歸(兩種加激活函數(shù)的方式)
我就廢話(huà)不多說(shuō)了,大家還是直接看代碼吧~
import keras import numpy as np import matplotlib.pyplot as plt #Sequential 按順序構(gòu)成的模型 from keras.models import Sequential#Sequential是模型結(jié)構(gòu),輸入層,隱藏層,輸出層 #Dense 全連接層,Activation激活函數(shù) from keras.layers import Dense,Activation from keras.optimizers import SGD x_data=np.linspace(-0.5,0.5,200)#從-0.5到0.5范圍內(nèi)生成200個(gè)隨機(jī)點(diǎn) noise=np.random.normal(0,0.02,x_data.shape)#生成和x_data形狀一樣的噪聲 y_data=np.square(x_data)+noise #顯示隨機(jī)點(diǎn) #plt.scatter(x_data,y_data) #plt.show() #構(gòu)建一個(gè)順序模型 model=Sequential() #1-10-1,添加一個(gè)隱藏層 model.add(Dense(units=10,input_dim=1,activation='relu'))#units是隱藏層,輸出維度,輸出y,input_dim是輸入維度,輸入x #model.add(Activation('tanh'))#給這一層添加一個(gè)雙曲正切激活函數(shù)tanh函數(shù) model.add(Dense(units=1,input_dim=10,activation='relu'))#input_dim可以不寫(xiě),它可以識(shí)別到上一句的輸出是10維 #model.add(Activation('tanh'))#給這一層添加一個(gè)雙曲正切激活函數(shù)tanh函數(shù) #定義優(yōu)化器 sgd=SGD(lr=0.3)#學(xué)習(xí)率提高到0.3,訓(xùn)練速度會(huì)加快 model.compile(optimizer=sgd,loss='mse')#編譯這個(gè)模型,sgd是隨機(jī)梯度下降法,優(yōu)化器.mse是均方誤差 #訓(xùn)練模型 for step in range(5001): #每次訓(xùn)練一個(gè)批次 cost=model.train_on_batch(x_data,y_data)#代價(jià)函數(shù)的值,其實(shí)就是loss #每500個(gè)batch打印一次cost值 if step %500==0: print('cost:',cost) #打印權(quán)值和偏置值 W,b=model.layers[0].get_weights()#線(xiàn)性回歸,只有一層 print('W:',W,'b:',b) #x_data輸入網(wǎng)絡(luò)中,得到預(yù)測(cè)值y_pred y_pred=model.predict(x_data) #顯示隨機(jī)點(diǎn)s plt.scatter(x_data,y_data) #顯示預(yù)測(cè)結(jié)果 plt.plot(x_data,y_pred,'r-',lw=3)#r-表示紅色的線(xiàn),lw表示線(xiàn)寬 plt.show()
結(jié)果:
cost: 0.0077051604 cost: 0.0004980223 cost: 0.00047812634 cost: 0.00047762066 cost: 0.00047761563 cost: 0.00047761557 cost: 0.0004776156 cost: 0.0004776156 cost: 0.0004776156 cost: 0.00047761566 cost: 0.0004776156 W: [[ 0.37828678 0.37509003 0.1847014 -0.46519393 -0.6347979 -0.70865685 0.55382997 -0.66780925 0.08229994 0.5980157 ]] b: [-0.00412499 -0.01216194 0.01939214 -0.03005166 -0.00475936 -0.00794064 -0.00015427 -0.01620528 0.08056344 -0.01741577]
以上這篇使用keras實(shí)現(xiàn)非線(xiàn)性回歸(兩種加激活函數(shù)的方式)就是小編分享給大家的全部?jī)?nèi)容了,希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。
- pytorch/transformers?最后一層不加激活函數(shù)的原因分析
- python人工智能tensorflow常用激活函數(shù)Activation?Functions
- YOLO v4常見(jiàn)的非線(xiàn)性激活函數(shù)詳解
- python 深度學(xué)習(xí)中的4種激活函數(shù)
- Keras 中Leaky ReLU等高級(jí)激活函數(shù)的用法
- tensorflow自定義激活函數(shù)實(shí)例
- pytorch方法測(cè)試——激活函數(shù)(ReLU)詳解
- 詳解Python中常用的激活函數(shù)(Sigmoid、Tanh、ReLU等)
相關(guān)文章
Python3遠(yuǎn)程監(jiān)控程序的實(shí)現(xiàn)方法
今天小編就為大家分享一篇Python3遠(yuǎn)程監(jiān)控程序的實(shí)現(xiàn)方法,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2019-07-07python進(jìn)行OpenCV實(shí)戰(zhàn)之畫(huà)圖(直線(xiàn)、矩形、圓形)
這篇文章主要為大家詳細(xì)介紹了python進(jìn)行OpenCV實(shí)戰(zhàn)之畫(huà)圖功能,畫(huà)出直線(xiàn)、矩形、圓形,文中示例代碼介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下2020-08-08python根據(jù)文章標(biāo)題內(nèi)容自動(dòng)生成摘要的實(shí)例
今天小編就為大家分享一篇python根據(jù)文章標(biāo)題內(nèi)容自動(dòng)生成摘要的實(shí)例,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2019-02-02Pyinstaller打包報(bào)錯(cuò)小結(jié)
本文主要介紹了Pyinstaller打包報(bào)錯(cuò)小結(jié),詳細(xì)的介紹了5種錯(cuò)誤的解決方法,文中通過(guò)示例代碼介紹的非常詳細(xì),需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧2024-02-02python代碼實(shí)現(xiàn)圖書(shū)管理系統(tǒng)
這篇文章主要為大家詳細(xì)介紹了python代碼實(shí)現(xiàn)圖書(shū)管理系統(tǒng),文中示例代碼介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下2020-11-11