欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

python神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)使用Keras進(jìn)行回歸運(yùn)算

 更新時(shí)間:2022年05月04日 11:48:44   作者:Bubbliiiing  
這篇文章主要為大家介紹了python神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)使用Keras進(jìn)行回歸運(yùn)算,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步,早日升職加薪

學(xué)習(xí)前言

看了好多Github,用于保存模型的庫(kù)都是Keras,我覺(jué)得還是好好學(xué)習(xí)一下的好

什么是Keras

Keras是一個(gè)由Python編寫的開(kāi)源人工神經(jīng)網(wǎng)絡(luò)庫(kù),可以作Tensorflow、Microsoft-CNTK和Theano的高階應(yīng)用程序接口,進(jìn)行深度學(xué)習(xí)模型的設(shè)計(jì)、調(diào)試、評(píng)估、應(yīng)用和可視化。

Keras相當(dāng)于比Tensorflow和Theano更高一層的庫(kù),其可以以Tensorflow或者Theano為底層框架,以更加簡(jiǎn)潔、高效的方式添加代碼。

在2018年Tensorflow 2.0.0公開(kāi)后,Keras被正式確立為Tensorflow高階API。

Keras中基礎(chǔ)的重要函數(shù)

1、Sequential

Sequential又稱為序貫?zāi)P汀?/p>

序貫?zāi)P蜑樽詈?jiǎn)單的線性、從頭到尾的結(jié)構(gòu)順序,不分叉,是多個(gè)網(wǎng)絡(luò)層的線性堆疊。

在利用Keras進(jìn)行模型構(gòu)建前,只需要用如下函數(shù)建立模型就夠了。

model = Sequential()

此時(shí)便已經(jīng)建立了一個(gè)按次序的模型,之后在往模型中添加層的時(shí)候,就是按照次序添加的。

2、Dense

Dense用于往Sequential中添加全連接層。全連接層示意圖如下。(圖片源自百度百科)

在這里插入圖片描述

具體而言,簡(jiǎn)單的BP神經(jīng)網(wǎng)絡(luò)中,輸入層到隱含層中間的權(quán)值連接,其實(shí)與全連接層的意義相同。
在Keras中,如果需要往model中添加全連接層,可使用如下函數(shù)。

model.add(Dense(output_dim = 1,input_dim = 1))

此時(shí)表示輸入維度為1,輸出維度也為1。

3、model.compile

model.compile在Keras中的作用主要用于定義loss函數(shù)和優(yōu)化器。

其調(diào)用方式如下:

model.compile(loss='mse', optimizer='sgd', metrics=['accuracy'])

其中l(wèi)oss用于定義計(jì)算損失的損失函數(shù),其可以選擇的內(nèi)容如下:
1、mse:均方根誤差,常用于回歸預(yù)測(cè)。

2、categorical_crossentropy:亦稱作多類的對(duì)數(shù)損失,注意使用該目標(biāo)函數(shù)時(shí),需要將標(biāo)簽轉(zhuǎn)化為形如(nb_samples, nb_classes)的二值序列,常用于分類。

3、sparse_categorical_crossentrop:如上,但接受稀疏標(biāo)簽。

optimizer用于定義優(yōu)化器,可以使用默認(rèn)的,也可以從keras.optimizers導(dǎo)出。

其可以選擇的內(nèi)容可以參照Keras中文文檔。上文中選擇的是隨機(jī)梯度下降法sgd。

metrics=[‘accuracy’]常用于分類運(yùn)算中,本例子中不適用,accuracy代表計(jì)算分類精確度。

全部代碼

該例子為一元線性回歸例子。

import numpy as np
from keras.models import Sequential
from keras.layers import Dense  ## 全連接層
import matplotlib.pyplot as plt 
# 生成測(cè)試數(shù)據(jù)
X = np.linspace(-1,1,200)
np.random.shuffle(X)
Y = 0.5*X + 2 + np.random.normal(0,0.05,(200,))
# 劃分訓(xùn)練集和測(cè)試集
X_train,Y_train = X[:160],Y[:160]
X_test,Y_test = X[160:],Y[160:]
# start
model = Sequential()
model.add(Dense(output_dim = 1,input_dim = 1))
# compile
model.compile(loss = 'mse',optimizer = 'sgd')
# 訓(xùn)練
print("\ntraining")
for step in range(2001):
    cost = model.train_on_batch(X_train,Y_train)
    if step%100 == 0:
        print("tarin_cost:",cost)
# 測(cè)試
print("\nTest")
cost = model.evaluate(X_test,Y_test,batch_size=40)
W,b = model.layers[0].get_weights()
print("Weights",W,"biaxes",b)
# 預(yù)測(cè)結(jié)果
Y = model.predict(X_test)
plt.scatter(X_test,Y_test)
plt.plot(X_test,Y)
plt.show()

實(shí)現(xiàn)結(jié)果為:

tarin_cost: 4.506874
tarin_cost: 0.21098542
tarin_cost: 0.041809298
tarin_cost: 0.013134768
tarin_cost: 0.0055761375
tarin_cost: 0.0035068158
tarin_cost: 0.0029388934
tarin_cost: 0.002783
tarin_cost: 0.0027402083
tarin_cost: 0.002728462
tarin_cost: 0.0027252387
tarin_cost: 0.0027243525
tarin_cost: 0.0027241106
tarin_cost: 0.0027240426
tarin_cost: 0.002724025
tarin_cost: 0.0027240203
tarin_cost: 0.0027240184
tarin_cost: 0.0027240182
tarin_cost: 0.0027240175
tarin_cost: 0.0027240175
tarin_cost: 0.0027240175
Test
40/40 [==============================] - 0s 874us/step
Weights [[0.5041559]] biaxes [1.9961643]

在這里插入圖片描述

以上就是python神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)使用Keras進(jìn)行回歸運(yùn)算的詳細(xì)內(nèi)容,更多關(guān)于python神經(jīng)網(wǎng)絡(luò)Keras回歸運(yùn)算的資料請(qǐng)關(guān)注腳本之家其它相關(guān)文章!

相關(guān)文章

  • Python圖像運(yùn)算之圖像閾值化處理詳解

    Python圖像運(yùn)算之圖像閾值化處理詳解

    這篇文章將詳細(xì)講解圖像閾值化處理,涉及閾值化處理、固定閾值化處理和自適應(yīng)閾值化處理,這是圖像邊緣檢測(cè)或圖像增強(qiáng)等處理的基礎(chǔ),感興趣的可以了解一下
    2022-04-04
  • chatGPT之Python?API啟用上下文管理案例詳解

    chatGPT之Python?API啟用上下文管理案例詳解

    chatGPT已經(jīng)爆火一段時(shí)間了,我想大多數(shù)的開(kāi)發(fā)者都在默默的在開(kāi)發(fā)和測(cè)試當(dāng)中,可能也是因?yàn)檫@個(gè)原因所以現(xiàn)在很難找到關(guān)于開(kāi)發(fā)中遇到的一些坑或者方法和技巧,這篇文章主要介紹了chatGPT之Python?API啟用上下文管理,需要的朋友可以參考下
    2023-03-03
  • Python使用剪切板的方法

    Python使用剪切板的方法

    這篇文章主要為大家詳細(xì)介紹了Python使用剪切板的方法,具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下
    2017-06-06
  • python字符串Intern機(jī)制詳解

    python字符串Intern機(jī)制詳解

    這篇文章主要介紹了python字符串Intern機(jī)制詳解,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下
    2019-07-07
  • PyTorch詳解經(jīng)典網(wǎng)絡(luò)ResNet實(shí)現(xiàn)流程

    PyTorch詳解經(jīng)典網(wǎng)絡(luò)ResNet實(shí)現(xiàn)流程

    ResNet全稱residual neural network,主要是解決過(guò)深的網(wǎng)絡(luò)帶來(lái)的梯度彌散,梯度爆炸,網(wǎng)絡(luò)退化(即網(wǎng)絡(luò)層數(shù)越深時(shí),在數(shù)據(jù)集上表現(xiàn)的性能卻越差)的問(wèn)題
    2022-05-05
  • 跟老齊學(xué)Python之私有函數(shù)和專有方法

    跟老齊學(xué)Python之私有函數(shù)和專有方法

    這篇文章是老齊學(xué)Python系列文章的一篇,主要介紹了跟私有函數(shù)和專有方法,需要的朋友可以參考下
    2014-10-10
  • 跟老齊學(xué)Python之大話題小函數(shù)(1)

    跟老齊學(xué)Python之大話題小函數(shù)(1)

    今天本講要講什么呢?今天要介紹幾個(gè)python中的小函數(shù),這幾個(gè)函數(shù)都是從函數(shù)式編程借鑒過(guò)來(lái)的,它們就是:filter、map、reduce、lambda、yield 有了它們,最大的好處是程序更簡(jiǎn)潔
    2014-10-10
  • 利用Pygame繪制圓環(huán)的示例代碼

    利用Pygame繪制圓環(huán)的示例代碼

    這篇文章主要介紹了利用Python中的Pygame模塊繪制一個(gè)彩色的圓環(huán),文中的示例代碼講解詳細(xì),對(duì)我們學(xué)習(xí)Pygame有一定幫助,需要的可以參考一下
    2022-01-01
  • opencv?python中cv.approxPolyDP函數(shù)詳細(xì)解釋

    opencv?python中cv.approxPolyDP函數(shù)詳細(xì)解釋

    這篇文章主要給大家介紹了關(guān)于opencv?python中cv.approxPolyDP函數(shù)詳細(xì)解釋的相關(guān)資料,OpenCV中的approxPolyDP()函數(shù)用于對(duì)形狀進(jìn)行逼近,以減少多邊形的頂點(diǎn)數(shù),可以用于對(duì)圖像輪廓點(diǎn)進(jìn)行多邊形擬合,需要的朋友可以參考下
    2024-01-01
  • 聊聊python中的異常嵌套

    聊聊python中的異常嵌套

    這篇文章主要介紹了python中的異常嵌套的相關(guān)資料,幫助大家更好的理解和學(xué)習(xí)python 異常的相關(guān)知識(shí),感興趣的朋友可以了解下
    2020-09-09

最新評(píng)論