欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

python機(jī)器學(xué)習(xí)之神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)

 更新時(shí)間:2021年05月08日 11:48:44   作者:Yaniesta  
這篇文章主要為大家詳細(xì)介紹了python機(jī)器學(xué)習(xí)之神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)方法,文中示例代碼介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下

神經(jīng)網(wǎng)絡(luò)在機(jī)器學(xué)習(xí)中有很大的應(yīng)用,甚至涉及到方方面面。本文主要是簡(jiǎn)單介紹一下神經(jīng)網(wǎng)絡(luò)的基本理論概念和推算。同時(shí)也會(huì)介紹一下神經(jīng)網(wǎng)絡(luò)在數(shù)據(jù)分類方面的應(yīng)用。

首先,當(dāng)我們建立一個(gè)回歸和分類模型的時(shí)候,無論是用最小二乘法(OLS)還是最大似然值(MLE)都用來使得殘差達(dá)到最小。因此我們?cè)诮⒛P偷臅r(shí)候,都會(huì)有一個(gè)loss function。

而在神經(jīng)網(wǎng)絡(luò)里也不例外,也有個(gè)類似的loss function。

對(duì)回歸而言:

對(duì)分類而言:

然后同樣方法,對(duì)于W開始求導(dǎo),求導(dǎo)為零就可以求出極值來。

關(guān)于式子中的W。我們?cè)谶@里以三層的神經(jīng)網(wǎng)絡(luò)為例。先介紹一下神經(jīng)網(wǎng)絡(luò)的相關(guān)參數(shù)。

第一層是輸入層,第二層是隱藏層,第三層是輸出層。

在X1,X2經(jīng)過W1的加權(quán)后,達(dá)到隱藏層,然后經(jīng)過W2的加權(quán),到達(dá)輸出層

其中,

我們有:

至此,我們建立了一個(gè)初級(jí)的三層神經(jīng)網(wǎng)絡(luò)。

當(dāng)我們要求其的loss function最小時(shí),我們需要逆向來求,也就是所謂的backpropagation。

我們要分別對(duì)W1和W2進(jìn)行求導(dǎo),然后求出其極值。

從右手邊開始逆推,首先對(duì)W2進(jìn)行求導(dǎo)。

代入損失函數(shù)公式:

然后,我們進(jìn)行化簡(jiǎn):

化簡(jiǎn)到這里,我們同理再對(duì)W1進(jìn)行求導(dǎo)。

我們可以發(fā)現(xiàn)當(dāng)我們?cè)谧鯾p網(wǎng)絡(luò)時(shí)候,有一個(gè)逆推回去的誤差項(xiàng),其決定了loss function 的最終大小。

在實(shí)際的運(yùn)算當(dāng)中,我們會(huì)用到梯度求解,來求出極值點(diǎn)。

總結(jié)一下來說,我們使用向前推進(jìn)來理順神經(jīng)網(wǎng)絡(luò)做到回歸分類等模型。而向后推進(jìn)來計(jì)算他的損失函數(shù),使得參數(shù)W有一個(gè)最優(yōu)解。

當(dāng)然,和線性回歸等模型相類似的是,我們也可以加上正則化的項(xiàng)來對(duì)W參數(shù)進(jìn)行約束,以免使得模型的偏差太小,而導(dǎo)致在測(cè)試集的表現(xiàn)不佳。

Python 的實(shí)現(xiàn):

使用了KERAS的庫(kù)

解決線性回歸: 

model.add(Dense(1, input_dim=n_features, activation='linear', use_bias=True))

# Use mean squared error for the loss metric and use the ADAM backprop algorithm
model.compile(loss='mean_squared_error', optimizer='adam')

# Train the network (learn the weights)
# We need to convert from DataFrame to NumpyArray
history = model.fit(X_train.values, y_train.values, epochs=100, 
     batch_size=1, verbose=2, validation_split=0)

解決多重分類問題: 

# create model
model = Sequential()
model.add(Dense(64, activation='relu', input_dim=n_features))
model.add(Dropout(0.5))
model.add(Dense(64, activation='relu'))
model.add(Dropout(0.5))
# Softmax output layer
model.add(Dense(7, activation='softmax'))

model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])

model.fit(X_train.values, y_train.values, epochs=20, batch_size=16)

y_pred = model.predict(X_test.values)

y_te = np.argmax(y_test.values, axis = 1)
y_pr = np.argmax(y_pred, axis = 1)

print(np.unique(y_pr))

print(classification_report(y_te, y_pr))

print(confusion_matrix(y_te, y_pr))

當(dāng)我們選取最優(yōu)參數(shù)時(shí)候,有很多種解決的途徑。這里就介紹一種是gridsearchcv的方法,這是一種暴力檢索的方法,遍歷所有的設(shè)定參數(shù)來求得最優(yōu)參數(shù)。

from sklearn.model_selection import GridSearchCV

def create_model(optimizer='rmsprop'):
 model = Sequential()
 model.add(Dense(64, activation='relu', input_dim=n_features))
 model.add(Dropout(0.5))
 model.add(Dense(64, activation='relu'))
 model.add(Dropout(0.5))
 model.add(Dense(7, activation='softmax'))
 model.compile(loss='categorical_crossentropy', optimizer=optimizer, metrics=['accuracy'])
 
 return model

model = KerasClassifier(build_fn=create_model, verbose=0)

optimizers = ['rmsprop']
epochs = [5, 10, 15]
batches = [128]


param_grid = dict(optimizer=optimizers, epochs=epochs, batch_size=batches, verbose=['2'])
grid = GridSearchCV(estimator=model, param_grid=param_grid)

grid.fit(X_train.values, y_train.values)

以上就是本文的全部?jī)?nèi)容,希望對(duì)大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。

相關(guān)文章

  • Pytorch backward報(bào)錯(cuò)2次訪問計(jì)算圖需要retain_graph=True的情況詳解

    Pytorch backward報(bào)錯(cuò)2次訪問計(jì)算圖需要retain_graph=True的情況詳解

    這篇文章主要介紹了Pytorch backward報(bào)錯(cuò)2次訪問計(jì)算圖需要retain_graph=True的情況,具有很好的參考價(jià)值,希望對(duì)大家有所幫助,如有錯(cuò)誤或未考慮完全的地方,望不吝賜教
    2024-02-02
  • PaddleNLP ppdiffusers 自動(dòng)生成兔了個(gè)兔海報(bào)

    PaddleNLP ppdiffusers 自動(dòng)生成兔了個(gè)兔海報(bào)

    這篇文章主要為大家介紹了PaddleNLP ppdiffusers 自動(dòng)生成兔了個(gè)兔海報(bào)示例詳解,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步,早日升職加薪
    2023-01-01
  • Python中實(shí)例化class的執(zhí)行順序示例詳解

    Python中實(shí)例化class的執(zhí)行順序示例詳解

    這篇文章主要給大家介紹了關(guān)于Python中實(shí)例化class的執(zhí)行順序的相關(guān)資料,文中通過示例代碼介紹的非常詳細(xì),對(duì)大家學(xué)習(xí)或者使用python具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧
    2018-10-10
  • Python正則表達(dá)式分組

    Python正則表達(dá)式分組

    這篇文章主要介紹了Python正則表達(dá)式分組,命名分組,后向引用,前向否定斷言、后向否定斷言需要的朋友可以參考下
    2022-12-12
  • Python selenium模擬手動(dòng)操作實(shí)現(xiàn)無人值守刷積分功能

    Python selenium模擬手動(dòng)操作實(shí)現(xiàn)無人值守刷積分功能

    這篇文章主要介紹了Python selenium模擬手動(dòng)操作達(dá)到無人值守刷積分目的,本文通過實(shí)例代碼給大家介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或工作具有一定的參考借鑒價(jià)值,需要的朋友可以參考下
    2020-05-05
  • Python利用flask操作Redis的方法詳解

    Python利用flask操作Redis的方法詳解

    這篇文章主要為大家詳細(xì)介紹了Python如何利用flask操作Redis,文中的示例代碼講解詳細(xì),對(duì)我們學(xué)習(xí)Python有一定的幫助,需要的可以參考一下
    2023-02-02
  • python之Socket網(wǎng)絡(luò)編程詳解

    python之Socket網(wǎng)絡(luò)編程詳解

    這篇文章主要為大家詳細(xì)介紹了python之Socket網(wǎng)絡(luò)編程,具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下
    2016-09-09
  • 基于Python中isfile函數(shù)和isdir函數(shù)使用詳解

    基于Python中isfile函數(shù)和isdir函數(shù)使用詳解

    今天小編就為大家分享一篇基于Python中isfile函數(shù)和isdir函數(shù)使用詳解,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過來看看吧
    2019-11-11
  • python基礎(chǔ)之共有操作

    python基礎(chǔ)之共有操作

    這篇文章主要介紹了python函數(shù)的定義和調(diào)用,實(shí)例分析了Python中返回一個(gè)返回值與多個(gè)返回值的方法,需要的朋友可以參考下
    2021-10-10
  • Python Loguru輕松靈活的日志管理庫(kù)基本用法探索

    Python Loguru輕松靈活的日志管理庫(kù)基本用法探索

    Loguru是一個(gè)用于Python的高性能、簡(jiǎn)潔且靈活的日志庫(kù),它的目標(biāo)是提供一種簡(jiǎn)單的方式來記錄應(yīng)用程序的運(yùn)行情況,同時(shí)保持代碼的簡(jiǎn)潔性和可讀性,本文將探索loguru的基本用法
    2024-01-01

最新評(píng)論