欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

TensorFlow keras卷積神經(jīng)網(wǎng)絡(luò) 添加L2正則化方式

 更新時(shí)間:2020年05月22日 08:44:27   作者:高顏值的殺生丸  
這篇文章主要介紹了TensorFlow keras卷積神經(jīng)網(wǎng)絡(luò) 添加L2正則化方式,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧

我就廢話不多說(shuō)了,大家還是直接看代碼吧!

model = keras.models.Sequential([
 #卷積層1
 keras.layers.Conv2D(32,kernel_size=5,strides=1,padding="same",data_format="channels_last",activation=tf.nn.relu,kernel_regularizer=keras.regularizers.l2(0.01)),
 #池化層1
 keras.layers.MaxPool2D(pool_size=2,strides=2,padding="same"),
 #卷積層2
 keras.layers.Conv2D(64,kernel_size=5,strides=1,padding="same",data_format="channels_last",activation=tf.nn.relu),
 #池化層2
 keras.layers.MaxPool2D(pool_size=2,strides=2,padding="same"),
 #數(shù)據(jù)整理
 keras.layers.Flatten(),
 #1024個(gè),全連接層
 keras.layers.Dense(1024,activation=tf.nn.relu),
 #100個(gè),全連接層
 keras.layers.Dense(100,activation=tf.nn.softmax)
 ])
import os
os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'
 
from tensorflow.python.keras.datasets import cifar100
from tensorflow.python import keras
import tensorflow as tf
 
class CNNMnist(object):
 
 model = keras.models.Sequential([
 #卷積層1
 keras.layers.Conv2D(32,kernel_size=5,strides=1,padding="same",data_format="channels_last",activation=tf.nn.relu,kernel_regularizer=keras.regularizers.l2(0.01)),
 #池化層1
 keras.layers.MaxPool2D(pool_size=2,strides=2,padding="same"),
 #卷積層2
 keras.layers.Conv2D(64,kernel_size=5,strides=1,padding="same",data_format="channels_last",activation=tf.nn.relu),
 #池化層2
 keras.layers.MaxPool2D(pool_size=2,strides=2,padding="same"),
 #數(shù)據(jù)整理
 keras.layers.Flatten(),
 #1024個(gè),全連接層
 keras.layers.Dense(1024,activation=tf.nn.relu),
 #100個(gè),全連接層
 keras.layers.Dense(100,activation=tf.nn.softmax)
 ])
 
 def __init__(self):
 (self.x_train,self.y_train),(self.x_test,self.y_test) = cifar100.load_data()
 
 self.x_train = self.x_train/255.0
 self.x_test = self.x_test/255.0
 
 
 def compile(self):
 CNNMnist.model.compile(optimizer=keras.optimizers.Adam(),loss=keras.losses.sparse_categorical_crossentropy,metrics=["accuracy"])
 
 def fit(self):
 CNNMnist.model.fit(self.x_train,self.y_train,epochs=1,batch_size=32)
 
 def evaluate(self):
 test_loss,test_acc = CNNMnist.model.evaluate(self.x_test,self.y_test)
 print(test_loss,test_acc)
 
if __name__ == '__main__':
 cnn = CNNMnist()
 print(CNNMnist.model.summary())
 cnn.compile()
 cnn.fit()

補(bǔ)充知識(shí):初步了解TensorFlow如何實(shí)現(xiàn)正則化

為了避免過(guò)擬合問(wèn)題,一個(gè)非常常用的方法是正則化(regularization),正則化的思想就是在損失函數(shù)中加入刻畫模型復(fù)雜程度的指標(biāo)。

假設(shè)用于刻畫模型在訓(xùn)練數(shù)據(jù)上表現(xiàn)的損失函數(shù)為J(θ),那么在優(yōu)化時(shí)不是直接優(yōu)化J(θ),而是優(yōu)化J(θ) + λR(w),其中R(w)刻畫的是模型的復(fù)雜程度,而λ表示模型復(fù)雜損失在總損失中的比例,需要注意的是,這里的θ表示的是一個(gè)神經(jīng)網(wǎng)絡(luò)中所有的參數(shù),它包括邊上的權(quán)重w和偏置項(xiàng)b,但一般來(lái)說(shuō)模型復(fù)雜度只由權(quán)重w決定。

常用的刻畫模型復(fù)雜度的函數(shù)R(w)有兩種,一種是L1正則化,計(jì)算公式是:

另一種是L2正則化,計(jì)算公式是:

TensorFlow可以優(yōu)化任意形式的損失函數(shù),所以TensorFlow自然也可以優(yōu)化帶正則化的損失函數(shù)。

L1正則化和L2正則化,在TensorFlow中分別以不同的函數(shù)實(shí)現(xiàn)它們,以下列代碼為示例:

#含有L1正則化的損失函數(shù):
loss = tf.reduce_mean(tf.square(y_ - y)) + tf.contrib.layers.l1_regularizer(λ)(w)

#含有L2正則化的損失函數(shù):
loss = tf.reduce_mean(tf.square(y_ - y)) + tf.contrib.layers.l2_regularizer(λ)(w)

loss為定義的損失函數(shù),它由兩個(gè)部分組成,第一個(gè)部分是均方誤差損失函數(shù),它刻畫了模型在訓(xùn)練數(shù)據(jù)上的表現(xiàn),第二個(gè)部分就是正則化,它防止模型過(guò)度模擬訓(xùn)練數(shù)據(jù)中的隨機(jī)噪音;

λ表示了正則化項(xiàng)的權(quán)重,w為需要計(jì)算正則化損失的參數(shù)。

TensorFlow提供了tf.contrib.layers.l1_regularizer函數(shù)和tf.contrib.layers.l2_regularizer函數(shù)用來(lái)計(jì)算L1正則化和L2正則化,通過(guò)以下代碼給出使用兩個(gè)函數(shù)的樣例:

import tensorflow as tf
weights = tf.constant([[1.0, -2.0], [-3.0, 4.0]])
with tf.Session() as sess:
 #計(jì)算結(jié)果為5.0
 print(sess.run(tf.contrib.layers.l1_regularizer(0.5)(weights)))
 #計(jì)算結(jié)果為15 * 1/2 = 7.5,L2正則化乘以1/2可以方便求導(dǎo)
 print(sess.run(tf.contrib.layers.l2_regularizer(0.5)(weights)))

在簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò)中,這樣的方式就可以很好地計(jì)算帶正則化的損失函數(shù)了,但當(dāng)神經(jīng)網(wǎng)絡(luò)的參數(shù)增多之后,這樣的方式首先可能導(dǎo)致?lián)p失函數(shù)loss的定義很長(zhǎng),可讀性差且容易出錯(cuò),更主要的是,當(dāng)網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜之后定義網(wǎng)絡(luò)結(jié)構(gòu)的部分和計(jì)算損失函數(shù)的部分可能不在同一個(gè)函數(shù)中,這樣通過(guò)變量這種方式計(jì)算損失函數(shù)就不方便了。

為了解決這個(gè)問(wèn)題,可以使用TensorFlow中提供的集合(collection)來(lái)維護(hù)需要計(jì)算的正則化損失,以下列代碼為示例給出通過(guò)集合計(jì)算一個(gè)5層神經(jīng)網(wǎng)絡(luò)帶L2正則化的損失函數(shù)的計(jì)算方法:

import tensorflow as tf

#獲取一層神經(jīng)網(wǎng)絡(luò)邊上的權(quán)重,并將這個(gè)權(quán)重的L2正則化損失加入名稱為losses的集合中
def get_weight(shape, r):
 #生成一個(gè)變量
 var = tf.Variable(tf.random_normal(shape, stddev=1, seed=1), dtype=tf.float32)
 '''add_to_collection函數(shù)將這個(gè)新生成變量的L2正則化損失項(xiàng)加入集合
 這個(gè)函數(shù)的第一個(gè)參數(shù)losses是集合的名字,第二個(gè)參數(shù)是要加入這個(gè)集合的內(nèi)容'''
 tf.add_to_collection('losses', tf.contrib.layers.l2_regularizer(r)(var))
 return var

x = tf.placeholder(tf.float32, shape=(None, 2))
y_ = tf.placeholder(tf.float32, shape=(None, 1))

#定義了每一層網(wǎng)絡(luò)中節(jié)點(diǎn)的個(gè)數(shù)
layer_dimension = [2, 10, 10, 10, 1]
#神經(jīng)網(wǎng)絡(luò)的層數(shù)
n_layers = len(layer_dimension)

#這個(gè)變量維護(hù)前向傳播時(shí)最深層的節(jié)點(diǎn),開始的時(shí)候就是輸入層
cur_layer = x
#in_dimension為當(dāng)前層的節(jié)點(diǎn)個(gè)數(shù)
in_dimension = layer_dimension[0]

#通過(guò)一個(gè)循環(huán)來(lái)生成5層全連接的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)
for i in range(1, n_layers):
 #out_dimension為下一層的節(jié)點(diǎn)個(gè)數(shù)
 out_dimension = layer_dimension[i]
 #生成當(dāng)前層中權(quán)重的變量,并將這個(gè)變量的L2正則化損失加入losses集合
 weight = get_weight([in_dimension, out_dimension], 0.001)
 bias = tf.Variable(tf.fill([1, out_dimension], 0.1))
 #使用ReLU激活函數(shù)
 cur_layer = tf.nn.relu(tf.matmul(cur_layer, weight) + bias)
 #進(jìn)入下一層之前將下一層的節(jié)點(diǎn)個(gè)數(shù)更新為當(dāng)前層節(jié)點(diǎn)個(gè)數(shù)
 in_dimension = out_dimension

'''在定義神經(jīng)網(wǎng)絡(luò)前向傳播的同時(shí)已經(jīng)將所有的L2正則化損失加入了losses集合
這里只需要計(jì)算刻畫模型在訓(xùn)練數(shù)據(jù)上表現(xiàn)的損矣函數(shù)。'''
mse_loss = tf.reduce_mean(tf.square(y_ - cur_layer))

#將均方誤差損失函數(shù)加入損失集合
tf.add_to_collection('losses', mse_loss)

'''get_collection返回一個(gè)列表,這個(gè)列表包含所有這個(gè)集合中的元素
在這個(gè)樣例中這些元素就是損失函數(shù)的不同部分,將它們加起來(lái)就可以得到最終的損失函數(shù)。'''
loss = tf.add_n(tf.get_collection('losses'))

以上這篇TensorFlow keras卷積神經(jīng)網(wǎng)絡(luò) 添加L2正則化方式就是小編分享給大家的全部?jī)?nèi)容了,希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。

相關(guān)文章

  • Python切片列表字符串如何實(shí)現(xiàn)切換

    Python切片列表字符串如何實(shí)現(xiàn)切換

    這篇文章主要介紹了Python切片列表字符串如何實(shí)現(xiàn)切換,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下
    2020-08-08
  • 如何利用Pandas刪除某列指定值所在的行

    如何利用Pandas刪除某列指定值所在的行

    工作中通常會(huì)遇到大量的數(shù)據(jù)集需要處理,其中的一項(xiàng)就是將含有某些數(shù)據(jù)的行刪除掉,下面這篇文章主要給大家介紹了關(guān)于如何利用Pandas刪除某列指定值所在的行的相關(guān)資料,需要的朋友可以參考下
    2022-04-04
  • 詳解Python設(shè)計(jì)模式之策略模式

    詳解Python設(shè)計(jì)模式之策略模式

    這篇文章主要介紹了Python設(shè)計(jì)模式之策略模式的相關(guān)知識(shí),文中講解非常詳細(xì),代碼幫助大家更好的理解和學(xué)習(xí),感興趣的朋友可以了解下
    2020-06-06
  • Python PCA降維的兩種實(shí)現(xiàn)方法

    Python PCA降維的兩種實(shí)現(xiàn)方法

    大家好,本篇文章主要講的是Python PCA降維的兩種實(shí)現(xiàn)方法,感興趣的的同學(xué)趕快來(lái)看一看吧,對(duì)你有幫助的話記得收藏一下
    2022-01-01
  • python中如何以空格為分割符,給列表賦予數(shù)值

    python中如何以空格為分割符,給列表賦予數(shù)值

    這篇文章主要介紹了python中如何以空格為分割符,給列表賦予數(shù)值問(wèn)題,具有很好的參考價(jià)值,希望對(duì)大家有所幫助,如有錯(cuò)誤或未考慮完全的地方,望不吝賜教
    2024-02-02
  • Python動(dòng)態(tài)規(guī)劃之零錢兌換問(wèn)題詳解

    Python動(dòng)態(tài)規(guī)劃之零錢兌換問(wèn)題詳解

    這篇文章主要介紹了Python動(dòng)態(tài)規(guī)劃之零錢兌換問(wèn)題詳解,這次我們就按照套路模板,再來(lái)剖析一道經(jīng)典動(dòng)規(guī)題目零錢兌換,計(jì)算并返回可以湊成總金額所需的 最少的硬幣個(gè)數(shù) 如果沒(méi)有任何一種硬幣組合能組成總金額,返回-1,需要的朋友可以參考下
    2023-11-11
  • 使用Python正則表達(dá)式操作文本數(shù)據(jù)的方法

    使用Python正則表達(dá)式操作文本數(shù)據(jù)的方法

    這篇文章主要介紹了使用Python正則表達(dá)式操作文本數(shù)據(jù)的方法,小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,也給大家做個(gè)參考。一起跟隨小編過(guò)來(lái)看看吧
    2019-05-05
  • Python importlib模塊重載使用方法詳解

    Python importlib模塊重載使用方法詳解

    這篇文章主要介紹了Python importlib模塊重載使用方法詳解,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下
    2020-10-10
  • python實(shí)現(xiàn)sqlalchemy的使用概述

    python實(shí)現(xiàn)sqlalchemy的使用概述

    SQLAlchemy是Python中最有名的ORM工具,特點(diǎn)是操縱Python對(duì)象而不是SQL查詢,也就是在代碼層面考慮的是對(duì)象,而不是SQL,體現(xiàn)的是一種程序化思維,這樣使得Python程序更加簡(jiǎn)潔易懂,具體內(nèi)容詳情跟隨小編一起看看吧
    2021-08-08
  • pygame實(shí)現(xiàn)五子棋游戲

    pygame實(shí)現(xiàn)五子棋游戲

    這篇文章主要為大家詳細(xì)介紹了pygame實(shí)現(xiàn)五子棋游戲,文中示例代碼介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下
    2019-10-10

最新評(píng)論