Tensorflow輕松實(shí)現(xiàn)XOR運(yùn)算的方式
對于“XOR”大家應(yīng)該都不陌生,我們在各種課程中都會遇到,它是一個數(shù)學(xué)邏輯運(yùn)算符號,在計(jì)算機(jī)中表示為“XOR”,在數(shù)學(xué)中表示為“”,學(xué)名為“異或”,其來源細(xì)節(jié)就不詳細(xì)表明了,說白了就是兩個a、b兩個值做異或運(yùn)算,若a=b則結(jié)果為0,反之為1,即“相同為0,不同為1”.
在計(jì)算機(jī)早期發(fā)展中,邏輯運(yùn)算廣泛應(yīng)用于電子管中,這一點(diǎn)如果大家學(xué)習(xí)過微機(jī)原理應(yīng)該會比較熟悉,那么在神經(jīng)網(wǎng)絡(luò)中如何實(shí)現(xiàn)它呢,早先我們使用的是感知機(jī),可理解為單層神經(jīng)網(wǎng)絡(luò),只有輸入層和輸出層(在吳恩達(dá)老師的系列教程中曾提到過這一點(diǎn),關(guān)于神經(jīng)網(wǎng)絡(luò)的層數(shù),至今仍有異議,就是說神經(jīng)網(wǎng)絡(luò)的層數(shù)到底包不包括輸入層,現(xiàn)今多數(shù)認(rèn)定是不包括的,我們常說的N層神經(jīng)網(wǎng)絡(luò)指的是隱藏層+輸出層),但是感知機(jī)是無法實(shí)現(xiàn)XOR運(yùn)算的,簡單來說就是XOR是線性不可分的,由于感知機(jī)是有輸入輸出層,無法線性劃分XOR區(qū)域,于是后來就有了使用多層神經(jīng)網(wǎng)絡(luò)來解決這一問題的想法~~
關(guān)于多層神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)XOR運(yùn)算可大致這么理解:
兩個輸入均有兩個取值0和1,那么組合起來就有四種可能,即[0,0]、[0,1]、[1,0]、[1,1],這樣就可以通過中間的隱藏層進(jìn)行異或運(yùn)算了~
咱們直接步入正題吧,對于此次試驗(yàn)我們只需要一個隱藏層即可,關(guān)于神經(jīng)網(wǎng)絡(luò) 的基礎(chǔ)知識建議大家去看一下吳恩達(dá)大佬的課程,真的很棒,百看不厭,真正的大佬是在認(rèn)定學(xué)生是絕對小白的前提下去講解的,所以一般人都能聽懂~~接下來的圖純手工操作,可能不是那么準(zhǔn)確,但中心思想是沒有問題的,我們開始吧:
上圖是最基本的神經(jīng)網(wǎng)絡(luò)示意圖,有兩個輸入x1、x2,一個隱藏層,只有一個神經(jīng)元,然后有個輸出層,這就是最典型的“輸入層+隱藏層+輸出層”的架構(gòu),對于本題目,我們的輸入和輸出以及整體架構(gòu)如下圖所示:
輸入量為一個矩陣,0和0異或結(jié)果為0,0和1異或結(jié)果為1,依次類推,對應(yīng)我們的目標(biāo)值為[0,1,1,0],最后之所以用約等號是因?yàn)槲覀兊念A(yù)測值與目標(biāo)值之間會有一定的偏差,如果訓(xùn)練的好那么這二者之間是無限接近的。
我們直接上全部代碼吧,就不分步進(jìn)行了,以為這個實(shí)驗(yàn)本身難度較低,且代碼注釋很清楚,每一步都很明確,如果大家有什么不理解的可以留言給我,看到必回:
#!/usr/bin/env python # -*- coding:utf-8 -*- import numpy as np import tensorflow as tf #定義輸入值與目標(biāo)值 X=np.array([[0,0],[0,1],[1,0],[1,1]]) Y=np.array([[0],[1],[1],[0]]) #定義占位符,從輸入或目標(biāo)中按行取數(shù)據(jù) x=tf.placeholder(tf.float32,[None,2]) y=tf.placeholder(tf.float32,[None,1]) #初始化權(quán)重,使其滿足正態(tài)分布,w1和w2分別為輸入層到隱藏層和隱藏層到輸出層的權(quán)重矩陣 w1=tf.Variable(tf.random_normal([2,2])) w2=tf.Variable(tf.random_normal([2,1])) #定義b1和b2,分別為隱藏層和輸出層的偏移量 b1=tf.Variable([0.1,0.1]) b2=tf.Variable([0.1]) #使用Relu激活函數(shù)得到隱藏層的輸出值 a=tf.nn.relu(tf.matmul(x,w1)+b1) #輸出層不用激活函數(shù),直接獲得其值 out=tf.matmul(a,w2)+b2 #定義損失函數(shù)MSE loss=tf.reduce_mean(tf.square(out-y)) #優(yōu)化器選擇Adam train=tf.train.AdamOptimizer(0.01).minimize(loss) #開始訓(xùn)練,迭代1001次(方便后邊的整數(shù)步數(shù)顯示) with tf.Session() as session: session.run(tf.global_variables_initializer()) #初始化變量 for i in range(1001): session.run(train,feed_dict={x:X,y:Y}) #訓(xùn)練模型 loss_final=session.run(loss,feed_dict={x:X,y:Y}) #獲取損失 if i%100==0: print("step:%d loss:%2f" % (i,loss_final)) print("X: %r" % X) print("pred_out: %r" % session.run(out,feed_dict={x:X}))
對照第三張圖片理解代碼更加直觀,我們的隱藏層神經(jīng)元功能就是將輸入值和相應(yīng)權(quán)重做矩陣乘法,然后加上偏移量,最后使用激活函數(shù)進(jìn)行非線性轉(zhuǎn)換;而輸出層沒有用到激活函數(shù),因?yàn)楸敬挝覀儾皇沁M(jìn)行分類或者其他操作,一般情況下隱藏層使用激活函數(shù)Relu,輸出層若是分類則用sigmode,當(dāng)然你也可以不用,本次實(shí)驗(yàn)只是單純地做異或運(yùn)算,那輸出層就不勞駕激活函數(shù)了~
對于標(biāo)準(zhǔn)神經(jīng)元內(nèi)部的操作可理解為下圖:
這里的x和w一般寫成矩陣形式,因?yàn)榇蠖鄶?shù)都是多個輸入,而矩陣的乘積要滿足一定的條件,這一點(diǎn)屬于線代中最基礎(chǔ)的部分,大家可以稍微了解一下,這里對設(shè)定權(quán)重的形狀還是很重要的;
看下效果吧:
這是我們在學(xué)習(xí)率為0.1,迭代1001次的條件下得到的結(jié)果
然后我們學(xué)習(xí)率不變,迭代2001次,看效果:
沒有改進(jìn),這就說明不是迭代次數(shù)的問題,我們還是保持2001的迭代數(shù),將學(xué)習(xí)率改為0.01,看效果:
完美~~~最后損失降為0了~~一般來說,神經(jīng)網(wǎng)絡(luò)中的超參中最重要的就是學(xué)習(xí)率了,如果損失一直降不下來,我們首先要想到修改學(xué)習(xí)率,其他的超參次之……
大家可以觀察一下我們的預(yù)測值,四項(xiàng)分別對應(yīng)[0,1,1,0],已經(jīng)是相當(dāng)接近了……
以上這篇Tensorflow輕松實(shí)現(xiàn)XOR運(yùn)算的方式就是小編分享給大家的全部內(nèi)容了,希望能給大家一個參考,也希望大家多多支持腳本之家。
相關(guān)文章
Python基礎(chǔ)之函數(shù)嵌套知識總結(jié)
今天帶大家回顧python基礎(chǔ)知識,文中對Python函數(shù)嵌套作了非常詳細(xì)的知識總結(jié),對正在學(xué)習(xí)python基礎(chǔ)的小伙伴們很有幫助,需要的朋友可以參考下2021-05-05Python中用pycurl監(jiān)控http響應(yīng)時間腳本分享
這篇文章主要介紹了Python中用pycurl監(jiān)控http響應(yīng)時間腳本分享,本文腳本實(shí)現(xiàn)監(jiān)控http相應(yīng)碼,響應(yīng)大小,建立連接時間,準(zhǔn)備傳輸時間,傳輸?shù)谝粋€字節(jié)時間,完成時間,需要的朋友可以參考下2015-02-02Python中Wxpython實(shí)現(xiàn)剪切、復(fù)制、粘貼和文件打開示例
我們在Python開發(fā)中中,可以使用WxPython庫來創(chuàng)建GUI應(yīng)用程序,并實(shí)現(xiàn)剪切、復(fù)制、粘貼和文件打開功能,本文就來介紹一下,感興趣的可以了解一下2024-03-03