欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

java寫(xiě)卷積神經(jīng)網(wǎng)絡(luò)(CupCnn簡(jiǎn)介)

 更新時(shí)間:2018年04月28日 09:20:24   作者:陽(yáng)光玻璃杯  
這篇文章主要介紹了java寫(xiě)卷積神經(jīng)網(wǎng)絡(luò)(CupCnn簡(jiǎn)介),小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,也給大家做個(gè)參考。一起跟隨小編過(guò)來(lái)看看吧

前言

在機(jī)器學(xué)習(xí)中,卷積神經(jīng)網(wǎng)絡(luò)是一種深度前饋人工神經(jīng)網(wǎng)絡(luò),已成功地應(yīng)用于圖像識(shí)別。目前,很多的車牌識(shí)號(hào)識(shí)別,人臉識(shí)別等都采用卷積神經(jīng)網(wǎng)絡(luò),可以說(shuō)卷積神經(jīng)網(wǎng)絡(luò)在圖像識(shí)別方面取得了巨大的成功。當(dāng)前開(kāi)源的深度學(xué)習(xí)框架有很多了,比如caffe,tensorflow,torch等,這些深度學(xué)習(xí)框架包含了完善的卷積神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn),那么,為什么我們還要自己寫(xiě)卷積神經(jīng)網(wǎng)絡(luò)?直接用這些開(kāi)源的深度學(xué)習(xí)框架多好,又快又省事,性能好穩(wěn)定,bug少。是的,如果你只是使用卷積神經(jīng)網(wǎng)絡(luò)做一些應(yīng)用,并不在意它的工作原理,那你大可不必自己費(fèi)神費(fèi)力的寫(xiě)卷積神經(jīng)網(wǎng)絡(luò),可如果你想完全掌握卷積神經(jīng)網(wǎng)絡(luò)的工作原理,古人云:紙上得來(lái)終覺(jué)淺,覺(jué)知此時(shí)要躬行。所以,你很有必要自己實(shí)現(xiàn)一遍卷積神經(jīng)網(wǎng)絡(luò),從而加深對(duì)它的認(rèn)識(shí)。

什么是CupCnn

CupCnn是個(gè)用java寫(xiě)的卷積神經(jīng)網(wǎng)絡(luò),我在工作之余,為了加深對(duì)卷積神經(jīng)網(wǎng)絡(luò)的認(rèn)識(shí),實(shí)現(xiàn)了它。它足夠簡(jiǎn)潔,表現(xiàn)也不錯(cuò),非常適合初學(xué)者參考使用。它的源碼可以從github下載:CupCnn

你不用擔(dān)心它的協(xié)議什么的限制,您可以用它來(lái)做任何事,任意修改它,如果它能對(duì)你有所幫助,希望能給個(gè)星星?。。?
^-^^-^^-^

設(shè)計(jì)的思路

我希望它是以足夠簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò),這樣有利于初學(xué)者學(xué)習(xí)。所以我沒(méi)有實(shí)現(xiàn)那些并發(fā)加速的東西,這保證的代碼的簡(jiǎn)介性。設(shè)計(jì)的時(shí)候,我將卷積神經(jīng)網(wǎng)絡(luò)分為四個(gè)模塊:Network(layer blob loss active),這點(diǎn)可以從包名中看出來(lái)。layer,loss,active都有一個(gè)基類,整個(gè)神經(jīng)網(wǎng)絡(luò)的編程都是面向基類的。Network是綜合這四個(gè)模塊,統(tǒng)籌和調(diào)度資源的中心,每個(gè)layer都會(huì)有一個(gè)Network的實(shí)例,這樣可以輕松的通過(guò)Network獲得各種數(shù)據(jù),比如獲取每一層的輸出,diff等。
設(shè)計(jì)框圖如下:

參數(shù)的保存對(duì)于java而言就非常簡(jiǎn)單了,實(shí)現(xiàn)Serializable接口就可以快速實(shí)現(xiàn)參數(shù)的序列化和反序列化。CupCnn只對(duì)data目錄下的Blob和BlobParams兩個(gè)實(shí)現(xiàn)了Serializable接口,所有的參數(shù)都由這兩個(gè)實(shí)現(xiàn)。

目前的表現(xiàn)

全連接神經(jīng)網(wǎng)絡(luò)

目前,在mnist數(shù)據(jù)集上,全連接神經(jīng)網(wǎng)絡(luò)(全連接(100)+全連接(30)+全連接(10)+softmax),訓(xùn)練30個(gè)epoes,準(zhǔn)確率為96.76

卷積神經(jīng)網(wǎng)絡(luò)

卷積神經(jīng)網(wǎng)絡(luò)(6個(gè)特征)+最大值池化+卷積(6個(gè)特征)+全連接(512)+全連接(30)+全連接(10)+softmax),在學(xué)習(xí)速率為0.2的情況下,訓(xùn)練30個(gè)epoes,準(zhǔn)確率為97.79.我相信經(jīng)過(guò)進(jìn)一步參數(shù)調(diào)優(yōu),在充分訓(xùn)練的情況下,準(zhǔn)確率能達(dá)到更高。

卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練快照如下:

begin train
epoe: 0 lossValue: 2.3019369891560455   lr: 0.2  accuracy is 0.13
epoe: 0 lossValue: 2.0722489482105195   lr: 0.2  accuracy is 0.44
epoe: 0 lossValue: 1.2423286194012682   lr: 0.2  accuracy is 0.72
epoe: 0 lossValue: 0.7860529560675255   lr: 0.2  accuracy is 0.79
epoe: 0 lossValue: 0.6272194196176664   lr: 0.2  accuracy is 0.87
epoe: 0 lossValue: 0.5240051326725808   lr: 0.2  accuracy is 0.84
epoe: 0 lossValue: 0.27637563581928026   lr: 0.2  accuracy is 0.95
epoe: 0 lossValue: 0.35585388987055083   lr: 0.2  accuracy is 0.92
epoe: 0 lossValue: 0.441971528417802   lr: 0.2  accuracy is 0.92
epoe: 0 lossValue: 0.25637710325999674   lr: 0.2  accuracy is 0.95
epoe: 0 lossValue: 0.39872273532502   lr: 0.2  accuracy is 0.9
epoe: 1 lossValue: 0.264085484522027   lr: 0.16000000000000003  accuracy is 0.91
epoe: 1 lossValue: 0.22754066024803088   lr: 0.16000000000000003  accuracy is 0.96
epoe: 1 lossValue: 0.30256420975577103   lr: 0.16000000000000003  accuracy is 0.96
epoe: 1 lossValue: 0.18149648622985948   lr: 0.16000000000000003  accuracy is 0.99
epoe: 1 lossValue: 0.177239938748327   lr: 0.16000000000000003  accuracy is 0.96
epoe: 1 lossValue: 0.15041993009777443   lr: 0.16000000000000003  accuracy is 0.98
epoe: 1 lossValue: 0.10759545752665524   lr: 0.16000000000000003  accuracy is 1.0

CupCnn的使用

目前,CupCnn實(shí)現(xiàn)了mnist數(shù)據(jù)集上的測(cè)試,在src/test下,MnistTest是main函數(shù)的入口,具體的神經(jīng)網(wǎng)絡(luò)的搭建在MnistNetwork類中。在MnistNetwork類中,buildConvNetwork和buildFcNetwork分別實(shí)現(xiàn)
了搭建卷積神經(jīng)網(wǎng)絡(luò)和搭建全連接神經(jīng)網(wǎng)絡(luò)。得益于java良好的跨平臺(tái)屬性,你下載完CupCnn的源碼后,使用eclipse打開(kāi)該項(xiàng)目,然后直接運(yùn)行,應(yīng)該就能開(kāi)始在mnist數(shù)據(jù)集上訓(xùn)練和測(cè)試了。

構(gòu)建神經(jīng)網(wǎng)絡(luò)

  public void buildNetwork(){
    //首先構(gòu)建神經(jīng)網(wǎng)絡(luò)對(duì)象,并設(shè)置參數(shù)
    network = new Network();
    network.setBatch(100);
    network.setLoss(new LogLikeHoodLoss());
    //network.setLoss(new CrossEntropyLoss());
    optimizer = new SGDOptimizer(0.2);
    network.setOptimizer(optimizer);

    //buildFcNetwork();
    buildConvNetwork();

    network.prepare();
  }

setBatch()函數(shù)設(shè)置一個(gè)批次里有多少?gòu)垐D片。

setLoss()設(shè)置要是用的損失函數(shù)。CupCnn實(shí)現(xiàn)了交叉熵?fù)p失函數(shù)和對(duì)數(shù)似然損失函數(shù)。

setOptimizer()設(shè)置要是用的優(yōu)化器。CupCnn只實(shí)現(xiàn)了SGD優(yōu)化器,如果您實(shí)現(xiàn)了更好的優(yōu)化器,并且愿意提交到CupCnn,那本人深表歡迎。

構(gòu)建全連接神經(jīng)網(wǎng)絡(luò)

  private void buildFcNetwork(){
    //給network添加網(wǎng)絡(luò)層
    InputLayer layer1 = new InputLayer(network,new BlobParams(network.getBatch(),1,28,28));
    network.addLayer(layer1);
    FullConnectionLayer layer2 = new FullConnectionLayer(network,new BlobParams(network.getBatch(),784,1,1));
    layer2.setActivationFunc(new ReluActivationFunc());
    network.addLayer(layer2);
    FullConnectionLayer layer3 = new FullConnectionLayer(network,new BlobParams(network.getBatch(),100,1,1));
    layer3.setActivationFunc(new ReluActivationFunc());
    network.addLayer(layer3);
    FullConnectionLayer layer4 = new FullConnectionLayer(network,new BlobParams(network.getBatch(),30,1,1));
    layer4.setActivationFunc(new SigmodActivationFunc());
    network.addLayer(layer4);
    FullConnectionLayer layer5 = new FullConnectionLayer(network,new BlobParams(network.getBatch(),10,1,1));
    layer5.setActivationFunc(new ReluActivationFunc());
    network.addLayer(layer5);
    SoftMaxLayer sflayer = new SoftMaxLayer(network,new BlobParams(network.getBatch(),10,1,1));
    network.addLayer(sflayer);
  }

正如上面代碼展示的一樣,每一個(gè)Layer都需要一個(gè)network,它是Network的實(shí)例,Network是全局的管理者和資源的調(diào)度者,有了Network的引用,我們可以輕易的獲得到每一層的輸出的數(shù)據(jù),輸出的誤差等。此外,每一層都需要一個(gè)指定當(dāng)前層輸出數(shù)據(jù)塊大小的參數(shù),該參數(shù)告訴某一層你需要輸出多少數(shù)據(jù)。比如神經(jīng)網(wǎng)絡(luò)的最后一層是SoftMaxLayer ,它需要輸出到底是哪個(gè)數(shù)字,這個(gè)數(shù)字用長(zhǎng)度為10的向量表示,比如數(shù)字7,那么SoftMaxLayer 應(yīng)該輸出第8個(gè)元素的值為1,其他元素的值為0。卷積層和池化層需要更多的參數(shù),因?yàn)樗麄兌加幸粋€(gè)kernel,對(duì)卷積層而言,它叫卷積核,卷積層的實(shí)現(xiàn)每此每個(gè)方向的stride也就是步長(zhǎng)都是1,這點(diǎn)還有改進(jìn)的余地。對(duì)于池化層,你出來(lái)需要傳入池化核的參數(shù)外,還需要傳入水平方向和垂直方向的步長(zhǎng),這是必須的。

訓(xùn)練和測(cè)試

搭建好神經(jīng)網(wǎng)絡(luò)后,你需要調(diào)用network.prepare()方法,該方法會(huì)根據(jù)每一層的數(shù)據(jù)參數(shù)創(chuàng)建輸出數(shù)據(jù)塊和誤差數(shù)據(jù)塊。因此該方法的調(diào)用是必須的。

  public void train(List<DigitImage> imgList,int epoes){
    System.out.println("begin train");
    int batch = network.getBatch();
    double loclaLr = optimizer.getLr();
    for(int e=0;e<epoes;e++){
      Collections.shuffle(imgList);
      for(int i=0;i<imgList.size()-batch;i+=batch){
        List<Blob> inputAndLabel = buildBlobByImageList(imgList,i,batch,1,28,28);
        double lossValue = network.train(inputAndLabel.get(0), inputAndLabel.get(1));

        if(i>batch && i/batch%50==0){
          System.out.print("epoe: "+e+" lossValue: "+lossValue+" "+" lr: "+optimizer.getLr()+" ");
          testInner(inputAndLabel.get(0), inputAndLabel.get(1));
        }
      }

      if(loclaLr>0.001){
        loclaLr*=0.8;
        optimizer.setLr(loclaLr);
      }
    }
  }

  public void test(List<DigitImage> imgList){
    System.out.println("begin test");
    int batch = network.getBatch();
    int correctCount = 0;
    int i = 0;
    for(i=0;i<imgList.size()-batch;i+=batch){
      List<Blob> inputAndLabel = buildBlobByImageList(imgList,i,batch,1,28,28);
      Blob output = network.predict(inputAndLabel.get(0));
      int[] calOutLabels = getBatchOutputLabel(output.getData());
      int[] realLabels = getBatchOutputLabel(inputAndLabel.get(1).getData());
      for(int kk=0;kk<calOutLabels.length;kk++){
        if(calOutLabels[kk] == realLabels[kk]){
          correctCount++;
        }
      }
    }

    double accuracy = correctCount/(1.0*i+batch);
    System.out.println("test accuracy is "+accuracy+" correctCount "+correctCount);
  }

 如上,調(diào)用Network的 train即可訓(xùn)練,調(diào)用Network的predict方法即可測(cè)試。

參數(shù)的保存和加載

  public void saveModel(String name){
    network.saveModel(name);
  }

  public void loadModel(String name){
    network = new Network();
    network.loadModel(name);
    network.prepare();
  }

調(diào)用Network的saveModel和loadModel可分別實(shí)現(xiàn)參數(shù)的保存和加載,你只需要傳入一個(gè)文件名即可。當(dāng)我們通過(guò)保存的參數(shù)創(chuàng)建神經(jīng)網(wǎng)絡(luò)的時(shí)候,我們需要先new 一個(gè)Network,然后調(diào)用這個(gè)network的loadModel加載已保存的參數(shù),然后不要忘記調(diào)用prepare方法創(chuàng)建每一層的輸出數(shù)據(jù)塊和誤差數(shù)據(jù)塊。

目前的完成情況及未來(lái)的計(jì)劃

目前,實(shí)現(xiàn)的層有:全連接,卷積,最大值池化層,平均值池化層,softmax層。實(shí)現(xiàn)的激活函數(shù)有:sigmod,tanh,relu.
實(shí)現(xiàn)的損失函數(shù)有:交叉熵,對(duì)數(shù)似然。實(shí)現(xiàn)的優(yōu)化為:SGD。參數(shù)已經(jīng)能save和load.接下來(lái)會(huì)添加droupout層,還會(huì)嘗試添加cifar-10上的例子。

此外,我會(huì)寫(xiě)一些文章,回顧自己寫(xiě)CupCnn過(guò)程中的思考可問(wèn)題,供初學(xué)者參考,大神請(qǐng)繞道。感興趣的可以繼續(xù)關(guān)注,希望對(duì)大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。

相關(guān)文章

  • Java中的延遲隊(duì)列DelayQueue源碼解析

    Java中的延遲隊(duì)列DelayQueue源碼解析

    這篇文章主要介紹了Java中的延遲隊(duì)列DelayQueue源碼解析,DelayQueue是一個(gè)支持并發(fā)的無(wú)界延遲隊(duì)列,隊(duì)列中的每個(gè)元素都有個(gè)預(yù)定時(shí)間,當(dāng)線程從隊(duì)列獲取元素時(shí),只有到期元素才會(huì)出隊(duì)列,沒(méi)有到期元素則阻塞等待,需要的朋友可以參考下
    2023-12-12
  • 舉例講解Java的Spring框架中AOP程序設(shè)計(jì)方式的使用

    舉例講解Java的Spring框架中AOP程序設(shè)計(jì)方式的使用

    這篇文章主要介紹了Java的Spring框架中AOP程序設(shè)計(jì)方式的使用講解,文中舉的AOP下拋出異常的例子非常實(shí)用,需要的朋友可以參考下
    2016-04-04
  • java類訪問(wèn)權(quán)限與成員訪問(wèn)權(quán)限解析

    java類訪問(wèn)權(quán)限與成員訪問(wèn)權(quán)限解析

    這篇文章主要針對(duì)java類訪問(wèn)權(quán)限與成員訪問(wèn)權(quán)限進(jìn)行解析,對(duì)類與成員訪問(wèn)權(quán)限進(jìn)行驗(yàn)證,感興趣的小伙伴們可以參考一下
    2016-02-02
  • quartz實(shí)現(xiàn)定時(shí)功能實(shí)例詳解(servlet定時(shí)器配置方法)

    quartz實(shí)現(xiàn)定時(shí)功能實(shí)例詳解(servlet定時(shí)器配置方法)

    Quartz是一個(gè)完全由java編寫(xiě)的開(kāi)源作業(yè)調(diào)度框架,下面提供一個(gè)小例子供大家參考,還有在servlet配置的方法
    2013-12-12
  • 一文詳解Java過(guò)濾器攔截器實(shí)例逐步掌握

    一文詳解Java過(guò)濾器攔截器實(shí)例逐步掌握

    這篇文章主要為大家介紹了Java過(guò)濾器攔截器實(shí)例詳解逐步掌握,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步,早日升職加薪
    2023-04-04
  • spring動(dòng)態(tài)控制定時(shí)任務(wù)的實(shí)現(xiàn)

    spring動(dòng)態(tài)控制定時(shí)任務(wù)的實(shí)現(xiàn)

    在實(shí)際項(xiàng)目中,經(jīng)常需要?jiǎng)討B(tài)的控制定時(shí)任務(wù),比如通過(guò)接口增加、啟動(dòng)、停止、刪除定時(shí)任務(wù),本文主要介紹了spring動(dòng)態(tài)控制定時(shí)任務(wù)的實(shí)現(xiàn),感興趣的可以了解一下
    2024-01-01
  • JavaFX桌面應(yīng)用未響應(yīng)問(wèn)題解決方案

    JavaFX桌面應(yīng)用未響應(yīng)問(wèn)題解決方案

    這篇文章主要介紹了JavaFX桌面應(yīng)用未響應(yīng)問(wèn)題解決方案,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下
    2020-07-07
  • 快速入門(mén)Java中的Lambda表達(dá)式

    快速入門(mén)Java中的Lambda表達(dá)式

    Lambda作為函數(shù)式編程中的基礎(chǔ)部分,在其他編程語(yǔ)言中早就廣為使用,但在Java領(lǐng)域中發(fā)展較慢,直到j(luò)ava8,才開(kāi)始支持Lambda。網(wǎng)上關(guān)于Lambda的教程很多,今天小編給大家分享一篇快速入手Lambda的教程。
    2016-08-08
  • Java啟動(dòng)參數(shù)(-,?-X,?-XX參數(shù))的使用

    Java啟動(dòng)參數(shù)(-,?-X,?-XX參數(shù))的使用

    本文主要介紹了Java啟動(dòng)參數(shù)(-,?-X,?-XX參數(shù))的使用,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧
    2023-06-06
  • Java中ArrayList類詳細(xì)介紹

    Java中ArrayList類詳細(xì)介紹

    這篇文章主要介紹了Java中ArrayList類詳細(xì)介紹的相關(guān)資料,需要的朋友可以參考下
    2017-04-04

最新評(píng)論