理解深度學(xué)習(xí)之深度學(xué)習(xí)簡(jiǎn)介
機(jī)器學(xué)習(xí)
在吳恩達(dá)老師的課程中,有過(guò)對(duì)機(jī)器學(xué)習(xí)的定義:
ML:<P T E>
P即performance,T即Task,E即Experience,機(jī)器學(xué)習(xí)是對(duì)一個(gè)Task,根據(jù)Experience,去提升Performance;
在機(jī)器學(xué)習(xí)中,神經(jīng)網(wǎng)絡(luò)的地位越來(lái)越重要,實(shí)踐發(fā)現(xiàn),非線(xiàn)性的激活函數(shù)有助于神經(jīng)網(wǎng)絡(luò)擬合分布,效果明顯優(yōu)于線(xiàn)性分類(lèi)器:
y=Wx+b
常用激活函數(shù)有ReLU,sigmoid,tanh;
sigmoid將值映射到(0,1):
tanh會(huì)將輸入映射到(-1,1)區(qū)間:
#激活函數(shù)tanh %matplotlib inline import matplotlib.pyplot as plt import numpy as np def tanh(x): return (np.exp(x)-np.exp(-x))/(np.exp(x)+np.exp(-x)) X=np.linspace(-5,5,100) plt.figure(figsize=(8,6)) ax=plt.gca()#get current axis:獲取當(dāng)前坐標(biāo)系 #將該坐標(biāo)系的右邊緣和上邊緣設(shè)為透明 ax.spines['right'].set_color('none') ax.spines['top'].set_color('none') #設(shè)置bottom是x軸 ax.xaxis.set_ticks_position('bottom') ax.spines['bottom'].set_position(('data',0)) #設(shè)置left為y軸 ax.yaxis.set_ticks_position('left') ax.spines['left'].set_position(('data',0)) ax.plot(X,tanh(X),color='blue',linewidth=1.0,linestyle="-") plt.show()
開(kāi)源框架
當(dāng)神經(jīng)網(wǎng)絡(luò)層數(shù)加深,可以加強(qiáng)捕捉分布的效果,可以簡(jiǎn)單認(rèn)為深度學(xué)習(xí)指深層神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí);
當(dāng)前有兩大主流的深度學(xué)習(xí)框架:Pytorch和Tensorflow;
Pytorch支持動(dòng)態(tài)計(jì)算圖,使用起來(lái)更接近Python;
Tensorflow是靜態(tài)計(jì)算圖,使用起來(lái)就像一門(mén)新語(yǔ)言,據(jù)說(shuō)簡(jiǎn)單易用的keras已經(jīng)無(wú)人維護(hù),合并到tensorflow;
一個(gè)深度學(xué)習(xí)項(xiàng)目的運(yùn)行流程一般是:
v
深度學(xué)習(xí)計(jì)算重復(fù)且體量巨大,所以需要將模型部署到GPU上,GPU的設(shè)計(jì)很適合加速深度學(xué)習(xí)計(jì)算,為了便于在GPU上開(kāi)展深度學(xué)習(xí)實(shí)驗(yàn),人們開(kāi)發(fā)了CUDA架構(gòu),現(xiàn)在大部分DL模型都是基于CUDA加速的
關(guān)于CUDA
1.什么是CUDA?
CUDA(ComputeUnified Device Architecture),是顯卡廠商N(yùn)VIDIA推出的運(yùn)算平臺(tái)。 CUDA是一種由NVIDIA推出的通用并行計(jì)算架構(gòu),該架構(gòu)使GPU能夠解決復(fù)雜的計(jì)算問(wèn)題。
2.什么是CUDNN?
NVIDIA cuDNN是用于深度神經(jīng)網(wǎng)絡(luò)的GPU加速庫(kù)。它強(qiáng)調(diào)性能、易用性和低內(nèi)存開(kāi)銷(xiāo)。NVIDIA cuDNN可以集成到更高級(jí)別的機(jī)器學(xué)習(xí)框架中。
方向概覽
當(dāng)前計(jì)算機(jī)視覺(jué)的發(fā)展相對(duì)于自然語(yǔ)言處理更加成熟,NLP的訓(xùn)練比CV更耗費(fèi)資源,CV模型相對(duì)較?。?/p>
在CV方向:
1.圖像分類(lèi)(ResNet,DenseNet)
- 目標(biāo)檢測(cè)ObjectDetection
- 風(fēng)格遷移StyleTransfer
- CycleGAN:比如圖像中馬到斑馬,也可以從斑馬返回馬
- ImageCaptioning:從圖像生成描述文本,一般用CNN獲得feature,再輸入RNN獲得文本
2.在NLP方向
- 情感分析:分類(lèi)影評(píng)數(shù)據(jù)
- QuestionAnswering:一段問(wèn)題->給出答案
- Translation:可以用OpenNMT-py,OpenNMT-py是開(kāi)源的seq->seq模型
- ChatBot聊天機(jī)器人,基于QuestionAnswering,目前剛起步
另外還有強(qiáng)化學(xué)習(xí)Deep Reinforcement Learning,從簡(jiǎn)單的打磚塊游戲到著名的阿爾法Go;
以及預(yù)訓(xùn)練語(yǔ)言模型:給一段話(huà),讓機(jī)器繼續(xù)說(shuō)下去,比如BERT,GPT2;
遷移學(xué)習(xí)
在CV中,NN的低層可以提取位置信息(邊,角等精細(xì)信息),高層提取抽象信息,所以低層的網(wǎng)絡(luò)可以反復(fù)使用,更改高層再訓(xùn)練以適用其他任務(wù)
到此這篇關(guān)于深度學(xué)習(xí)簡(jiǎn)介的文章就結(jié)束了,以后還會(huì)不斷更新深度學(xué)習(xí)的文章,更多相關(guān)深度學(xué)習(xí)文章請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持腳本之家!
相關(guān)文章
Tensorflow中的placeholder和feed_dict的使用
這篇文章主要介紹了Tensorflow中的placeholder和feed_dict的使用,小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,也給大家做個(gè)參考。一起跟隨小編過(guò)來(lái)看看吧2018-07-07在Django中Pyecharts生成圖表實(shí)現(xiàn)
pyecharts是支持python的一種可視化,那么在Django中Pyecharts如何生成圖表,主要有兩種方法,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧2021-05-05python調(diào)用golang中函數(shù)方法
由于simhash方法有多種實(shí)現(xiàn)方式,現(xiàn)python中simhash方法與golang中的不一樣,需要兩者代碼生成結(jié)果保持一致,故采用python中的代碼調(diào)用golang編譯的so文件來(lái)實(shí)現(xiàn),需要的朋友可以參考下2024-02-02python如何實(shí)現(xiàn)內(nèi)容寫(xiě)在圖片上
這篇文章主要為大家詳細(xì)介紹了python如何實(shí)現(xiàn)內(nèi)容寫(xiě)在圖片上,具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下2018-03-03python如何用pymodbus庫(kù)進(jìn)行modbus tcp通信
這篇文章主要介紹了python如何用pymodbus庫(kù)進(jìn)行modbus tcp通信問(wèn)題,具有很好的參考價(jià)值,希望對(duì)大家有所幫助,如有錯(cuò)誤或未考慮完全的地方,望不吝賜教2024-06-06Django 簡(jiǎn)單實(shí)現(xiàn)分頁(yè)與搜索功能的示例代碼
這篇文章主要介紹了Django 簡(jiǎn)單實(shí)現(xiàn)分頁(yè)與搜索功能的示例代碼,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧2019-11-11在Python中操作文件之truncate()方法的使用教程
這篇文章主要介紹了在Python中操作文件之truncate()方法的使用教程,是Python入門(mén)學(xué)習(xí)中的基礎(chǔ)知識(shí),需要的朋友可以參考下2015-05-05Python讀取配置文件-ConfigParser的二次封裝方法
這篇文章主要介紹了Python讀取配置文件-ConfigParser的二次封裝方法,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教2022-02-02Python網(wǎng)絡(luò)請(qǐng)求之Requests庫(kù)的高級(jí)功能運(yùn)用
在這篇文章中我們將進(jìn)一步深入學(xué)習(xí)Requests庫(kù)的高級(jí)功能,包括處理重定向,設(shè)置超時(shí),處理大文件以及錯(cuò)誤和異常處理,需要的朋友可以參考下2023-08-08