AI:人工智能的本質(zhì)與未來(lái) 完整版pdf 含epub+mobi+azw3
2.12MB / 03-21
python人工智能AI深度學(xué)習(xí)/機(jī)器學(xué)習(xí)全套課程 視頻教程+ppt+代碼
9.2GB / 09-25
深度學(xué)習(xí) AI圣經(jīng)(Deep Learning) 中文pdf完整版
30.8MB / 08-09
詳情介紹
深度學(xué)習(xí)是人工智能的前沿技術(shù)?!渡疃葘W(xué)習(xí)之美:AI時(shí)代的數(shù)據(jù)處理與最佳實(shí)踐》深入淺出地介紹了深度學(xué)習(xí)的相關(guān)理論和實(shí)踐,《深度學(xué)習(xí)之美:AI時(shí)代的數(shù)據(jù)處理與最佳實(shí)踐》共分16章,采用理論和實(shí)踐雙主線寫(xiě)作方式。第1章給出深度學(xué)習(xí)的大圖。第2章和第3章,講解了機(jī)器學(xué)習(xí)的相關(guān)基礎(chǔ)理論。第4章和第5章,講解了Python基礎(chǔ)和基于Python的機(jī)器學(xué)習(xí)實(shí)戰(zhàn)。第6至10章,先后講解了M-P模型、感知機(jī)、多層神經(jīng)網(wǎng)絡(luò)、BP神經(jīng)網(wǎng)絡(luò)等知識(shí)。第11章講解了被廣泛認(rèn)可的深度學(xué)習(xí)框架TensorFlow。第12章和第13章詳細(xì)講解了卷積神經(jīng)網(wǎng)絡(luò),并給出了相關(guān)的實(shí)戰(zhàn)項(xiàng)目。第14章和第15章,分別講解了循環(huán)遞歸網(wǎng)絡(luò)和長(zhǎng)短期記憶(LSTM)網(wǎng)絡(luò)。第16章講解了神經(jīng)膠囊網(wǎng)絡(luò),并給出了神經(jīng)膠囊網(wǎng)絡(luò)設(shè)計(jì)的詳細(xì)論述和實(shí)踐案例分析。
《深度學(xué)習(xí)之美:AI時(shí)代的數(shù)據(jù)處理與最佳實(shí)踐》結(jié)構(gòu)完整、行文流暢,是一本難得的零基礎(chǔ)入門(mén)、圖文并茂、通俗易懂、理論結(jié)合實(shí)戰(zhàn)的深度學(xué)習(xí)書(shū)籍。
目錄
第1章 一入侯門(mén)“深”似海,深度學(xué)習(xí)深幾許 1
1.1 深度學(xué)習(xí)的巨大影響 2
1.2 什么是學(xué)習(xí) 4
1.3 什么是機(jī)器學(xué)習(xí) 4
1.4 機(jī)器學(xué)習(xí)的4個(gè)象限 5
1.5 什么是深度學(xué)習(xí) 6
1.6 “戀愛(ài)”中的深度學(xué)習(xí) 7
1.7 深度學(xué)習(xí)的方法論 9
1.8 有沒(méi)有淺層學(xué)習(xí) 13
1.9 本章小結(jié) 14
1.10 請(qǐng)你思考 14
參考資料 14
第2章 人工“碳”索意猶盡,智能“硅”來(lái)未可知 16
2.1 信數(shù)據(jù)者得永生嗎 17
2.2 人工智能的“江湖定位” 18
2.3 深度學(xué)習(xí)的歸屬 19
2.4 機(jī)器學(xué)習(xí)的形式化定義 21
2.5 為什么要用神經(jīng)網(wǎng)絡(luò) 24
2.6 人工神經(jīng)網(wǎng)絡(luò)的特點(diǎn) 26
2.7 什么是通用近似定理 27
2.8 本章小結(jié) 31
2.9 請(qǐng)你思考 31
參考資料 31
第3章 “機(jī)器學(xué)習(xí)”三重門(mén),“中庸之道”趨若人 33
3.1 監(jiān)督學(xué)習(xí) 34
3.1.1 感性認(rèn)知監(jiān)督學(xué)習(xí) 34
3.1.2 監(jiān)督學(xué)習(xí)的形式化描述 35
3.1.3 k-近鄰算法 37
3.2 非監(jiān)督學(xué)習(xí) 39
3.2.1 感性認(rèn)識(shí)非監(jiān)督學(xué)習(xí) 39
3.2.2 非監(jiān)督學(xué)習(xí)的代表—K均值聚類(lèi) 41
3.3 半監(jiān)督學(xué)習(xí) 45
3.4 從“中庸之道”看機(jī)器學(xué)習(xí) 47
3.5 強(qiáng)化學(xué)習(xí) 49
3.6 本章小結(jié) 52
3.7 請(qǐng)你思考 53
參考資料 53
第4章 人生苦短對(duì)酒歌, 我用Python樂(lè)趣多 55
4.1 Python概要 56
4.1.1 為什么要用Python 56
4.1.2 Python中常用的庫(kù) 58
4.2 Python的版本之爭(zhēng) 61
4.3 Python環(huán)境配置 65
4.3.1 Windows下的安裝與配置 65
4.3.2 Mac下的安裝與配置 72
4.4 Python編程基礎(chǔ) 76
4.4.1 如何運(yùn)行Python代碼 77
4.4.2 代碼縮進(jìn) 79
4.4.3 注釋 80
4.4.4 Python中的數(shù)據(jù)結(jié)構(gòu) 81
4.4.5 函數(shù)的設(shè)計(jì) 93
4.4.6 模塊的導(dǎo)入與使用 101
4.4.7 面向?qū)ο蟪绦蛟O(shè)計(jì) 102
4.5 本章小結(jié) 112
4.6 請(qǐng)你思考 112
參考資料 113
第5章 機(jī)器學(xué)習(xí)終覺(jué)淺,Python帶我來(lái)實(shí)踐 114
5.1 線性回歸 115
5.1.1 線性回歸的概念 115
5.1.2 簡(jiǎn)易線性回歸的Python實(shí)現(xiàn)詳解 119
5.2 k-近鄰算法 139
5.2.1 k-近鄰算法的三個(gè)要素 140
5.2.2 k-近鄰算法實(shí)戰(zhàn) 143
5.2.3 使用scikit-learn實(shí)現(xiàn)k-近鄰算法 155
5.3 本章小結(jié) 162
5.4 請(qǐng)你思考 162
參考資料 162
第6章 神經(jīng)網(wǎng)絡(luò)不勝語(yǔ),M-P模型似可尋 164
6.1 M-P神經(jīng)元模型是什么 165
6.2 模型背后的那些人和事 167
6.3 激活函數(shù)是怎樣的一種存在 175
6.4 什么是卷積函數(shù) 176
6.5 本章小結(jié) 177
6.6 請(qǐng)你思考 178
參考資料 178
第7章 Hello World感知機(jī),懂你我心才安息 179
7.1 網(wǎng)之初,感知機(jī) 180
7.2 感知機(jī)名稱的由來(lái) 180
7.3 感性認(rèn)識(shí)“感知機(jī)” 183
7.4 感知機(jī)是如何學(xué)習(xí)的 185
7.5 感知機(jī)訓(xùn)練法則 187
7.6 感知機(jī)的幾何意義 190
7.7 基于Python的感知機(jī)實(shí)戰(zhàn) 191
7.8 感知機(jī)的表征能力 196
7.9 本章小結(jié) 199
7.10 請(qǐng)你思考 199
參考資料 199
第8章 損失函數(shù)減肥用,神經(jīng)網(wǎng)絡(luò)調(diào)權(quán)重 201
8.1 多層網(wǎng)絡(luò)解決“異或”問(wèn)題 202
8.2 感性認(rèn)識(shí)多層前饋神經(jīng)網(wǎng)絡(luò) 205
8.3 是淺而“胖”好,還是深而“瘦”佳 209
8.4 分布式特征表達(dá) 210
8.5 丟棄學(xué)習(xí)與集成學(xué)習(xí) 211
8.6 現(xiàn)實(shí)很豐滿,理想很骨感 212
8.7 損失函數(shù)的定義 213
8.8 熱力學(xué)定律與梯度彌散 215
8.9 本章小結(jié) 216
8.10 請(qǐng)你思考 216
參考資料 217
第9章 山重水復(fù)疑無(wú)路,最快下降問(wèn)梯度 219
9.1 “鳥(niǎo)飛派”還飛不 220
9.2 1986年的那篇神作 221
9.3 多層感知機(jī)網(wǎng)絡(luò)遇到的大問(wèn)題 222
9.4 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的設(shè)計(jì) 225
9.5 再議損失函數(shù) 227
9.6 什么是梯度 229
9.7 什么是梯度遞減 231
9.8 梯度遞減的線性回歸實(shí)戰(zhàn) 235
9.9 什么是隨機(jī)梯度遞減 238
9.10 利用SGD解決線性回歸實(shí)戰(zhàn) 240
9.11 本章小結(jié) 247
9.12 請(qǐng)你思考 248
參考資料 248
第10章 BP算法雙向傳,鏈?zhǔn)角髮?dǎo)最纏綿 249
10.1 BP算法極簡(jiǎn)史 250
10.2 正向傳播信息 251
10.3 求導(dǎo)中的鏈?zhǔn)椒▌t 255
10.4 誤差反向傳播 264
10.4.1 基于隨機(jī)梯度下降的BP算法 265
10.4.2 輸出層神經(jīng)元的權(quán)值訓(xùn)練 267
10.4.3 隱含層神經(jīng)元的權(quán)值訓(xùn)練 270
10.4.4 BP算法的感性認(rèn)知 273
10.4.5 關(guān)于BP算法的補(bǔ)充說(shuō)明 278
10.5 BP算法實(shí)戰(zhàn)詳細(xì)解釋 280
10.5.1 初始化網(wǎng)絡(luò) 280
10.5.2 信息前向傳播 282
10.5.3 誤差反向傳播 285
10.5.4 訓(xùn)練網(wǎng)絡(luò)(解決異或問(wèn)題) 288
10.5.5 利用BP算法預(yù)測(cè)小麥品種的分類(lèi) 293
10.6 本章小結(jié) 301
10.7 請(qǐng)你思考 302
參考資料 304
第11章 一騎紅塵江湖笑,TensorFlow谷歌造 305
11.1 TensorFlow概述 306
11.2 深度學(xué)習(xí)框架比較 309
11.2.1 Theano 309
11.2.2 Keras 310
11.2.3 Caffe 311
11.2.4 PyTorch 312
11.3 TensorFlow的安裝 313
11.3.1 Anaconda的安裝 313
11.3.2 TensorFlow的CPU版本安裝 315
11.3.3 TensorFlow的源碼編譯 323
11.4 Jupyter Notebook的使用 331
11.4.1 Jupyter Notebook的由來(lái) 331
11.4.2 Jupyter Notebook的安裝 333
11.5 TensorFlow中的基礎(chǔ)語(yǔ)法 337
11.5.1 什么是數(shù)據(jù)流圖 338
11.5.2 構(gòu)建第一個(gè)TensorFlow數(shù)據(jù)流圖 339
11.5.3 可視化展現(xiàn)的TensorBoard 342
11.5.4 TensorFlow的張量思維 346
11.5.5 TensorFlow中的數(shù)據(jù)類(lèi)型 348
11.5.6 TensorFlow中的操作類(lèi)型 353
11.5.7 TensorFlow中的Graph對(duì)象 356
11.5.8 TensorFlow中的Session 358
11.5.9 TensorFlow中的placeholder 361
11.5.10 TensorFlow中的Variable對(duì)象 363
11.5.11 TensorFlow中的名稱作用域 365
11.5.12 張量的Reduce方向 367
11.6 手寫(xiě)數(shù)字識(shí)別MNIST 372
11.6.1 MNIST數(shù)據(jù)集簡(jiǎn)介 373
11.6.2 MNIST數(shù)據(jù)的獲取與預(yù)處理 375
11.6.3 分類(lèi)模型的構(gòu)建—Softmax Regression 378
11.7 TensorFlow中的Eager執(zhí)行模式 394
11.7.1 Eager執(zhí)行模式的背景 394
11.7.2 Eager執(zhí)行模式的安裝 395
11.7.3 Eager執(zhí)行模式的案例 395
11.7.4 Eager執(zhí)行模式的MNIST模型構(gòu)建 398
11.8 本章小結(jié) 401
11.9 請(qǐng)你思考 402
參考資料 403
第12章 全面連接困何處,卷積網(wǎng)絡(luò)顯神威 404
12.1 卷積神經(jīng)網(wǎng)絡(luò)的歷史 405
12.1.1 眼在何方?路在何方? 405
12.1.2 卷積神經(jīng)網(wǎng)絡(luò)的歷史脈絡(luò) 406
12.1.3 那場(chǎng)著名的學(xué)術(shù)賭局 410
12.2 卷積神經(jīng)網(wǎng)絡(luò)的概念 412
12.2.1 卷積的數(shù)學(xué)定義 412
12.2.2 生活中的卷積 413
12.3 圖像處理中的卷積 414
12.3.1 計(jì)算機(jī)“視界”中的圖像 414
12.3.2 什么是卷積核 415
12.3.3 卷積在圖像處理中的應(yīng)用 418
12.4 卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu) 420
12.5 卷積層要義 422
12.5.1 卷積層的設(shè)計(jì)動(dòng)機(jī) 422
12.5.2 卷積層的局部連接 427
12.5.3 卷積層的3個(gè)核心概念 428
12.6 細(xì)說(shuō)激活層 434
12.6.1 兩個(gè)看似閑扯的問(wèn)題 434
12.6.2 追尋問(wèn)題的本質(zhì) 435
12.6.3 ReLU的理論基礎(chǔ) 437
12.6.4 ReLU的不足之處 441
12.7 詳解池化層 442
12.8 勿忘全連接層 445
12.9 本章小結(jié) 446
12.10 請(qǐng)你思考 447
參考資料 448
第13章 紙上談兵終覺(jué)淺,絕知卷積要編程 450
13.1 TensorFlow的CNN架構(gòu) 451
13.2 卷積層的實(shí)現(xiàn) 452
13.2.1 TensorFlow中的卷積函數(shù) 452
13.2.2 圖像處理中的常用卷積核 456
13.3 激活函數(shù)的使用 460
13.3.1 Sigmoid函數(shù) 460
13.3.2 Tanh函數(shù) 461
13.3.3 修正線性單元——ReLU 462
13.3.4 Dropout函數(shù) 462
13.4 池化層的實(shí)現(xiàn) 466
13.5 規(guī)范化層 470
13.5.1 為什么需要規(guī)范化 470
13.5.2 局部響應(yīng)規(guī)范化 472
13.5.3 批規(guī)范化 475
13.6 卷積神經(jīng)網(wǎng)絡(luò)在MNIST分類(lèi)器中的應(yīng)用 480
13.6.1 數(shù)據(jù)讀取 480
13.6.2 初始化權(quán)值和偏置 480
13.6.3 卷積和池化 482
13.6.4 構(gòu)建第一個(gè)卷積層 482
13.6.5 構(gòu)建第二個(gè)卷積層 483
13.6.6 實(shí)現(xiàn)全連接層 484
13.6.7 實(shí)現(xiàn)Dropout層 485
13.6.8 實(shí)現(xiàn)Readout層 485
13.6.9 參數(shù)訓(xùn)練與模型評(píng)估 485
13.7 經(jīng)典神經(jīng)網(wǎng)絡(luò)——AlexNet的實(shí)現(xiàn) 488
13.7.1 AlexNet的網(wǎng)絡(luò)架構(gòu) 488
13.7.2 數(shù)據(jù)讀取 490
13.7.3 初始化權(quán)值和偏置 491
13.7.4 卷積和池化 491
13.7.5 局部響應(yīng)歸一化層 492
13.7.6 構(gòu)建卷積層 492
13.7.7 實(shí)現(xiàn)全連接層和Dropout層 493
13.7.8 實(shí)現(xiàn)Readout層 494
13.7.9 參數(shù)訓(xùn)練與模型評(píng)估 494
13.8 本章小結(jié) 495
13.9 請(qǐng)你思考 496
參考資料 496
第14章 循環(huán)遞歸RNN,序列建模套路深 498
14.1 你可能不具備的一種思維 499
14.2 標(biāo)準(zhǔn)神經(jīng)網(wǎng)絡(luò)的缺陷所在 501
14.3 RNN簡(jiǎn)史 502
14.3.1 Hopfield網(wǎng)絡(luò) 503
14.3.2 Jordan遞歸神經(jīng)網(wǎng)絡(luò) 504
14.3.3 Elman遞歸神經(jīng)網(wǎng)絡(luò) 505
14.3.4 RNN的應(yīng)用領(lǐng)域 506
14.4 RNN的理論基礎(chǔ) 506
14.4.1 Elman遞歸神經(jīng)網(wǎng)絡(luò) 506
14.4.2 循環(huán)神經(jīng)網(wǎng)絡(luò)的生物學(xué)機(jī)理 508
14.5 RNN的結(jié)構(gòu) 509
14.6 循環(huán)神經(jīng)網(wǎng)絡(luò)的訓(xùn)練 512
14.6.1 問(wèn)題建模 512
14.6.2 確定優(yōu)化目標(biāo)函數(shù) 513
14.6.3 參數(shù)求解 513
14.7 基于RNN的TensorFlow實(shí)戰(zhàn)——正弦序列預(yù)測(cè) 514
14.7.1 生成數(shù)據(jù) 516
14.7.2 定義權(quán)值和偏置 517
14.7.3 前向傳播 519
14.7.4 定義損失函數(shù) 522
14.7.5 參數(shù)訓(xùn)練與模型評(píng)估 522
14.8 本章小結(jié) 524
14.9 請(qǐng)你思考 524
參考資料 525
第15章 LSTM長(zhǎng)短記,長(zhǎng)序依賴可追憶 526
15.1 遺忘是好事還是壞事 527
15.2 施密德胡伯是何人 527
15.3 為什么需要LSTM 529
15.4 拆解LSTM 530
15.4.1 傳統(tǒng)RNN的問(wèn)題所在 530
15.4.2 改造的神經(jīng)元 531
15.5 LSTM的前向計(jì)算 533
15.5.1 遺忘門(mén) 534
15.5.2 輸入門(mén) 535
15.5.3 候選門(mén) 536
15.5.4 輸出門(mén) 537
15.6 LSTM的訓(xùn)練流程 539
15.7 自然語(yǔ)言處理的一個(gè)假設(shè) 540
15.8 詞向量表示方法 542
15.8.1 獨(dú)熱編碼表示 543
15.8.2 分布式表示 545
15.8.3 詞嵌入表示 547
15.9 自然語(yǔ)言處理的統(tǒng)計(jì)模型 549
15.9.1 NGram模型 549
15.9.2 基于神經(jīng)網(wǎng)絡(luò)的語(yǔ)言模型 550
15.9.3 基于循環(huán)神經(jīng)網(wǎng)絡(luò)的語(yǔ)言模型 553
15.9.4 LSTM語(yǔ)言模型的正則化 556
15.10 基于Penn Tree Bank的自然語(yǔ)言處理實(shí)戰(zhàn) 560
15.10.1 下載及準(zhǔn)備PTB數(shù)據(jù)集 561
15.10.2 導(dǎo)入基本包 562
15.10.3 定義相關(guān)的參數(shù) 562
15.10.4 語(yǔ)言模型的實(shí)現(xiàn) 563
15.10.5 訓(xùn)練并返回perplexity值 573
15.10.6 定義主函數(shù)并運(yùn)行 575
15.10.7 運(yùn)行結(jié)果 578
15.11 本章小結(jié) 579
15.12 請(qǐng)你思考 580
參考資料 580
第16章 卷積網(wǎng)絡(luò)雖動(dòng)人,膠囊網(wǎng)絡(luò)更傳“神” 583
16.1 從神經(jīng)元到神經(jīng)膠囊 584
16.2 卷積神經(jīng)網(wǎng)絡(luò)面臨的挑戰(zhàn) 584
16.3 神經(jīng)膠囊的提出 588
16.4 神經(jīng)膠囊理論初探 591
16.4.1 神經(jīng)膠囊的生物學(xué)基礎(chǔ) 591
16.4.2 神經(jīng)膠囊網(wǎng)絡(luò)的哲學(xué)基礎(chǔ) 592
16.5 神經(jīng)膠囊的實(shí)例化參數(shù) 594
16.6 神經(jīng)膠囊的工作流程 598
16.6.1 神經(jīng)膠囊向量的計(jì)算 598
16.6.2 動(dòng)態(tài)路由的工作機(jī)理 600
16.6.3 判斷多數(shù)字存在性的邊緣損失函數(shù) 606
16.6.4 膠囊神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu) 607
16.7 CapsNet的驗(yàn)證與實(shí)驗(yàn) 614
16.7.1 重構(gòu)和預(yù)測(cè)效果 614
16.7.2 膠囊輸出向量的維度表征意義 616
16.7.3 重疊圖像的分割 617
16.8 神經(jīng)膠囊網(wǎng)絡(luò)的TensorFlow實(shí)現(xiàn) 618
16.8.1 導(dǎo)入基本包及讀取數(shù)據(jù)集 619
16.8.2 圖像輸入 619
16.8.3 卷積層Conv1的實(shí)現(xiàn) 619
16.8.4 PrimaryCaps層的實(shí)現(xiàn) 620
16.8.5 全連接層 622
16.8.6 路由協(xié)議算法 628
16.8.7 估計(jì)實(shí)體出現(xiàn)的概率 630
16.8.8 損失函數(shù)的實(shí)現(xiàn) 631
16.8.9 額外設(shè)置 639
16.8.10 訓(xùn)練和評(píng)估 640
16.8.11 運(yùn)行結(jié)果 643
16.9 本章小結(jié) 644
16.10 請(qǐng)你思考 645
16.11 深度學(xué)習(xí)美在何處 646
參考資料 647
后記 648
索引 651
下載地址
深度學(xué)習(xí)之美:AI時(shí)代的數(shù)據(jù)處理與最佳實(shí)踐 帶目錄完整pdf[88MB]
人氣書(shū)籍
數(shù)學(xué)之美(第二版) PDF掃描版[45MB]
計(jì)算機(jī)組成原理(第2版)(唐朔飛著) PDF掃描版[9MB]
新編家庭養(yǎng)花1000個(gè)怎么辦 pdf版
計(jì)算機(jī)組成與體系結(jié)構(gòu):性能設(shè)計(jì)(原書(shū)第8版) 中文 PDF版 [93M]
PMBOK第六版(pmbok指南) 帶完整目錄 官方中文版+英文版 pdf[33MB
算法導(dǎo)論(原書(shū)第3版) PDF掃描版[101MB]
大話設(shè)計(jì)模式 程杰 著 中文 PDF版 [70M]
本草綱目電子書(shū)(中藥圖譜大全) 附圖
Docker技術(shù)入門(mén)與實(shí)戰(zhàn) 完整版 pdf掃描版[47MB]
bq34z100數(shù)據(jù)手冊(cè) 中文pdf版
下載聲明
☉ 解壓密碼:www.dbjr.com.cn 就是本站主域名,希望大家看清楚,[ 分享碼的獲取方法 ]可以參考這篇文章
☉ 推薦使用 [ 迅雷 ] 下載,使用 [ WinRAR v5 ] 以上版本解壓本站軟件。
☉ 如果這個(gè)軟件總是不能下載的請(qǐng)?jiān)谠u(píng)論中留言,我們會(huì)盡快修復(fù),謝謝!
☉ 下載本站資源,如果服務(wù)器暫不能下載請(qǐng)過(guò)一段時(shí)間重試!或者多試試幾個(gè)下載地址
☉ 如果遇到什么問(wèn)題,請(qǐng)?jiān)u論留言,我們定會(huì)解決問(wèn)題,謝謝大家支持!
☉ 本站提供的一些商業(yè)軟件是供學(xué)習(xí)研究之用,如用于商業(yè)用途,請(qǐng)購(gòu)買(mǎi)正版。
☉ 本站提供的深度學(xué)習(xí)之美:AI時(shí)代的數(shù)據(jù)處理與最佳實(shí)踐 帶目錄完整pdf[88MB] 資源來(lái)源互聯(lián)網(wǎng),版權(quán)歸該下載資源的合法擁有者所有。