欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

大數(shù)據(jù)-互聯(lián)網(wǎng)大規(guī)模數(shù)據(jù)挖掘與分布式處理(第2版)高清完整PDF版

大數(shù)據(jù)-互聯(lián)網(wǎng)大規(guī)模數(shù)據(jù)挖掘與分布式

  • 書籍大小:34MB
  • 書籍語言:簡(jiǎn)體中文
  • 書籍類型:國產(chǎn)軟件
  • 書籍授權(quán):免費(fèi)軟件
  • 書籍類別:網(wǎng)絡(luò)相關(guān)
  • 應(yīng)用平臺(tái):PDF
  • 更新時(shí)間:2017-10-26
  • 購買鏈接:
  • 網(wǎng)友評(píng)分:
360通過 騰訊通過 金山通過

情介紹

大數(shù)據(jù)-互聯(lián)網(wǎng)大規(guī)模數(shù)據(jù)挖掘與分布式處理(第2版)由斯坦福大學(xué)“Web 挖掘”課程的內(nèi)容總結(jié)而成,主要關(guān)注極大規(guī)模數(shù)據(jù)的挖掘。主要內(nèi)容包括分布式文件系統(tǒng)、相似性搜索、搜索引擎技術(shù)、頻繁項(xiàng)集挖掘、聚類算法、廣告管理及推薦系統(tǒng)、社會(huì)網(wǎng)絡(luò)圖挖掘和大規(guī)模機(jī)器學(xué)習(xí)等。其中每一章節(jié)有對(duì)應(yīng)的習(xí)題,以鞏固所講解的內(nèi)容。讀者更可以從網(wǎng)上獲取相關(guān)拓展材料。

目錄
第1章 數(shù)據(jù)挖掘基本概念  1
1.1 數(shù)據(jù)挖掘的定義  1
1.1.1 統(tǒng)計(jì)建模  1
1.1.2 機(jī)器學(xué)習(xí)  1
1.1.3 建模的計(jì)算方法  2
1.1.4 數(shù)據(jù)匯總  2
1.1.5 特征抽取  3
1.2 數(shù)據(jù)挖掘的統(tǒng)計(jì)限制  4
1.2.1 整體情報(bào)預(yù)警  4
1.2.2 邦弗朗尼原理  4
1.2.3 邦弗朗尼原理的一個(gè)例子  5
1.2.4 習(xí)題  6
1.3 相關(guān)知識(shí)  6
1.3.1 詞語在文檔中的重要性  6
1.3.2 哈希函數(shù)  7
1.3.3 索引  8
1.3.4 二級(jí)存儲(chǔ)器  9
1.3.5 自然對(duì)數(shù)的底e  10
1.3.6 冪定律  11
1.3.7 習(xí)題  12
1.4 本書概要  13
1.5 小結(jié)  14
1.6 參考文獻(xiàn)  15
第2章 MapReduce及新軟件?! ?6
2.1 分布式文件系統(tǒng)  17
2.1.1 計(jì)算節(jié)點(diǎn)的物理結(jié)構(gòu)  17
2.1.2 大規(guī)模文件系統(tǒng)的結(jié)構(gòu)  18
2.2 MapReduce  19
2.2.1 Map任務(wù)  20
2.2.2 按鍵分組  20
2.2.3 Reduce任務(wù)  21
2.2.4 組合器  21
2.2.5 MapReduce的執(zhí)行細(xì)節(jié)  22
2.2.6 節(jié)點(diǎn)失效的處理  23
2.2.7 習(xí)題  23
2.3 使用MapReduce的算法  23
2.3.1 基于MapReduce的矩陣—向量乘法實(shí)現(xiàn)  24
2.3.2 向量v無法放入內(nèi)存時(shí)的處理   24
2.3.3 關(guān)系代數(shù)運(yùn)算  25
2.3.4 基于MapReduce的選擇運(yùn)算27
2.3.5 基于MapReduce的投影運(yùn)算27
2.3.6 基于MapReduce的并、交和差運(yùn)算  28
2.3.7 基于MapReduce的自然連接運(yùn)算  28
2.3.8 基于MapReduce的分組和聚合運(yùn)算  29
2.3.9 矩陣乘法  29
2.3.10 基于單步MapReduce的矩陣乘法  30
2.3.11 習(xí)題  31
2.4 MapReduce的擴(kuò)展  31
2.4.1 工作流系統(tǒng)  32
2.4.2 MapReduce的遞歸擴(kuò)展版本.33
2.4.3 Pregel系統(tǒng)  35
2.4.4 習(xí)題  35
2.5 通信開銷模型  36
2.5.1 任務(wù)網(wǎng)絡(luò)的通信開銷  36
2.5.2 時(shí)鐘時(shí)間  37
2.5.3 多路連接  38
2.5.4 習(xí)題  41
2.6 MapReduce復(fù)雜性理論  41
2.6.1 Reducer規(guī)模及復(fù)制率  41
2.6.2 一個(gè)例子:相似性連接  42
2.6.3 MapReduce問題的一個(gè)圖模型   44
2.6.4 映射模式  45
2.6.5 并非所有輸入都存在時(shí)的處理   46
2.6.6 復(fù)制率的下界  46
2.6.7 案例分析:矩陣乘法  48
2.6.8 習(xí)題  51
2.7 小結(jié)  51
2.8 參考文獻(xiàn)  53
第3章 相似項(xiàng)發(fā)現(xiàn)  55
3.1 近鄰搜索的應(yīng)用  55
3.1.1 集合的Jaccard相似度  55
3.1.2 文檔的相似度  56
3.1.3 協(xié)同過濾——一個(gè)集合相似問題  57
3.1.4 習(xí)題  58
3.2 文檔的shingling  58
3.2.1 k-shingle  58
3.2.2 shingle大小的選擇  59
3.2.3 對(duì)shingle進(jìn)行哈?! ?9
3.2.4 基于詞的shingle  60
3.2.5 習(xí)題  60
3.3 保持相似度的集合摘要表示  61
3.3.1 集合的矩陣表示  61
3.3.2 最小哈?! ?2
3.3.3 最小哈希及Jaccard相似度  62
3.3.4 最小哈希簽名  63
3.3.5 最小哈希簽名的計(jì)算  63
3.3.6 習(xí)題  66
3.4 文檔的局部敏感哈希算法  67
3.4.1 面向最小哈希簽名的LSH  67
3.4.2 行條化策略的分析  68
3.4.3 上述技術(shù)的綜合  69
3.4.4 習(xí)題  70
3.5 距離測(cè)度  70
3.5.1 距離測(cè)度的定義  71
3.5.2 歐氏距離  71
3.5.3 Jaccard距離  72
3.5.4 余弦距離  72
3.5.5 編輯距離  73
3.5.6 海明距離  74
3.5.7 習(xí)題  74
3.6 局部敏感函數(shù)理論  75
3.6.1 局部敏感函數(shù)  76
3.6.2 面向Jaccard距離的局部敏感函數(shù)族  77
3.6.3 局部敏感函數(shù)族的放大處理.77
3.6.4 習(xí)題  79
3.7 面向其他距離測(cè)度的LSH函數(shù)族  80
3.7.1 面向海明距離的LSH函數(shù)族   80
3.7.2 隨機(jī)超平面和余弦距離  80
3.7.3 梗概  81
3.7.4 面向歐氏距離的LSH函數(shù)族   82
3.7.5 面向歐氏空間的更多LSH函數(shù)族  83
3.7.6 習(xí)題  83
3.8 LSH 函數(shù)的應(yīng)用  84
3.8.1 實(shí)體關(guān)聯(lián)  84
3.8.2 一個(gè)實(shí)體關(guān)聯(lián)的例子  85
3.8.3 記錄匹配的驗(yàn)證  86
3.8.4 指紋匹配  87
3.8.5 適用于指紋匹配的LSH函數(shù)族  87
3.8.6 相似新聞報(bào)道檢測(cè)  88
3.8.7 習(xí)題  89
3.9 面向高相似度的方法  90
3.9.1 相等項(xiàng)發(fā)現(xiàn)  90
3.9.2 集合的字符串表示方法  91
3.9.3 基于長度的過濾  91
3.9.4 前綴索引  92
3.9.5 位置信息的使用  93
3.9.6 使用位置和長度信息的索引.94
3.9.7 習(xí)題  96
3.10 小結(jié)  97
3.11 參考文獻(xiàn)  98
第4章 數(shù)據(jù)流挖掘  100
4.1 流數(shù)據(jù)模型  100
4.1.1 一個(gè)數(shù)據(jù)流管理系統(tǒng)  100
4.1.2 流數(shù)據(jù)源的例子  101
4.1.3 流查詢  102
4.1.4 流處理中的若干問題  103
4.2 流當(dāng)中的數(shù)據(jù)抽樣  103
4.2.1 一個(gè)富于啟發(fā)性的例子  104
4.2.2 代表性樣本的獲取  104
4.2.3 一般的抽樣問題  105
4.2.4 樣本規(guī)模的變化  105
4.2.5 習(xí)題  106
4.3 流過濾  106
4.3.1 一個(gè)例子  106
4.3.2 布隆過濾器  107
4.3.3 布隆過濾方法的分析  107
4.3.4 習(xí)題  108
4.4 流中獨(dú)立元素的數(shù)目統(tǒng)計(jì)  109
4.4.1 獨(dú)立元素計(jì)數(shù)問題  109
4.4.2 FM 算法  109
4.4.3 組合估計(jì)  110
4.4.4 空間需求  111
4.4.5 習(xí)題  111
4.5 矩估計(jì)  111
4.5.1 矩定義  111
4.5.2 二階矩估計(jì)的AMS算法  112
4.5.3 AMS算法有效的原因  113
4.5.4 更高階矩的估計(jì)  113
4.5.5 無限流的處理  114
4.5.6 習(xí)題  115
4.6 窗口內(nèi)的計(jì)數(shù)問題  116
4.6.1 精確計(jì)數(shù)的開銷  116
4.6.2 DGIM算法  116
4.6.3 DGIM算法的存儲(chǔ)需求  118
4.6.4 DGIM算法中的查詢應(yīng)答  118
4.6.5 DGIM條件的保持  119
4.6.6 降低錯(cuò)誤率  120
4.6.7 窗口內(nèi)計(jì)數(shù)問題的擴(kuò)展  120
4.6.8 習(xí)題  121
4.7 衰減窗口  121
4.7.1 最常見元素問題  121
4.7.2 衰減窗口的定義  122
4.7.3 最流行元素的發(fā)現(xiàn)  123
4.8 小結(jié)  123
4.9 參考文獻(xiàn)  124
第5章 鏈接分析  126
5.1 PageRank  126
5.1.1 早期的搜索引擎及詞項(xiàng)作弊   126
5.1.2 PageRank 的定義  128
5.1.3 Web結(jié)構(gòu)  130
5.1.4 避免終止點(diǎn)  132
5.1.5 采集器陷阱及“抽稅”法  134
5.1.6 PageRank 在搜索引擎中的使用  136
5.1.7 習(xí)題  136
5.2 PageRank的快速計(jì)算  137
5.2.1 轉(zhuǎn)移矩陣的表示  137
5.2.2 基于MapReduce的PageRank迭代計(jì)算  138
5.2.3 結(jié)果向量合并時(shí)的組合器使用  139
5.2.4 轉(zhuǎn)移矩陣中塊的表示  140
5.2.5 其他高效的PageRank迭代方法  141
5.2.6 習(xí)題  142
5.3 面向主題的PageRank  142
5.3.1 動(dòng)機(jī)  142
5.3.2 有偏的隨機(jī)游走模型  143
5.3.3 面向主題的PageRank 的使用   144
5.3.4 基于詞匯的主題推斷  144
5.3.5 習(xí)題  145
5.4 鏈接作弊  145
5.4.1 垃圾農(nóng)場(chǎng)的架構(gòu)  145
5.4.2 垃圾農(nóng)場(chǎng)的分析  147
5.4.3 與鏈接作弊的斗爭(zhēng)  147
5.4.4 TrustRank  148
5.4.5 垃圾質(zhì)量  148
5.4.6 習(xí)題  149
5.5 導(dǎo)航頁和權(quán)威頁  149
5.5.1 HITS的直觀意義  150
5.5.2 導(dǎo)航度和權(quán)威度的形式化  150
5.5.3 習(xí)題  153
5.6 小結(jié)  153
5.7 參考文獻(xiàn)  155
第6章 頻繁項(xiàng)集  157
6.1 購物籃模型  157
6.1.1 頻繁項(xiàng)集的定義  157
6.1.2 頻繁項(xiàng)集的應(yīng)用  159
6.1.3 關(guān)聯(lián)規(guī)則  160
6.1.4 高可信度關(guān)聯(lián)規(guī)則的發(fā)現(xiàn)  161
6.1.5 習(xí)題  162
6.2 購物籃及A-Priori算法  163
6.2.1 購物籃數(shù)據(jù)的表示  163
6.2.2 項(xiàng)集計(jì)數(shù)中的內(nèi)存使用  164
6.2.3 項(xiàng)集的單調(diào)性  165
6.2.4 二元組計(jì)數(shù)  166
6.2.5 A-Priori算法  166
6.2.6 所有頻繁項(xiàng)集上的A-Priori算法  168
6.2.7 習(xí)題  169
6.3 更大數(shù)據(jù)集在內(nèi)存中的處理  170
6.3.1 PCY算法  171
6.3.2 多階段算法  172
6.3.3 多哈希算法  174
6.3.4 習(xí)題  175
6.4 有限掃描算法  177
6.4.1 簡(jiǎn)單的隨機(jī)化算法  177
6.4.2 抽樣算法中的錯(cuò)誤規(guī)避  178
6.4.3 SON算法  179
6.4.4 SON算法和MapReduce  179
6.4.5 Toivonen算法  180
6.4.6 Toivonen算法的有效性分析   181
6.4.7 習(xí)題  181
6.5 流中的頻繁項(xiàng)計(jì)數(shù)  182
6.5.1 流的抽樣方法  182
6.5.2 衰減窗口中的頻繁項(xiàng)集  183
6.5.3 混合方法  183
6.5.4 習(xí)題  184
6.6 小結(jié)  184
6.7 參考文獻(xiàn)  186
第7章 聚類  187
7.1 聚類技術(shù)介紹  187
7.1.1 點(diǎn)、空間和距離  187
7.1.2 聚類策略  188
7.1.3 維數(shù)災(zāi)難  189
7.1.4 習(xí)題  190
7.2 層次聚類  190
7.2.1 歐氏空間下的層次聚類  191
7.2.2 層次聚類算法的效率  194
7.2.3 控制層次聚類的其他規(guī)則  194
7.2.4 非歐空間下的層次聚類  196
7.2.5 習(xí)題  197
7.3 k-均值算法  198
7.3.1 k-均值算法基本知識(shí)  198
7.3.2 k-均值算法的簇初始化  198
7.3.3 選擇正確的k值  199
7.3.4 BFR算法  200
7.3.5 BFR算法中的數(shù)據(jù)處理  202
7.3.6 習(xí)題  203
7.4 CURE算法  204
7.4.1 CURE算法的初始化  205
7.4.2 CURE算法的完成  206
7.4.3 習(xí)題  206
7.5 非歐空間下的聚類  207
7.5.1 GRGPF算法中的簇表示  207
7.5.2 簇表示樹的初始化  207
7.5.3 GRGPF算法中的點(diǎn)加入  208
7.5.4 簇的分裂及合并  209
7.5.5 習(xí)題  210
7.6 流聚類及并行化  210
7.6.1 流計(jì)算模型  210
7.6.2 一個(gè)流聚類算法  211
7.6.3 桶的初始化  211
7.6.4 桶合并  211
7.6.5 查詢應(yīng)答  213
7.6.6 并行環(huán)境下的聚類  213
7.6.7 習(xí)題  214
7.7 小結(jié)  214
7.8 參考文獻(xiàn)  216
第8章 Web廣告  218
8.1 在線廣告相關(guān)問題  218
8.1.1 廣告機(jī)會(huì)  218
8.1.2 直投廣告  219
8.1.3 展示廣告的相關(guān)問題  219
8.2 在線算法  220
8.2.1 在線和離線算法  220
8.2.2 貪心算法  221
8.2.3 競(jìng)爭(zhēng)率  222
8.2.4 習(xí)題  222
8.3 廣告匹配問題  223
8.3.1 匹配及完美匹配  223
8.3.2 最大匹配貪心算法  224
8.3.3 貪心匹配算法的競(jìng)爭(zhēng)率  224
8.3.4 習(xí)題  225
8.4 adwords問題  225
8.4.1 搜索廣告的歷史  226
8.4.2 adwords問題的定義  226
8.4.3 adwords問題的貪心方法  227
8.4.4 Balance算法  228
8.4.5 Balance算法競(jìng)爭(zhēng)率的一個(gè)下界  228
8.4.6 多投標(biāo)者的Balance算法  230
8.4.7 一般性的Balance算法  231
8.4.8 adwords問題的最后論述  232
8.4.9 習(xí)題  232
8.5 adwords的實(shí)現(xiàn)  232
8.5.1 投標(biāo)和搜索查詢的匹配  233
8.5.2 更復(fù)雜的匹配問題  233
8.5.3 文檔和投標(biāo)之間的匹配算法   234
8.6 小結(jié)  235
8.7 參考文獻(xiàn)  237
第9章 推薦系統(tǒng)  238
9.1 一個(gè)推薦系統(tǒng)的模型  238
9.1.1 效用矩陣  238
9.1.2 長尾現(xiàn)象  239
9.1.3 推薦系統(tǒng)的應(yīng)用  241
9.1.4 效用矩陣的填充  241
9.2 基于內(nèi)容的推薦  242
9.2.1 項(xiàng)模型  242
9.2.2 文檔的特征發(fā)現(xiàn)  242
9.2.3 基于Tag的項(xiàng)特征獲取  243
9.2.4 項(xiàng)模型的表示  244
9.2.5 用戶模型  245
9.2.6 基于內(nèi)容的項(xiàng)推薦  246
9.2.7 分類算法  247
9.2.8 習(xí)題  248
9.3 協(xié)同過濾  249
9.3.1 相似度計(jì)算  249
9.3.2 相似度對(duì)偶性  252
9.3.3 用戶聚類和項(xiàng)聚類  253
9.3.4 習(xí)題  254
9.4 降維處理  254
9.4.1 UV分解  255
9.4.2 RMSE  255
9.4.3 UV分解的增量式計(jì)算  256
9.4.4 對(duì)任一元素的優(yōu)化  259
9.4.5 一個(gè)完整UV 分解算法的構(gòu)建  259
9.4.6 習(xí)題  261
9.5 NetFlix競(jìng)賽  262
9.6 小結(jié)  263
9.7 參考文獻(xiàn)  264
第10章 社會(huì)網(wǎng)絡(luò)圖挖掘  265
10.1 將社會(huì)網(wǎng)絡(luò)看成圖  265
10.1.1 社會(huì)網(wǎng)絡(luò)的概念  265
10.1.2 將社會(huì)網(wǎng)絡(luò)看成圖  266
10.1.3 各種社會(huì)網(wǎng)絡(luò)的例子  267
10.1.4 多類型節(jié)點(diǎn)構(gòu)成的圖  268
10.1.5 習(xí)題  269
10.2 社會(huì)網(wǎng)絡(luò)圖的聚類  269
10.2.1 社會(huì)網(wǎng)絡(luò)圖的距離計(jì)算  269
10.2.2 應(yīng)用標(biāo)準(zhǔn)的聚類算法  270
10.2.3 中介度  271
10.2.4 Girvan-Newman算法  271
10.2.5 利用中介度來發(fā)現(xiàn)社區(qū)  274
10.2.6 習(xí)題  275
10.3 社區(qū)的直接發(fā)現(xiàn)  275
10.3.1 團(tuán)的發(fā)現(xiàn)  276
10.3.2 完全二部圖  276
10.3.3 發(fā)現(xiàn)完全二部子圖  277
10.3.4 完全二部子圖一定存在的原因  277
10.3.5 習(xí)題  279
10.4 圖劃分  280
10.4.1 圖劃分的好壞標(biāo)準(zhǔn)  280
10.4.2 歸一化割  280
10.4.3 描述圖的一些矩陣  281
10.4.4 拉普拉斯矩陣的特征值  282
10.4.5 其他圖劃分方法  284
10.4.6 習(xí)題  284
10.5 重疊社區(qū)的發(fā)現(xiàn)  285
10.5.1 社區(qū)的本質(zhì)  285
10.5.2 極大似然估計(jì)  286
10.5.3 關(guān)系圖模型  287
10.5.4 避免成員隸屬關(guān)系的離散式變化  288
10.5.5 習(xí)題  290
10.6 Simrank  290
10.6.1 社會(huì)網(wǎng)絡(luò)上的隨機(jī)游走者   290
10.6.2 帶重啟的隨機(jī)游走  291
10.6.3 習(xí)題  293
10.7 三角形計(jì)數(shù)問題  293
10.7.1 為什么要對(duì)三角形計(jì)數(shù)  294
10.7.2 一個(gè)尋找三角形的算法  294
10.7.3 三角形尋找算法的最優(yōu)性   295
10.7.4 基于MapReduce尋找三角形  295
10.7.5 使用更少的Reduce任務(wù).297
10.7.6 習(xí)題  297
10.8 圖的鄰居性質(zhì)  298
10.8.1 有向圖和鄰居  298
10.8.2 圖的直徑  299
10.8.3 傳遞閉包和可達(dá)性  300
10.8.4 基于MapReduce的傳遞閉包求解  301
10.8.5 智能傳遞閉包  303
10.8.6 基于圖歸約的傳遞閉包  304
10.8.7 鄰居規(guī)模的近似計(jì)算  305
10.8.8 習(xí)題  306
10.9 小結(jié)  307
10.10 參考文獻(xiàn)  310
第11章 降維處理  312
11.1 特征值和特征向量  312
11.1.1 定義  312
11.1.2 特征值與特征向量計(jì)算  313
11.1.3 基于冪迭代方法的特征對(duì)求解  315
11.1.4 特征向量矩陣  317
11.1.5 習(xí)題  317
11.2 主成分分析  318
11.2.1 一個(gè)示例  318
11.2.2 利用特征向量進(jìn)行降維  321
11.2.3 距離矩陣  322
11.2.4 習(xí)題  323
11.3 奇異值分解  323
11.3.1 SVD的定義  323
11.3.2 SVD解析  325
11.3.3 基于SVD的降維  326
11.3.4 將較低奇異值置為0后有效的原因  327
11.3.5 使用概念進(jìn)行查詢處理  328
11.3.6 矩陣SVD的計(jì)算  329
11.3.7 習(xí)題  330
11.4 CUR 分解  331
11.4.1 CUR 的定義  331
11.4.2 合理選擇行和列  332
11.4.3 構(gòu)建中間矩陣  333
11.4.4 完整的CUR 分解  334
11.4.5 去除重復(fù)行和列  335
11.4.6 習(xí)題  335
11.5 小結(jié)  336
11.6 參考文獻(xiàn)  337
第12章 大規(guī)模機(jī)器學(xué)習(xí)  338
12.1 機(jī)器學(xué)習(xí)模型  338
12.1.1 訓(xùn)練集  338
12.1.2 一些例子  339
12.1.3 機(jī)器學(xué)習(xí)方法  341
12.1.4 機(jī)器學(xué)習(xí)架構(gòu)  342
12.1.5 習(xí)題  344
12.2 感知機(jī)  344
12.2.1 訓(xùn)練閾值為0 的感知機(jī)  344
12.2.2 感知機(jī)的收斂性  347
12.2.3 Winnow算法  347
12.2.4 允許閾值變化的情況  349
12.2.5 多類感知機(jī)  350
12.2.6 變換訓(xùn)練集  351
12.2.7 感知機(jī)的問題  351
12.2.8 感知機(jī)的并行實(shí)現(xiàn)  353
12.2.9 習(xí)題  354
12.3 支持向量機(jī)  354
12.3.1 支持向量機(jī)的構(gòu)成  354
12.3.2 超平面歸一化  356
12.3.3 尋找最優(yōu)逼近分界面  357
12.3.4 基于梯度下降法求解SVM   359
12.3.5 隨機(jī)梯度下降  363
12.3.6 SVM的并行實(shí)現(xiàn)  363
12.3.7 習(xí)題  363
12.4 近鄰學(xué)習(xí)  364
12.4.1 近鄰計(jì)算的框架  364
12.4.2 最近鄰學(xué)習(xí)  365
12.4.3 學(xué)習(xí)一維函數(shù)  365
12.4.4 核回歸  367
12.4.5 處理高維歐氏空間數(shù)據(jù)  368
12.4.6 對(duì)非歐距離的處理  369
12.4.7 習(xí)題  369
12.5 各種學(xué)習(xí)方法的比較  370
12.6 小結(jié)  371
12.7 參考文獻(xiàn)  372

載地址

下載錯(cuò)誤?【投訴報(bào)錯(cuò)】

大數(shù)據(jù)-互聯(lián)網(wǎng)大規(guī)模數(shù)據(jù)挖掘與分布式處理(第2版)高清完整PDF版

      氣書籍

      載聲明

      ☉ 解壓密碼:www.dbjr.com.cn 就是本站主域名,希望大家看清楚,[ 分享碼的獲取方法 ]可以參考這篇文章
      ☉ 推薦使用 [ 迅雷 ] 下載,使用 [ WinRAR v5 ] 以上版本解壓本站軟件。
      ☉ 如果這個(gè)軟件總是不能下載的請(qǐng)?jiān)谠u(píng)論中留言,我們會(huì)盡快修復(fù),謝謝!
      ☉ 下載本站資源,如果服務(wù)器暫不能下載請(qǐng)過一段時(shí)間重試!或者多試試幾個(gè)下載地址
      ☉ 如果遇到什么問題,請(qǐng)?jiān)u論留言,我們定會(huì)解決問題,謝謝大家支持!
      ☉ 本站提供的一些商業(yè)軟件是供學(xué)習(xí)研究之用,如用于商業(yè)用途,請(qǐng)購買正版。
      ☉ 本站提供的大數(shù)據(jù)-互聯(lián)網(wǎng)大規(guī)模數(shù)據(jù)挖掘與分布式處理(第2版)高清完整PDF版資源來源互聯(lián)網(wǎng),版權(quán)歸該下載資源的合法擁有者所有。