欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

當(dāng)前位置:主頁(yè) > 區(qū)塊鏈 > 區(qū)塊鏈技術(shù) > 詳解基礎(chǔ)設(shè)施層

AI+Web3未來(lái)發(fā)展之路:基礎(chǔ)設(shè)施篇

2024-03-22 11:44:18 | 來(lái)源: | 作者:佚名
AI+Web3是當(dāng)下最熱門的兩個(gè)技術(shù)主題的碰撞,近期也出現(xiàn)了一批該主題的項(xiàng)目,凸顯了市場(chǎng)對(duì)這個(gè)主題的關(guān)注和期待,本文是Future3 Campus AI+Web3 產(chǎn)業(yè)研究報(bào)告第二篇,詳解基礎(chǔ)設(shè)施層的發(fā)展?jié)摿?、敘事邏輯和代表性頭部項(xiàng)目

本文是Future3 Campus AI+Web3 產(chǎn)業(yè)研究報(bào)告第二篇,詳解基礎(chǔ)設(shè)施層的發(fā)展?jié)摿Α⑹逻壿嫼痛硇灶^部項(xiàng)目。第一篇:AI+Web3 未來(lái)發(fā)展之路:產(chǎn)業(yè)圖景和敘事邏輯

基礎(chǔ)設(shè)施是AI發(fā)展的確定性成長(zhǎng)方向

爆發(fā)增長(zhǎng)的 AI 算力需求

近年來(lái),算力需求快速增長(zhǎng),尤其是在 LLM 大模型面世后,AI 算力需求引爆了高性能算力市場(chǎng)。OpenAI 數(shù)據(jù)顯示,自 2012 年以來(lái),用于訓(xùn)練最大 AI 模型的計(jì)算用量呈指數(shù)級(jí)增長(zhǎng),平均每 3-4 個(gè)月翻倍,其增長(zhǎng)速度大大超過(guò)了摩爾定律。AI 應(yīng)用的需求增長(zhǎng)導(dǎo)致了對(duì)計(jì)算硬件的需求快速增加,預(yù)計(jì)到 2025 年,AI 應(yīng)用對(duì)計(jì)算硬件的需求將增長(zhǎng)約 10% 到 15%。

受 AI 算力需求影響,GPU 硬件廠商英偉達(dá)的數(shù)據(jù)中心收入持續(xù)增長(zhǎng),23 年 Q2 的數(shù)據(jù)中心收入達(dá)到 $10.32B,比 23 年 Q1 增長(zhǎng) 141%,比去年同期增長(zhǎng) 171%。2024 財(cái)年第四季度中數(shù)據(jù)中心業(yè)務(wù)占據(jù) 83% 以上營(yíng)收,同步增長(zhǎng) 409%,其中 40% 用于大模型的推理場(chǎng)景,顯示出對(duì)于高性能算力的強(qiáng)大需求。

同時(shí)需要海量數(shù)據(jù)也對(duì)存儲(chǔ)和硬件內(nèi)存提出了要求,尤其是在模型訓(xùn)練階段,需要大量的參數(shù)輸入,需要存儲(chǔ)大量數(shù)據(jù)。在 AI 服務(wù)器中應(yīng)用的存儲(chǔ)芯片主要包括:高帶寬存儲(chǔ)器 (HBM)、DRAM 和 SSD,針對(duì) AI 服務(wù)器的工作場(chǎng)景需要提供更大的容量、更高的性能、更低的延遲和更高的響應(yīng)速度。根據(jù)美光測(cè)算, AI 服務(wù)器中 DRAM 數(shù)量是傳統(tǒng)服務(wù)器的 8 倍,NAND 是傳統(tǒng)的 3 倍。

供需失衡推動(dòng)高昂的算力成本

通常來(lái)說(shuō),算力主要應(yīng)用在 AI 模型的訓(xùn)練、微調(diào)和推測(cè)階段,尤其是在訓(xùn)練微調(diào)階段,由于更大的數(shù)據(jù)參數(shù)輸入和計(jì)算量,同時(shí)對(duì)并行計(jì)算的互聯(lián)性要求更高,因此需要更性能、互聯(lián)能力更強(qiáng)的 GPU 硬件,通常是高性能的 GPU 算力集群。隨著大模型的發(fā)展,計(jì)算復(fù)雜度也直線上升,使得需要更多高端硬件來(lái)滿足模型訓(xùn)練需求。

以 GPT3 為例,按 1300 萬(wàn)獨(dú)立用戶訪問(wèn)的情況來(lái)說(shuō),對(duì)應(yīng)的芯片需求是 3 萬(wàn)多片 A100GPU。那么初始投入成本將達(dá)到驚人的 8 億美元,每日模型推理費(fèi)用預(yù)估費(fèi)用 70 萬(wàn)美元。

同時(shí),據(jù)行業(yè)報(bào)道,2023 年第四季度,NVIDIA GPU 供應(yīng)量在全球范圍內(nèi)都被嚴(yán)格限制,導(dǎo)致全球市場(chǎng)都出現(xiàn)了明顯的供不應(yīng)求。英偉達(dá)產(chǎn)能受限于臺(tái)積電、HBM、CoWos 封裝等產(chǎn)能,H100 的「嚴(yán)重缺貨問(wèn)題」至少會(huì)持續(xù)到 2024 年底。

因此高端 GPU 的需求上升和供應(yīng)受阻兩方面推動(dòng)了當(dāng)前 GPU 等硬件的高昂價(jià)格,尤其是類似英偉達(dá)這種占據(jù)產(chǎn)業(yè)鏈底層核心的公司,通過(guò)龍頭壟斷還能進(jìn)一步獲得價(jià)值紅利。例如英偉達(dá)的 H100 AI 加速卡的物料成本約為 3000 美元,而在 2023 年中售價(jià)已經(jīng)達(dá)到了 3.5 萬(wàn)美元左右,甚至在 eBay 上賣出了超過(guò) 4w 美元的價(jià)格。

AI 基礎(chǔ)設(shè)施占據(jù)產(chǎn)業(yè)鏈核心價(jià)值增長(zhǎng)

Grand View Research 的報(bào)告顯示,全球云 AI 市場(chǎng)的規(guī)模在 2023 年估計(jì)為 626.3 億美元,并預(yù)計(jì)到 2030 年將增長(zhǎng)到 6476 億美元,年復(fù)合增長(zhǎng)率為 39.6%。這一數(shù)據(jù)反映了云 AI 服務(wù)的增長(zhǎng)潛力及其在整個(gè) AI 產(chǎn)業(yè)鏈中所占的重要份額。

根據(jù) a16z 的估算,AIGC 市場(chǎng)的大量資金最終流向了基礎(chǔ)設(shè)施公司。平均而言,應(yīng)用程序公司將大約 20-40% 的收入用于推理和針對(duì)每個(gè)客戶的微調(diào)。這通常直接支付給計(jì)算實(shí)例的云提供商或第三方模型提供商——反過(guò)來(lái),第三方模型提供商將大約一半的收入花在云基礎(chǔ)設(shè)施上。因此,有理由猜測(cè)當(dāng)今 AIGC 總收入的 10-20% 流向了云提供商。

同時(shí),更大一部分的算力需求在于大型 AI 模型的訓(xùn)練,例如各類 LLM 大模型,尤其是對(duì)于模型初創(chuàng)公司,80-90% 的成本都用于 AI 算力使用。綜合來(lái)看,AI 計(jì)算基礎(chǔ)設(shè)施(包括云計(jì)算和硬件)預(yù)計(jì)占據(jù)市場(chǎng)初期 50% 以上的價(jià)值。

去中心化 AI 計(jì)算

如上文所述,當(dāng)前中心化 AI 計(jì)算的成本高企,很重要的一個(gè)原因是 AI 訓(xùn)練對(duì)高性能基礎(chǔ)設(shè)施的需求增長(zhǎng)。但是實(shí)際上市場(chǎng)上大量仍然存在大量的算力面臨閑置的問(wèn)題,出現(xiàn)了一部分的供需錯(cuò)配。其中主要原因是:

  • 受限于內(nèi)存,模型復(fù)雜度與所需要的 GPU 數(shù)量并不是線性增長(zhǎng)關(guān)系:當(dāng)前的 GPU 具有算力優(yōu)勢(shì),但是模型訓(xùn)練需要大量的參數(shù)存儲(chǔ)在內(nèi)存。例如對(duì)于 GPT-3 來(lái)說(shuō),為了訓(xùn)練 1750 億個(gè)參數(shù)的模型,需要在內(nèi)存中保存超過(guò) 1 TB 的數(shù)據(jù)——這超過(guò)了當(dāng)今現(xiàn)有的任何 GPU,因此需要更多的 GPU 進(jìn)行并行計(jì)算和存儲(chǔ),這又會(huì)導(dǎo)致 GPU 算力的閑置。比如從 GPT3 到 GPT4,模型參數(shù)規(guī)模增加約 10 倍,但是所需要的 GPU 數(shù)量增加了 24 倍(且不考慮模型訓(xùn)練時(shí)間的增長(zhǎng))。據(jù)相關(guān)分析稱,OpenAI 在 GPT-4 的訓(xùn)練中使用了大約 2.15e25 的 FLOPS,在大約 25000 個(gè) A100 GPU 上進(jìn)行了 90 到 100 天的訓(xùn)練,其算力利用率約為 32% 至 36%。

面對(duì)以上問(wèn)題,設(shè)計(jì)更加符合 AI 工作的高性能芯片或者專用 ASIC 芯片是目前很多開(kāi)發(fā)者和大型企業(yè)在探索的方向,另一個(gè)角度則是綜合利用現(xiàn)有的計(jì)算資源,建設(shè)分布式算力網(wǎng)絡(luò),通過(guò)算力的租賃、共享、調(diào)度等來(lái)降低算力的成本。此外,目前市場(chǎng)有很多閑置的消費(fèi)級(jí) GPU 和 CPU,單體算力不強(qiáng),但是在某些場(chǎng)景或者與現(xiàn)有高性能芯片一起配置也能過(guò)滿足現(xiàn)有的計(jì)算需求,最重要的是供應(yīng)充足,通過(guò)分布式網(wǎng)絡(luò)調(diào)度能夠進(jìn)一步降低成本。

因此分布式算力成為了 AI 基礎(chǔ)設(shè)施發(fā)展的一個(gè)方向。同時(shí)因?yàn)?Web3 與分布式具有相似的概念,去中心化算力網(wǎng)絡(luò)也是當(dāng)前 Web3+AI 基礎(chǔ)設(shè)施的主要應(yīng)用方向。目前市場(chǎng)上的 Web3 去中心化算力平臺(tái)普遍能夠提供相比較中心化云算力低 80%-90% 的價(jià)格。

存儲(chǔ)雖然也為 AI 最重要的基礎(chǔ)設(shè)施,但存儲(chǔ)對(duì)大規(guī)模、易用性、低延遲等要求使得目前中心化的存儲(chǔ)具有更大的優(yōu)勢(shì)。而分布式計(jì)算網(wǎng)絡(luò)由于其顯著的成本優(yōu)勢(shì),則存在更加切實(shí)的市場(chǎng),能夠更大地享受到 AI 市場(chǎng)爆發(fā)帶來(lái)的紅利。

  • 模型推理和小模型訓(xùn)練是當(dāng)前分布式算力的核心場(chǎng)景。分布式算力由于算力資源的分散,不可避免地增加 GPU 之間的通信問(wèn)題,因此會(huì)降低算力性能。因此,分布式算力首先更加適合對(duì)通信要求少,可以支持并行的場(chǎng)景,例如 AI 大模型的推理階段,以及參數(shù)量比較少的小模型,其受到的性能影響較小。事實(shí)上隨著未來(lái) AI 應(yīng)用的發(fā)展,推理才是應(yīng)用層的核心需求,大部分公司沒(méi)有能力去做大模型的訓(xùn)練,因此分布式算力仍然具有長(zhǎng)期潛力的市場(chǎng)。

  • 為大規(guī)模并行計(jì)算設(shè)計(jì)的高性能分布式訓(xùn)練框架也不斷涌現(xiàn)。例如 Pytorch、Ray、DeepSpeed 等創(chuàng)新式的開(kāi)源分布式計(jì)算框架為開(kāi)發(fā)者使用分布式算力進(jìn)行模型訓(xùn)練提供了更強(qiáng)的基礎(chǔ)支持,使得分布式算力在未來(lái) AI 市場(chǎng)的適用性會(huì)更強(qiáng)。

AI+Web3 基礎(chǔ)設(shè)施項(xiàng)目的敘事邏輯

我們看到,分布式 AI 基礎(chǔ)設(shè)施需求強(qiáng),且具有長(zhǎng)期增長(zhǎng)潛力,因此是易于敘事和受到資本青睞的領(lǐng)域。目前 AI+Web3 產(chǎn)業(yè)的基礎(chǔ)設(shè)施層的主要項(xiàng)目基本是以去中心化的計(jì)算網(wǎng)絡(luò)為主要的敘事,以低成本為主要優(yōu)勢(shì),以代幣激勵(lì)為主要方式擴(kuò)展網(wǎng)絡(luò),服務(wù) AI+Web3 客戶為主要目標(biāo)。主要包括兩個(gè)層面:

1.比較純粹的去中心化云計(jì)算資源的共享和租賃平臺(tái):有很多早期的 AI 項(xiàng)目,例如 Render Network、Akash Network 等;

  • 算力資源為主要競(jìng)爭(zhēng)優(yōu)勢(shì):核心競(jìng)爭(zhēng)優(yōu)勢(shì)和資源通常是能夠接觸到大量的算力提供商,快速建立其基礎(chǔ)網(wǎng)絡(luò),同時(shí)提供易用性強(qiáng)的產(chǎn)品給客戶使用。早期市場(chǎng)中很多做云算力的公司和礦工會(huì)更容易切入這個(gè)賽道。

  • 產(chǎn)品門檻較低,上線速度快:對(duì)于 Render Network、Akash Network 這種成熟產(chǎn)品來(lái)說(shuō),已經(jīng)可以看到切實(shí)增長(zhǎng)的數(shù)據(jù),具有一定的領(lǐng)先優(yōu)勢(shì)。

  • 新進(jìn)入者產(chǎn)品同質(zhì)化:由于目前賽道熱點(diǎn)和此類產(chǎn)品低門檻的特點(diǎn),最近也進(jìn)入了一大批做共享算力、算力租賃等敘事的項(xiàng)目,但是產(chǎn)品比較同質(zhì)化,還需要看到更多的差異化競(jìng)爭(zhēng)優(yōu)勢(shì)。

  • 偏向于服務(wù)簡(jiǎn)單計(jì)算需求的客戶:例如 Render Network 主要服務(wù)渲染需求,Akash Nerwork 的資源提供中 CPU 更多。簡(jiǎn)單的計(jì)算資源租賃多數(shù)滿足簡(jiǎn)單的 AI 任務(wù)需求,無(wú)法滿足復(fù)雜的 AI 訓(xùn)練、微調(diào)、推測(cè)等全生命周期需求。

2.提供去中心化計(jì)算 +ML 工作流服務(wù):有很多最近獲得高額融資的新興項(xiàng)目,例如 Gensyn, io.net, Ritual 等;

  • 去中心化計(jì)算抬高估值地基。由于算力是 AI 發(fā)展的確定性敘事,因此具有算力基礎(chǔ)的項(xiàng)目通常具有更加穩(wěn)定和高潛力的商業(yè)模式,使得對(duì)比純中間層項(xiàng)目具有更高的估值。

  • 中間層服務(wù)打出差異化優(yōu)勢(shì)。中間層的服務(wù)則是這些算力基礎(chǔ)設(shè)施具有競(jìng)爭(zhēng)優(yōu)勢(shì)的部分,例如服務(wù) AI 鏈上鏈下計(jì)算同步的預(yù)言機(jī)和驗(yàn)證器,服務(wù) AI 整體工作流的部署和管理工具等。AI 工作流具有協(xié)作性、持續(xù)反饋、復(fù)雜度高等特點(diǎn),在流程中的多個(gè)環(huán)節(jié)都需要應(yīng)用到算力,因此一個(gè)更加具有易用性,高協(xié)作性,能夠滿足 AI 開(kāi)發(fā)者復(fù)雜需求的中間層基礎(chǔ)設(shè)施在當(dāng)下是具有競(jìng)爭(zhēng)力的,特別是在 Web3 領(lǐng)域中需要滿足 Web3 開(kāi)發(fā)者對(duì)于 AI 的需求。這樣的服務(wù)更容易承接到潛在的 AI 應(yīng)用市場(chǎng),而不是僅僅支持簡(jiǎn)單的計(jì)算需求。

  • 通常需要在 ML 領(lǐng)域有專業(yè)運(yùn)維經(jīng)驗(yàn)的項(xiàng)目團(tuán)隊(duì)。能夠提供上述中間層服務(wù)的團(tuán)隊(duì)通常需要對(duì)整個(gè) ML 的工作流程有詳細(xì)的了解,才能更好的滿足開(kāi)發(fā)者的全生命周期需求。盡管這類的服務(wù)通常會(huì)采用到很多現(xiàn)有的開(kāi)源框架和工具,不一定具有強(qiáng)技術(shù)創(chuàng)新,但是仍然需要具有豐富經(jīng)驗(yàn)和強(qiáng)大工程能力的團(tuán)隊(duì),這也是項(xiàng)目的競(jìng)爭(zhēng)優(yōu)勢(shì)。

通過(guò)提供比中心化云計(jì)算服務(wù)更優(yōu)惠的價(jià)格,但配套和使用體驗(yàn)比較相近的服務(wù),這類項(xiàng)目獲得了很多頭部資本的認(rèn)可,但同時(shí)技術(shù)復(fù)雜度也更高,目前基本在敘事和開(kāi)發(fā)階段,還未有完善上線的產(chǎn)品。

代表項(xiàng)目

Render Network

Render Network 是一個(gè)基于區(qū)塊鏈的全球渲染平臺(tái),提供分布式的 GPU,為創(chuàng)作者提供更低成本,更高速的 3D 渲染服務(wù),在創(chuàng)作者確認(rèn)過(guò)渲染結(jié)果后,再由區(qū)塊鏈網(wǎng)絡(luò)向節(jié)點(diǎn)發(fā)送代幣獎(jiǎng)勵(lì)。平臺(tái)提供分布式 GPU 的調(diào)度和分配網(wǎng)絡(luò),按照節(jié)點(diǎn)的用量情況、聲譽(yù)等進(jìn)行作業(yè)的分配,最大化地提高計(jì)算的效率,減少資源閑置,降低成本。

Render Network 的代幣 RNDR 是平臺(tái)中的支付型代幣,創(chuàng)作者可以使用 RNDR 支付渲染服務(wù),服務(wù)商則通過(guò)提供算力完成渲染作業(yè)而獲得 RNDR 獎(jiǎng)勵(lì)。渲染服務(wù)的價(jià)格會(huì)根據(jù)當(dāng)前網(wǎng)絡(luò)中的用量情況等進(jìn)行動(dòng)態(tài)調(diào)節(jié)。

渲染是分布式算力架構(gòu)運(yùn)用相對(duì)合適且成熟的場(chǎng)景,因?yàn)榭梢詫秩救蝿?wù)分為多個(gè)子任務(wù)高度并行地執(zhí)行,互相之前不需要過(guò)多的通信和交互,所以可以最大化避免分布式算力架構(gòu)的弊端,同時(shí)充分利用廣泛的 GPU 節(jié)點(diǎn)網(wǎng)絡(luò),有效降低成本。

因此,Render Network 的用戶需求也較為可觀,自 2017 年創(chuàng)立以來(lái),Render Network 用戶在網(wǎng)絡(luò)上渲染了超過(guò) 1600 萬(wàn)幀和近 50 萬(wàn)個(gè)場(chǎng)景,且渲染幀數(shù)作業(yè)和活躍節(jié)點(diǎn)數(shù)都呈增長(zhǎng)的趨勢(shì)。此外,Render Network 于 2023 Q1 也推出了原生集成 Stability AI 工具集,用戶可以的該項(xiàng)功能引入 Stable Diffusion 作業(yè),業(yè)務(wù)也不再局限于渲染作業(yè)而向 AI 領(lǐng)域擴(kuò)展。

Gensyn.ai

Gensyn 是一個(gè)用于深度學(xué)習(xí)計(jì)算的全球性的超級(jí)計(jì)算集群網(wǎng)絡(luò),基于波卡的 L1 協(xié)議,2023 年獲得了由 a16z 領(lǐng)投的 4300 萬(wàn)美元 A 輪融資。

Gensyn 的敘事架構(gòu)中不僅包含了基礎(chǔ)設(shè)施的分布式算力集群,還包括上層的驗(yàn)證體系,證明在鏈外執(zhí)行的大規(guī)模計(jì)算是按照鏈的要求執(zhí)行的,即用區(qū)塊鏈來(lái)驗(yàn)證,從而構(gòu)建一個(gè)無(wú)需信任的機(jī)器學(xué)習(xí)網(wǎng)絡(luò)。

分布式算力方面,Gensyn 能夠支持從多余容量的數(shù)據(jù)中心到帶有潛在 GPU 的個(gè)人筆記本電腦,它將這些設(shè)備連接成一個(gè)單一的虛擬集群,開(kāi)發(fā)者可以隨需訪問(wèn)和點(diǎn)對(duì)點(diǎn)使用。Gensyn 將創(chuàng)建一個(gè)價(jià)格由市場(chǎng)動(dòng)態(tài)決定且向所有參與者開(kāi)放的市場(chǎng),可以使 ML 計(jì)算的單位成本達(dá)到公平均衡。

而驗(yàn)證體系是 Gensyn 更重要的概念,它希望網(wǎng)絡(luò)能夠驗(yàn)證機(jī)器學(xué)習(xí)任務(wù)是否按照請(qǐng)求正確完成,它創(chuàng)新了一種更加高效的驗(yàn)證方法,包含了概率性學(xué)習(xí)證明、基于圖的精準(zhǔn)定位協(xié)議和 Truebit 式激勵(lì)游戲三大核心技術(shù)點(diǎn),相比傳統(tǒng)區(qū)塊鏈中的重復(fù)驗(yàn)證方法更加高效。其網(wǎng)絡(luò)中的參與者包括提交者、求解者、驗(yàn)證者和舉報(bào)者,來(lái)完成整個(gè)驗(yàn)證流程。

按照 Gensyn 協(xié)議在白皮書中的綜合測(cè)試數(shù)據(jù)來(lái)看,目前其顯著優(yōu)勢(shì)是:

  • 能夠降低 AI 模型訓(xùn)練的成本:預(yù)計(jì) Gensyn 協(xié)議上的 NVIDIA V100 等效計(jì)算的每小時(shí)成本約為 0.40 美元,比 AWS 按需計(jì)算便宜 80%。

  • 更加高效的無(wú)需信任的驗(yàn)證網(wǎng)絡(luò):按照白皮書中的測(cè)試,Gensyn 協(xié)議進(jìn)行模型訓(xùn)練的時(shí)間開(kāi)銷,與 Truebit 式復(fù)制相比,性能提升了 1,350%,與以太坊相比,性能提升了 2,522,477%。

但同時(shí),分布式算力相比較本地訓(xùn)練,由于通訊和網(wǎng)絡(luò)問(wèn)題,不可避免地增加了訓(xùn)練時(shí)間,測(cè)試數(shù)據(jù)中,Gensyn 協(xié)議為模型訓(xùn)練增加了約 46% 的時(shí)間開(kāi)銷

Akash network

Akash network 是一個(gè)分布式的云計(jì)算平臺(tái),結(jié)合不同的技術(shù)組件,讓用戶可以在去中心化的云環(huán)境中高效、靈活地部署和管理應(yīng)用程序,簡(jiǎn)單地說(shuō),它提供用戶租賃分布式計(jì)算資源。

Akash 的底層是分布在全球的多個(gè)基礎(chǔ)設(shè)施服務(wù)商,提供 CPU、GPU、內(nèi)存、存儲(chǔ)資源,并通過(guò)上層的 Kubernetes 集群將資源提供給用戶進(jìn)行租賃。而用戶可以將應(yīng)用程序部署為 Docker 容器,來(lái)使用更低成本的基礎(chǔ)設(shè)施服務(wù)。同時(shí),Akash 采用「反向拍賣」的方式,使得資源價(jià)格進(jìn)一步降低。按照 Akash 官網(wǎng)的估算,其平臺(tái)的服務(wù)成本比中心化服務(wù)器降低約 80% 以上。

io.net

io.net 是一個(gè)去中心化計(jì)算網(wǎng)絡(luò),連接全球分布式的 GPU,為 AI 的模型訓(xùn)練和推理等提供算力支持。io.net 剛剛完成了 3000 萬(wàn)美元的 A 輪融資,估值達(dá)到了 10 億美元。

io.net 相比 Render、Akash 等,是一個(gè)更加健全、擴(kuò)展性更強(qiáng)的去中心化計(jì)算網(wǎng)絡(luò),接入多個(gè)層面的開(kāi)發(fā)者工具,其特點(diǎn)包括:

  • 聚合更多的算力資源:獨(dú)立數(shù)據(jù)中心、加密礦工以及 Filecoin、Render 等加密項(xiàng)目的 GPU。

  • 核心支持 AI 需求:核心服務(wù)的功能包括批量推理和模型服務(wù)、并行訓(xùn)練、并行超參數(shù)調(diào)整和強(qiáng)化學(xué)習(xí)。

  • 更加健全的技術(shù)棧以支持更高效的云環(huán)境工作流:包括多種編排工具、ML 框架(計(jì)算資源的分配、算法的執(zhí)行以及模型訓(xùn)練和推理等操作)、數(shù)據(jù)存儲(chǔ)解決方案、GPU 監(jiān)控和管理工具等。

  • 并行計(jì)算能力:集成 Ray 這一開(kāi)源的分布式計(jì)算框架,擁抱 Ray 的原生并行性,輕松并行化 Python 函數(shù),從而實(shí)現(xiàn)動(dòng)態(tài)任務(wù)執(zhí)行。其內(nèi)存存儲(chǔ)確保任務(wù)之間的快速數(shù)據(jù)共享,消除序列化延遲。此外,io.net 不僅限于 Python,還集成了 PyTorch 和 TensorFlow 等其他領(lǐng)先的 ML 框架,使其擴(kuò)展性更強(qiáng)。

在價(jià)格上,io.net 官網(wǎng)預(yù)計(jì)其價(jià)格將比中心化云計(jì)算服務(wù)降低約 90%。

此外,io.net 的代幣 IO coin 未來(lái)主要用于生態(tài)內(nèi)服務(wù)的支付和獎(jiǎng)勵(lì),或者需求方也可以用類似 Helium 的模式將 IO coin 燃燒換成穩(wěn)定幣「IOSD 積分」來(lái)進(jìn)行支付。

聲明:文章內(nèi)容不代表本站觀點(diǎn)及立場(chǎng),不構(gòu)成本平臺(tái)任何投資建議。本文內(nèi)容僅供參考,風(fēng)險(xiǎn)自擔(dān)!
Tag:AI   Web3  

你可能感興趣的文章

幣圈快訊

  • 數(shù)據(jù):ParadigmCapital轉(zhuǎn)出價(jià)值841萬(wàn)美元LDO,或?qū)⑦M(jìn)行拋售

    2025-06-10 09:44
    ChainCatcher消息,據(jù)鏈上分析師余燼(@EmberCN)監(jiān)測(cè),ParadigmCapital地址在7小時(shí)前轉(zhuǎn)出1000萬(wàn)枚LDO(約841萬(wàn)美元),分析師預(yù)計(jì)后續(xù)將轉(zhuǎn)入交易所拋售。 據(jù)悉,Paradigm于4年前以0.76美元價(jià)格從Lido國(guó)庫(kù)場(chǎng)外交易購(gòu)買了7000萬(wàn)枚LDO。去年11月,Paradigm已以1.31美元均價(jià)出售5000萬(wàn)枚LDO,獲利2750萬(wàn)美元,此次轉(zhuǎn)出的1000萬(wàn)枚LDO為剩余持倉(cāng)的一半。 或受機(jī)構(gòu)持續(xù)拋售影響,LDO價(jià)格過(guò)去一個(gè)月下跌22%。
  • 英國(guó)破產(chǎn)管理署任命首位專職加密貨幣專家,協(xié)助追回比特幣等資產(chǎn)

    2025-06-10 09:40
    金色財(cái)經(jīng)報(bào)道,據(jù)官方消息,英國(guó)破產(chǎn)管理署已任命首位專職加密貨幣情報(bào)專家,旨在幫助通過(guò)破產(chǎn)案件為英國(guó)經(jīng)濟(jì)追回更多資金。前警察調(diào)查員AndrewSmall將協(xié)助追蹤刑事案件中的數(shù)字資產(chǎn),并為該機(jī)構(gòu)提供有關(guān)加密貨幣市場(chǎng)的詳盡知識(shí)。破產(chǎn)管理署負(fù)責(zé)在破產(chǎn)程序中追蹤和追回屬于破產(chǎn)個(gè)人或清算公司的資金和資產(chǎn)。
  • WillyWoo:Tether盈利能力排名金融業(yè)第五位,未來(lái)還有10倍增長(zhǎng)空間

    2025-06-10 09:24
    ChainCatcher消息,鏈上分析師WillyWoo發(fā)推表示,“2014年Tether成立,解決了當(dāng)時(shí)加密行業(yè)面臨的銀行服務(wù)難題,那時(shí)銀行普遍拒絕為其提供服務(wù)。如今,Tether已躋身全球第5大最賺錢的公司,盈利超過(guò)摩根士丹利和高盛,而員工僅有約100人。它未來(lái)還有至少10倍的增長(zhǎng)空間?!?/div>
  • 分析:Circle收入98%來(lái)自儲(chǔ)備資產(chǎn)收益,面臨大型機(jī)構(gòu)的潛在市場(chǎng)競(jìng)爭(zhēng)

    2025-06-10 09:19
    金色財(cái)經(jīng)報(bào)道,穩(wěn)定幣發(fā)行商Circle在美掛牌上市后,其盈利模式獲得披露,其中顯示該公司去年收入中98%來(lái)自儲(chǔ)備資產(chǎn)的投資收益。通常儲(chǔ)備需要為優(yōu)質(zhì)、短期而流通性高的資產(chǎn),但Circle提供的數(shù)據(jù)顯示其過(guò)去3年儲(chǔ)備資產(chǎn)收益率介乎0.14厘至5.17厘,表明現(xiàn)階段其收入動(dòng)力相當(dāng)側(cè)重短債等資產(chǎn)的息率走勢(shì)。此外,Circle還面臨一項(xiàng)潛在的市場(chǎng)競(jìng)爭(zhēng)風(fēng)險(xiǎn),即:一旦未來(lái)有主權(quán)級(jí)別機(jī)構(gòu)參與穩(wěn)定幣的發(fā)行,可能憑借“零交易對(duì)手風(fēng)險(xiǎn)”優(yōu)勢(shì)迅速取得一定市占率,分析認(rèn)為Circle有必要擴(kuò)闊其加密生態(tài)圈。
  • Strategy比特幣持倉(cāng)市值突破640億美元,續(xù)創(chuàng)新高

    2025-06-10 09:19
    金色財(cái)經(jīng)報(bào)道,據(jù)SaylorTracker,Strategy(原MicroStrategy)的比特幣持倉(cāng)市值突破640億美元,續(xù)創(chuàng)新高。最新數(shù)據(jù)顯示當(dāng)前Strategy比特幣持倉(cāng)量為582000枚,市值約為64,000,156,710美元,截至目前收益率為56.85%,收益額約為231.9億美元。
  • 查看更多