欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

當(dāng)前位置:主頁 > 區(qū)塊鏈 > 區(qū)塊鏈技術(shù) > AI+Crypto優(yōu)勢介紹

盤點AI+Crypto的8大真正優(yōu)勢和4個設(shè)想

2025-04-23 16:47:26 | 來源: | 作者:佚名
AI+ Crypto 是近期加密貨幣市場備受矚目的前沿領(lǐng)域之一,比如去中心化 AI 訓(xùn)練、GPU DePINs 以及抗審查的 AI 模型等,在這些令人眼花繚亂的進展背后,我們不禁要問:這究竟是真正的科技突破還是只是在蹭熱點

盤點AI+Crypto的8大真正優(yōu)勢和4個設(shè)想!AI+ Crypto 是近期加密貨幣市場備受矚目的前沿領(lǐng)域之一,比如去中心化 AI 訓(xùn)練、GPU DePINs 以及抗審查的 AI 模型等。在這些令人眼花繚亂的進展背后,我們不禁要問:這究竟是真正的科技突破還是只是在蹭熱點?本篇文章將為你撥開迷霧,剖析加密 x AI 設(shè)想和討論其中真正的挑戰(zhàn)和機遇,并揭示哪些是空洞的承諾,哪些又切實可行?那么AI+Crypto有什么優(yōu)勢呢?下面一起和腳本之家小編看看吧!

AI+Crypto 四個設(shè)想

設(shè)想#1:去中心化 AI 訓(xùn)練

鏈上 AI 訓(xùn)練的問題在于需要 GPU 間的高速通信和協(xié)調(diào),因為神經(jīng)網(wǎng)絡(luò)在訓(xùn)練時需要反向傳播。 Nvidia 為此有兩項創(chuàng)新(NVLink 和 InfiniBand)。這些技術(shù)使 GPU 通信變得超快,但它們僅限本地技術(shù),僅適用于位于單個數(shù)據(jù)中心內(nèi)的 GPU 集群(50+ 千兆位速度)。

如果引入去中心化網(wǎng)絡(luò),由于網(wǎng)絡(luò)延遲和帶寬增加,速度會突然變慢幾個數(shù)量級。與從數(shù)據(jù)中心內(nèi)的 Nvidia 高速互連獲得的吞吐量相比,這種速度對于 AI 訓(xùn)練用例來說是不可能的。

請注意,以下也有創(chuàng)新可能會給未來帶來希望:

  • InfiniBand 上正大規(guī)模分布式訓(xùn)練,因為 NVIDIA 本身正在通過 NVIDIA Collective Communications Library 支持 InfiniBand 上的分布式非本地訓(xùn)練。然而,它仍處于新生階段,因此采用指標(biāo)尚待確定。距離上的物理定律瓶頸仍然存在,因此 InfiniBand 上的本地訓(xùn)練仍然要快得多。
  • 已經(jīng)發(fā)表的一些關(guān)于去中心化訓(xùn)練的新研究,這些研究通信同步時間變少,可能會使去中心化訓(xùn)練在未來更加實用。
  • 模型訓(xùn)練的智能分片和調(diào)度有助于提高性能。 同樣,新的模型架構(gòu)可能是為未來的分布式基礎(chǔ)設(shè)施專門設(shè)計的(Gensyn 正在這些領(lǐng)域進行研究)。

訓(xùn)練的數(shù)據(jù)部分也具有挑戰(zhàn)性。任何 AI 訓(xùn)練過程都涉及處理大量數(shù)據(jù)。通常,模型在具有高可擴展性和性能的中心化安全數(shù)據(jù)存儲系統(tǒng)上進行訓(xùn)練。這需要傳輸和處理數(shù) TB 的數(shù)據(jù),并且這不是一次性周期。數(shù)據(jù)通常充滿噪音并且包含錯誤,因此在訓(xùn)練模型之前必須對其進行清理,并轉(zhuǎn)換為可用的格式。此階段涉及標(biāo)準(zhǔn)化、過濾和處理缺失值的重復(fù)任務(wù)。這些都在去中心化環(huán)境中面臨嚴(yán)峻挑戰(zhàn)。

訓(xùn)練的數(shù)據(jù)部分也是迭代的,這與 Web3 并不兼容。OpenAI 經(jīng)歷了數(shù)千次迭代才取得了其成果。在 AI 團隊中,數(shù)據(jù)科學(xué)家最基本的任務(wù)場景包括定義目標(biāo)、準(zhǔn)備數(shù)據(jù)、分析和整理數(shù)據(jù)以提取重要見解,并使其適合建模。然后,開發(fā)機器學(xué)習(xí)模型來解決定義的問題,并使用測試數(shù)據(jù)集驗證其性能。這個過程是迭代的:如果當(dāng)前模型表現(xiàn)不如預(yù)期,專家會返回到數(shù)據(jù)收集或模型訓(xùn)練階段以改進結(jié)果。想象一下,這個過程如果在去中心化環(huán)境中進行,最先進的現(xiàn)有框架和工具在 Web3 中適配就變得不容易了。

另一個在鏈上訓(xùn)練 AI 模型的問題是,相較于推理,這個市場要無趣得多。目前,AI 大型語言模型的訓(xùn)練需要大量的 GPU 計算資源。從長遠(yuǎn)來看,推理將成為 GPU 的主要應(yīng)用場景。試想為了滿足全球需求,需要訓(xùn)練多少個 AI 大型語言模型,與使用這些模型的客戶數(shù)量相比,哪個又更多?

設(shè)想#2:使用過度冗余的 AI 推理計算來達(dá)成共識

關(guān)于加密與 AI 的另一個挑戰(zhàn)是驗證 AI 推理的準(zhǔn)確性,因為你無法完全信任單一的中心化方來執(zhí)行推理操作,節(jié)點存在可能出現(xiàn)不當(dāng)行為的潛在風(fēng)險。這種挑戰(zhàn)在 Web2 AI 中不存在,因為沒有去中心化共識系統(tǒng)。

解決方案是冗余計算,讓多個節(jié)點重復(fù)同樣的 AI 推理操作,這樣可以在無需信任的環(huán)境中運行,避免單點故障。

然而這種方法的問題在于,高端 AI 芯片極度短缺。高端 NVIDIA 芯片的等待時間長達(dá)數(shù)年導(dǎo)致價格上漲。如果你要求 AI 推理在多個節(jié)點上多次重新執(zhí)行,那么就會成倍增加高昂成本,這對許多項目來說是不可行的。

設(shè)想#3:近期特定于 Web3 的 AI 用例

有人建議 Web3 應(yīng)該有自己獨特的、專門針對 Web3 客戶的 AI 用例。這可以是(例如)使用 AI 對 DeFi 池進行風(fēng)險評分的 Web3 協(xié)議、根據(jù)錢包歷史記錄為用戶建議新協(xié)議的 Web3 錢包,或者使用 AI 控制非玩家角色的 Web3 游戲( NPC)。

目前來看,這是一個初創(chuàng)市場(在短期內(nèi)),其中使用案例仍在探索階段。一些挑戰(zhàn)包括:

  • 由于市場需求仍處于起步階段,Web3 原生用例所需的潛在 AI 交易較少。
  • 客戶較少,與 Web2 客戶相比,Web3 客戶少了幾個數(shù)量級,因此市場的去中心化程度較低。
  • 客戶本身不太穩(wěn)定,因為他們是資金較少的初創(chuàng)公司,一些初創(chuàng)公司可能會隨著時間的推移而消亡。而滿足 Web3 客戶的 Web3 AI 服務(wù)提供商可能需要重新獲得部分客戶群,以取代那些已經(jīng)消失的客戶群,這使得擴展業(yè)務(wù)變得極具挑戰(zhàn)性。

長遠(yuǎn)來看,我們非??春?Web3 原生的 AI 用例,特別是隨著 AI 代理變得更加普遍。我們想象未來任何特定的 Web3 用戶都會有大量的 AI 代理,來幫助自己完成任務(wù)。

設(shè)想#4:消費級 GPU DePIN

有許多依賴消費級 GPU 而不是數(shù)據(jù)中心的去中心化 AI 計算網(wǎng)絡(luò)。消費類 GPU 非常適合低端 AI 推理任務(wù)或延遲、吞吐量和可靠性靈活的消費用例。但對于嚴(yán)肅的企業(yè)用例(這是重要的市場的大多數(shù)),與家用機器相比,客戶需要更高可靠性的網(wǎng)絡(luò),并且如果他們有更復(fù)雜的推理任務(wù),通常需要更高端的 GPU。數(shù)據(jù)中心更適合這些更有價值的客戶用例。

請注意,我們認(rèn)為消費級 GPU 適用于演示,以及能夠容忍較低可靠性的個人和初創(chuàng)企業(yè)。但這些客戶價值較低,因此我們認(rèn)為專為 Web2 企業(yè)定制的 DePINs,長期來看將更有價值。因此,GPU DePIN 項目已經(jīng)從早期主要使用消費級硬件,發(fā)展為具備 A100/H100 和集群級可用性的情況。

現(xiàn)實——加密貨幣 x AI 的實際用例

現(xiàn)在我們討論能提供真正好處的用例。這些才是真正的勝利,加密貨幣 x AI 可以增加明顯的價值。

AI+Crypto 8個真正優(yōu)勢

真正好處#1:為 Web2 客戶提供服務(wù)

麥肯錫估計,在分析的 63 個用例中,生成式 AI 每年可以增加相當(dāng)于 2.6 萬億至 4.4 萬億美元的收入——相比之下,英國 2021 年 GDP 總額為 3.1 萬億美元。這將使 AI 的影響力增加 15% 至 40%。如果我們將生成式 AI 嵌入到目前用于用例之外的其他任務(wù)軟件中的影響考慮在內(nèi),估計影響力大約會增加一倍。

如果你根據(jù)上述估計進行計算,這意味著全球 AI(超越生成 AI)的總市場價值可能達(dá)到數(shù)十萬億美元。相比之下,今天所有加密貨幣(包括比特幣和所有山寨幣)的總價值僅為 2.7 萬億美元左右。因此,讓我們面對現(xiàn)實吧:短期內(nèi)需要 AI 的絕大多數(shù)客戶將是 Web2 客戶,因為真正需要 AI 的 Web3 客戶將只占這 2.7 萬億美元的一小部分(考慮到 BTC 是這個市場,比特幣本身不需要 / 使用 AI)。

Web3 AI 用例才剛剛開始,目前還不清楚該市場規(guī)模有多大。但有一點是肯定的——可預(yù)見的未來,它僅占 Web2 市場中的一小部分。我們相信 Web3 AI 仍然有光明未來,但這僅僅意味著 Web3 AI 目前最強大的應(yīng)用是服務(wù) Web2 客戶。

假設(shè)可以從 Web3 AI 中受益的 Web2 客戶示例包括:

  • 從頭開始構(gòu)建以 AI 為中心的垂直特定軟件公司(例如 Cedar.ai 或 Observe.ai)
  • 為了自己目的而微調(diào)模型的大型企業(yè)(例如 Netflix)
  • 快速增長的 AI 提供商(例如 Anthropic)
  • 將 AI 融入現(xiàn)有產(chǎn)品的軟件公司(例如 Canva)

這是相對穩(wěn)定的客戶角色,因為客戶通常規(guī)模大且有價值。他們不太可能很快倒閉,而且他們代表了 AI 服務(wù)的巨大潛在客戶。為 Web2 客戶提供服務(wù)的 Web3 AI 服務(wù)將受益于這些穩(wěn)定的客戶群。

但為什么 Web2 客戶想要使用 Web3 堆棧呢?這篇文章的接下來部分闡述了這種情況。

真正好處#2:通過 GPU DePIN 降低 GPU 使用成本

GPU DePIN 聚合了未充分利用的 GPU 計算能力(其中最可靠的來自數(shù)據(jù)中心),并使其可用于 AI 推理。類比該問題的簡單方法是「GPU 中的 Airbnb」。

我們對 GPU DePIN 感到興奮的原因是,如上所述,NVIDIA 芯片短缺,而且目前有浪費的 GPU 周期可用于 AI 推理。這些硬件所有者付出沉沒成本,并且目前沒有充分利用設(shè)備,因此與現(xiàn)狀相比,可以以低得多的成本提供這些部分 GPU ,因為這實際上為硬件所有者「找到了錢」。

示例包括:

  • AWS 機器。如果你今天要從 AWS 租用 H100,則必須承諾為期 1 年的租賃,因為市場供應(yīng)有限。這會產(chǎn)生浪費,因為你可能不會每年 365 天、每周 7 天都使用 GPU。
  • Filecoin 挖礦硬件。 Filecoin 有大量補貼供應(yīng)但沒有大量實際需求。Filecoin 從未找到真正產(chǎn)品市場契合點,因此 Filecoin 礦工面臨倒閉的風(fēng)險。這些機器配備 GPU,可以重新用于低端 AI 推理任務(wù)。
  • ETH 挖礦硬件。當(dāng)以太坊從 PoW 過渡到 PoS 時,這就快速釋放了大量硬件,可以重新用于 AI 推斷。

注意,并非所有 GPU 硬件都適合 AI 推理。造成這種情況的一個明顯原因是,較舊的 GPU 沒有 LLMs 所需的 GPU 內(nèi)存量,盡管已經(jīng)有一些有趣的創(chuàng)新可以在這方面提供幫助。例如,Exabits 的技術(shù)可以將活動神經(jīng)元加載到 GPU 內(nèi)存中,將不活動神經(jīng)元加載到 CPU 內(nèi)存中。他們預(yù)測哪些神經(jīng)元需要活躍 / 不活躍。這使得低端 GPU 能夠處理 AI 工作負(fù)載,即使 GPU 內(nèi)存有限。這有效地使低端 GPU 對于 AI 推理更加有用。

Web3 AI DePINs 需隨著時間的推移發(fā)展其產(chǎn)品,并提供企業(yè)級服務(wù),例如單點登錄、SOC 2 合規(guī)性、服務(wù)級協(xié)議(SLA)等。這類似于當(dāng)前云服務(wù)提供商為 Web2 客戶提供的服務(wù)。

真正好處#3:抗審查的模型以避免 OpenAI 自我審查

關(guān)于 AI 審查制度的討論很多。例如土耳其暫時禁止了 OpenAI(后來 OpenAI 提高了合規(guī)性,他們就改變了做法)。我們認(rèn)為國家級的審查制度是無趣的,因為各國需要采用 AI 來保持競爭力。

OpenAI 也會進行自我審查。例如,OpenAI 不會處理 NSFW 內(nèi)容。 OpenAI 也不會預(yù)測下一次總統(tǒng)選舉。我們認(rèn)為 AI 用例不僅有趣,而且市場巨大,但 OpenAI 出于政治原因不會觸及該市場。

開源是個很好的解決方案,因為 Github 存儲庫不受股東或董事會的影響。 Venice.ai 就是一例,它承諾保護隱私并以抗審查的方式運營。 Web3 AI 可以有效地提升其水平,即在成本較低的 GPU 集群上為這些開源軟件 (OSS) 模型提供支持,以執(zhí)行推理。正是由于這些原因,我們相信 OSS + Web3 為抗審查的 AI 鋪平道路的理想組合。

真正好處#4:避免向 OpenAI 發(fā)送個人身份信息

大型企業(yè)對其內(nèi)部數(shù)據(jù)存在隱私擔(dān)憂。對于這些客戶來說,信任 OpenAI 第三方擁有這些數(shù)據(jù)可能很難。

Web3 中,對這些企業(yè)來說,他們的內(nèi)部數(shù)據(jù)突然出現(xiàn)在去中心化網(wǎng)絡(luò)上,可能看起來更加令人擔(dān)憂(表面上)。然而,針對 AI 的隱私增強技術(shù)中存在創(chuàng)新:

可信執(zhí)行環(huán)境(TEE),例如 Super Protocol

全同態(tài)加密 (FHE),例如 Fhenix.io(Hack VC 管理的基金的投資組合公司)或 Inco Network(均由 Zama.ai 提供支持),以及 Bagel 的 PPML

這些技術(shù)仍在不斷發(fā)展,并且通過即將推出的零知識 (ZK) 和 FHE ASIC,性能仍在不斷提高。但長期目標(biāo)是在微調(diào)模型時保護企業(yè)數(shù)據(jù)。隨著這些協(xié)議的出現(xiàn),Web3 可能會成為隱私保護 AI 計算更具吸引力的場所。

真正好處#5:利用開源模型的最新創(chuàng)新

過去幾十年來,開源軟件一直在蠶食專有軟件的市場份額。我們將 LLM 視為某種專有軟件形式,足以破壞 OSS。值得注意的挑戰(zhàn)者例子包括 Llama、RWKV 和 Mistral.ai。隨著時間的推移,這個列表無疑會不斷增長(更全面的列表可以在 Openrouter.ai 上找到)。通過利用 Web3 AI(由 OSS 模型提供支持),人們可以利用這些新的創(chuàng)新來創(chuàng)新。

我們相信,隨著時間的推移,開源的全球開發(fā)隊伍與加密貨幣激勵措施相結(jié)合,可以推動開源模型以及建立在其之上的代理和框架的快速創(chuàng)新。 AI 代理協(xié)議的一個例子是 Theoriq。 Theoriq 利用 OSS 模型創(chuàng)建一個可組合的 AI 代理互連網(wǎng)絡(luò),可以將其組裝起來創(chuàng)建更高級別的 AI 解決方案。

我們之所以對此充滿信心,是因為過去,隨著時間的推移,大多數(shù)「開發(fā)者軟件」的創(chuàng)新慢慢被 OSS 超越。微軟曾經(jīng)是一家專有軟件公司,現(xiàn)在他們是為 Github 做出貢獻的排名第一的公司。這是有原因的,如果你看看 Databricks、PostGresSQL、MongoDB 和其他公司如何顛覆專有數(shù)據(jù)庫,那就是 OSS 顛覆整個行業(yè)的一個例子,所以這里的先例非常有說服力。

然而,這其中也有一個問題。開源大型語言模型(OSS LLMs)的一個棘手之處在于,OpenAI 已經(jīng)開始與一些組織簽訂付費數(shù)據(jù)許可協(xié)議。如果這一趨勢繼續(xù)下去,開源大型語言模型可能會因為獲取數(shù)據(jù)的財務(wù)障礙而更難以競爭。Nvidia 可能會進一步加強對保密計算的投入,以作為安全數(shù)據(jù)共享的助力。時間將揭示這一切的發(fā)展。

真正好處#6:通過高削減成本的隨機抽樣或通過 ZK 證明達(dá)成共識

Web3 AI 推理的挑戰(zhàn)之一是驗證。假設(shè)驗證者有機會欺騙他們的結(jié)果來賺取費用,因此驗證推論是一項重要措施。請注意,這種作弊行為實際上尚未發(fā)生,因為 AI 推理還處于起步階段,但除非采取措施抑制這種行為,否則這是不可避免的。

標(biāo)準(zhǔn)的 Web3 方法是讓多個驗證器重復(fù)相同的操作并比較結(jié)果。如前所述,這一問題面臨的突出挑戰(zhàn)是,由于目前高端 Nvidia 芯片的短缺,AI 推理的成本非常昂貴。鑒于 Web3 可以通過未充分利用的 GPU DePIN 提供更低成本的推理,冗余計算將嚴(yán)重削弱 Web3 的價值主張。

更有前途的解決方案是為鏈下 AI 推理計算執(zhí)行 ZK 證明。在這種情況下,可以驗證簡潔的 ZK 證明,以確定模型是否經(jīng)過正確訓(xùn)練,或者推理是否正確運行(稱為 zkML)。例子包括 Modulus Labs 和 ZKonduit。由于 ZK 操作是計算密集型的,因此這些解決方案的性能仍處于初級階段。不過,我們預(yù)計隨著 ZK 硬件 ASIC 在不久的將來發(fā)布,情況會得到改善。

更有希望的是一種,有點「Optimistic」基于采樣的 AI 推理方法設(shè)想。在這個模型中,只需驗證驗證者生成結(jié)果的一小部分即可,但將大幅削減的經(jīng)濟成本設(shè)置得足夠高,這樣如果被發(fā)現(xiàn),就會對驗證者的作弊產(chǎn)生強大的經(jīng)濟抑制作用。通過這種方式,你可以節(jié)省冗余計算。

另一個有前途的設(shè)想是水印和指 紋解決方案,例如 Bagel Network 提出的解決方案。這類似于 Amazon Alexa 為其數(shù)百萬臺設(shè)備提供設(shè)備內(nèi) AI 模型質(zhì)量保證的機制。

真正好處#7:通過 OSS 節(jié)省費用(OpenAI 的利潤)

Web3 為 AI 帶來的下一個機會是成本民主化。到目前為止,我們已經(jīng)討論了通過 DePIN 節(jié)省 GPU 成本。但 Web3 還提供了節(jié)省中心化 Web2 AI 服務(wù)利潤率的機會(例如 OpenAI,截至撰寫本文時,其年收入超過 10 億美元)。這些成本節(jié)省來自于這樣一個事實:使用 OSS 模型而不是專有模型來實現(xiàn)額外的節(jié)省,因為模型創(chuàng)建者并不試圖盈利。

許多 OSS 模型將保持完全免費,從而為客戶帶來最佳的經(jīng)濟效益。但可能也有些 OSS 模型也在嘗試這些貨幣化方法。考慮一下 Hugging Face 上所有模型中只有 4% 是由有預(yù)算來幫助補貼模型的公司訓(xùn)練的。其余 96% 的模型由社區(qū)訓(xùn)練。這個群體(96% 的 Hugging Face)具有基本的實際成本(包括計算成本和數(shù)據(jù)成本)。因此,這些模型將需要以某種方式貨幣化。

有一些提議可以實現(xiàn)開源軟件模型的貨幣化。其中最有趣的之一是「初始模型發(fā)行」的概念,即將模型本身進行代幣化,保留一部分代幣給團隊,將模型未來的一些收入流向代幣持有者,盡管在這方面肯定存在一些法律和監(jiān)管障礙。

其他 OSS 模型將嘗試通過使用來貨幣化。請注意,如果這成為現(xiàn)實,OSS 模型可能會開始越來越類似于其 Web2 盈利模型。但實際上,市場將分為兩部分,一些模型仍然完全免費。

真正好處#8:去中心化的數(shù)據(jù)源

AI 面臨的最大挑戰(zhàn)之一是尋找正確的數(shù)據(jù)來訓(xùn)練模型。我們之前提到去中心化 AI 訓(xùn)練有其挑戰(zhàn)。但是使用去中心化網(wǎng)絡(luò)來獲取數(shù)據(jù)怎么樣(然后可以將其用于其他地方的訓(xùn)練,甚至在傳統(tǒng)的 Web2 場所)?

這正是像 Grass 這樣的初創(chuàng)公司正在做的事情。 Grass 是一個由「數(shù)據(jù) 抓取者」組成的去中心化網(wǎng)絡(luò),這些人將機器的閑置處理能力貢獻給數(shù)據(jù)源,為 AI 模型的訓(xùn)練提供信息。假設(shè),從規(guī)模上看,由于大型激勵節(jié)點網(wǎng)絡(luò)的強大力量,這種數(shù)據(jù)源可以優(yōu)于任何一家公司的內(nèi)部數(shù)據(jù)源工作。這不僅包括獲取更多數(shù)據(jù),還包括更頻繁地獲取數(shù)據(jù),以使數(shù)據(jù)更加相關(guān)和最新。事實上,阻止去中心化的數(shù)據(jù) 抓取大軍也是不可能的,因為它們本質(zhì)上是去中心化的,并且不駐留在單個 IP 地址內(nèi)。他們還有個可以清理和標(biāo)準(zhǔn)化數(shù)據(jù)的網(wǎng)絡(luò),以便數(shù)據(jù)在被抓取后有用。

獲得數(shù)據(jù)后,你還需要位置將其存儲在鏈上,以及使用該數(shù)據(jù)生成的 LLMs。

注意,未來數(shù)據(jù)在 Web3 AI 中的作用可能會發(fā)生變化。如今,LLMs 的現(xiàn)狀是使用數(shù)據(jù)預(yù)訓(xùn)練模型,并隨著時間的推移使用更多數(shù)據(jù)對其進行完善。 然而,由于互聯(lián)網(wǎng)上的數(shù)據(jù)是實時變化的,這些模型總是有點過時。 因此,LLM 推斷的響應(yīng)稍微不準(zhǔn)確。

未來的發(fā)展方向可能是一種新范式——「實時」數(shù)據(jù)。這個概念是,當(dāng)一個大型語言模型(LLM)被問到推理問題時,LLM 可以通過提示傳輸并注入數(shù)據(jù),而這些數(shù)據(jù)是實時從互聯(lián)網(wǎng)重收集的。這樣,LLM 可以使用最新的數(shù)據(jù)。Grass 就在研究這部分內(nèi)容。

特別致謝以下人士對本文的反饋和幫助:Albert Castellana、 Jasper Zhang、Vassilis Tziokas、 Bidhan Roy、Rezo, Vincent Weisser、Shashank Yadav、Ali Husain、Nukri Basharuli、Emad Mostaque、David Minarsch、Tommy Shaughnessy、Michael Heinrich、Keccak Wong、 Marc Weinstein、 Phillip Bonello、Jeff Amico、Ejaaz Ahamadeen、Evan Feng、 JW Wang。

以上就是腳本之家小編給大家分享的AI+Crypto的8個優(yōu)勢和4個設(shè)想,希望此篇文章能夠幫助大家更好的了解AI+Crypto!

聲明:文章內(nèi)容不代表本站觀點及立場,不構(gòu)成本平臺任何投資建議。本文內(nèi)容僅供參考,風(fēng)險自擔(dān)!
Tag:優(yōu)勢   Crypto   AI  

你可能感興趣的文章

幣圈快訊

  • 數(shù)據(jù):“兩次ETH波段盈利3045萬美元的巨鯨”再度買入1000萬美元的ETH

    2025-06-14 09:01
    ChainCatcher消息,據(jù)余燼監(jiān)測,此前“通過兩次ETH波段盈利3045萬美元的巨鯨”約一小時前再花費1000萬USDC購進3,875枚ETH。 該巨鯨/機構(gòu)在最近3天時間里,已累計花費1.86億USDC買進了70,465枚ETH,均價在2,647.7美元。目前其仍持有1.5億USDC。
  • 某鯨魚地址斥資4042萬美元買入HYPE和FARTCOIN

    2025-06-14 08:57
    金色財經(jīng)報道,據(jù)OnchainLens監(jiān)測,某鯨魚地址花費4042萬USDC買入HYPE和FARTCOIN,其中:·HYPE買入715,917枚,均價41.16美元,總花費2947萬美元·FARTCOIN買入960.5萬枚,均價1.15美元,總花費878萬美元該鯨魚地址一度也買入了SOL、BTC和ETH,此后割肉賣出以換倉HYPE和FARTCOIN,但造成了217萬美元的損失。
  • 伊朗將打擊任何試圖保衛(wèi)以色列的國家的軍事基地

    2025-06-14 08:52
    金色財經(jīng)報道,一名伊朗高級官員告訴CNN,伊朗將打擊任何試圖保衛(wèi)以色列的國家的軍事基地。這位官員表示:“根據(jù)國際法,伊朗保留對該政權(quán)作出果斷回應(yīng)的權(quán)利?!薄叭魏卧噲D保護以色列政權(quán)不受伊朗行動影響的國家,反過來也會看到其地區(qū)基地和陣地成為新的目標(biāo)?!?金十)
  • HashKeyGlobal:HSK價格突破0.3245美元,24小時漲幅20.05%

    2025-06-14 08:47
    ChainCatcher消息,據(jù)HashKeyGlobal行情顯示,HSK價格突破0.3245美元,24小時漲幅20.05%。HashKeyGlobal是HashKeyGroup旗下的全球化旗艦虛擬資產(chǎn)交易所,面向全球用戶提供持牌的虛擬資產(chǎn)交易服務(wù)。HashKeyGlobal已獲得百慕大金融管理局(BMA)頒發(fā)的數(shù)字資產(chǎn)投資者保護制度全面許可牌照,提供LaunchPool、合約、杠桿等主流交易和服務(wù)產(chǎn)品。
  • 伊朗媒體公布被擊落的以色列F-35戰(zhàn)機殘骸照片

    2025-06-14 08:42
    金色財經(jīng)報道,伊朗塔斯尼姆通訊社14日在社交媒體公布一架被伊朗擊落的以色列F-35戰(zhàn)機殘骸照片。照片于夜間拍攝。照片中,戰(zhàn)機殘骸仍在燃燒,機上印有以色列空軍標(biāo)志。據(jù)伊朗媒體13日晚報道,伊朗防空系統(tǒng)當(dāng)天擊落兩架以色列F-35戰(zhàn)機,并俘獲一名飛行員。以色列官方尚未證實其F-35戰(zhàn)機被伊朗擊落。(新華社)
  • 查看更多