「AI + Web3」 敘事,是真正的技術融合,還是又一次概念包裝?本文源自 TinTinLand 所著文章,由 Foresight News 整理及撰稿。
(前情提要:AI 賽道能否擺脫炒作污名?盤點三個擁抱加密貨幣的 AI Agent 項目 )
(背景補充:灰度報明牌:2025 首季最看好這 20 大加密貨幣,重點關注 DeFi、AI Agents、Solana 生態 )
進入 2025 年,「AI + Web3」 敘事熱度仍然未減。根據 Grayscale 2025 年 5 月釋出的最新報告,AI Crypto 賽道的整體市值已達到 210 億美元,相比 2023 年第一季度的 45 億美元實現了近五倍增長。
這場浪潮背後,是真正的技術融合,還是又一次概念包裝?
從宏觀來看,傳統 AI 生態已經顯露出越來越多結構性問題:模型訓練門檻高、資料隱私無保障、算力高度壟斷、推理過程黑箱化、激勵機制失衡…… 而這些痛點,恰恰與 Web3 的原生優勢高度契合:去中心化、開放市場機制、鏈上可驗證、使用者資料主權等。
AI + Web3 的結合並非只是疊加兩個熱門詞,而是一次結構性的技術互補。讓我們從當前 AI 面臨的幾大核心痛點出發,深入拆解那些在切實解決問題的 Web3 專案,帶你看清 AI Crypto 賽道的價值與方向。
AI 服務訪問門檻過高、成本昂貴
當前 AI 服務通常成本高昂,訓練資源獲取困難,對於中小企業和個人開發者而言門檻極高;此外,這些服務常常技術複雜,需要專業背景才能上手。AI 服務市場高度集中,使用者缺乏多樣選擇,呼叫成本不透明,預算難以預測,甚至面臨算力壟斷的問題。
Web3 的解決方案是通過去中心化的方式打破平臺壁壘,構建開放的 GPU 市場和模型服務網路,支援靈活排程閒置資源,並通過鏈上任務排程和透明的經濟機制,激勵更多參與者貢獻算力與模型,降低整體成本並提升服務的可訪問性。
代表專案
- Render Network:專注去中心化 GPU 渲染,也支援 AI 推理與訓練,採用 「按使用付費」 模式,幫助開發者低成本接入影象生成和 AI 服務。
- Gensyn:構建去中心化的深度學習訓練網路,採用 Proof-of-Compute 機制驗證訓練結果,推動 AI 訓練從平臺集中制轉向開放協作。
- Akash Network:基於區塊鏈技術的去中心化雲端計算平臺,開發者可按需租用 GPU 資源,用於部署和執行 AI 應用,是 「雲端計算的去中心化版本」。
- 0G Labs:去中心化 AI 原生 Layer‑1,通過創新的儲存和計算分離架構,極大降低了鏈上執行 AI 模型的成本和複雜度。
資料貢獻者缺乏激勵
高品質資料是 AI 模型的核心燃料,但傳統模式下,資料貢獻者很難獲得回報。資料來源不透明、重複性強、使用方式缺乏回饋,使得資料生態長期低效運轉。
Web3 提供了全新的解決正規化:通過加密簽名、鏈上確權與可組合的經濟機制,讓資料貢獻者、模型開發者和使用者之間形成清晰的協作和激勵閉環。
代表專案
- OpenLedger:創新提出 「Payable AI」 概念,將資料貢獻、模型呼叫與經濟激勵結合,推動形成 AI 鏈上協作的資料經濟網路。
- Bittensor:採用以 TAO 獎勵、Yuma 共識機制、子網精準激勵、知識協作等為核心的一套完整激勵體系,將資料貢獻與模型執行成果直接掛鉤,提升整體價值貢獻。
- Grass:AI 資料網路,通過外掛收集使用者瀏覽行為資料,貢獻到鏈上搜索引擎訓練中,使用者按資料品質獲得獎勵,打造社群驅動的資料共享機制。
模型黑箱化、AI 推理無法驗證
當前主流 AI 模型的推理過程高度黑箱,使用者無法驗證結果的正確性與可信度,尤其在金融、醫療等高風險領域更是問題突出。此外,模型可能遭受篡改、投毒等攻擊,難以溯源或審計。
為此,Web3 專案正嘗試引入零知識證明(ZK)、全同態加密(FHE)與可信執行環境(TEE),使模型推理過程具備可驗證性、可審計性,提升 AI 系統的可解釋性與信任基礎。
代表專案
- Sentient:通過創新的模型指紋識別技術確保呼叫行為可追蹤,提升模型使用透明度和防篡改能力。
- Modulus Labs:利用 ZK 技術對模型推理過程進行加密驗證,實現 「可信 AI」 新正規化。
- Giza:利用零知識密碼學將機器學習推理計算上鏈,從而提高 AI 模型部署的透明度和信任度。
隱私和安全風險
AI 訓練過程常涉及大量敏感資料,面臨隱私洩露、模型被濫用或攻擊、缺乏決策透明度等風險。同時,資料和模型的所有權界定模糊,進一步加劇安全隱患。
藉助區塊鏈的不可篡改性、加密計算技術(如 ZK、FHE)、可信執行環境等手段,保障 AI 系統的資料與模型在訓練、儲存和呼叫全流程中的安全性與可控性。
代表專案
- Phala Network: 提供可信執行環境(TEE)支援,將關鍵計算封裝於安全硬體中,防止資料洩露與模型被盜用。
ZAMA: 專注於全同態加密(FHE)技術,使模型訓練和推理可以在加密狀態下進行,實現 「用不到明文就能計算」。 - Mind Network: 構建支援隱私保護的去中心化 AI 資料共享與推理平臺,通過前端加密技術(如同態加密、零知識證明等)實現資料安全共享與隱私計算。
- Vana:一個 AI 身份生成應用程式,旨在讓使用者重新獲得對自身資料的所有權和控制權,確保資料的隱私性和安全性。
AI 模型版權和智慧財產權糾紛
當前 AI 模型訓練大量使用網際網路資料,但往往未經授權使用受版權保護的內容,導致法律糾紛頻發。同時,AI 生成內容的版權歸屬不明確,原創者、模型開發者和使用者之間的權益分配缺乏透明機制。模型被惡意複製、盜用的情況也是屢見不鮮,智慧財產權保護困難。
Web3 通過鏈上確權機制,將模型的建立時間、訓練資料來源、貢獻者資訊等進行存證,並使用 NFT、智慧合約等工具標識模型或內容的版權歸屬。
代表專案
- Story Protocol:構建鏈上智慧財產權協議,允許 AI 內容、程式碼、模型等以模組化方式進行確權、組合與授權,實現 「創作即確權,呼叫即付費」 的機制。
- Alethea AI:通過鏈上身份與 NFT 繫結生成型 AI 模型(如角色、聲音等),每個 AI 角色都具備清晰的創作者與版權資訊,避免濫用與剽竊。
去中心化 AI 治理缺失
當前 AI 模型的開發與演化高度依賴大型科技公司或封閉團隊,模型更新節奏不透明、價值偏向難以糾正,易導致演算法偏見、濫用和 「技術封建化」 趨勢。社群和使用者通常無法干預模型的更新路徑、引數調整或行為邊界,缺乏機制對 AI 系統進行有效監督與糾偏。
Web3 的優勢在於可程式設計治理與開放協作機制。藉助鏈上治理、DAO 機制與激勵結構,AI 模型的設計、訓練目標、引數更新等關鍵環節可以逐步引入社群共識,提升模型開發的民主性、透明性與多樣性。
代表專案
- Fetch.ai:引入自治經濟代理(AEA)與開放治理機制,讓 AI agent 的行為可被社群規則制約,並通過經濟激勵協調 agent 之間的合作。
- SingularityNET:將 AI 服務封裝成可組合的鏈上模組,使用者可以在開放市場中選擇或替代模型,且平臺治理機制支援對模型品質與服務進行共識評估與改進提案。
跨鏈 AI 協作問題
在多鏈環境中,AI agent 與模型可能分佈於不同區塊鏈上,難以統一狀態、上下文或呼叫邏輯,導致使用者體驗割裂、開發複雜、資料難以同步。
部分專案正圍繞 「多鏈 AI 協議」 展開探索,嘗試通過共享上下文、跨鏈通訊與狀態同步機制,推動 AI agent 跨鏈執行的連續性與一致性。
代表專案
- OpenPond:採用 MCP 跨鏈協議連線不同鏈上的 AI 模型與 agent,實現呼叫狀態的同步與上下文共享,簡化多鏈協作場景。
- Lava Network:提供跨鏈 RPC 和資料橋服務,為多鏈 AI 系統打通底層通訊通道,支援 agent 資料同步與統一任務執行。
- Virtuals Protocol:通過 ACP(Agent Commerce Protocol)智慧協作協議,支援跨 agent 請求、協商、執行和結算過程。其 「Parallel Hypersynchronicity」 並行同步技術使 AI agent 可跨平臺並行執行、即時同步行為與記憶。
結語
AI Crypto 的興起並非空談,而是一次自底向上的系統重構:它打破了大模型時代的中心化桎梏,在算力、資料、激勵、安全、治理等維度,逐步構建起一個人人可參與、透明可信、協作驅動的 AI 新正規化。
目前這個領域已經從概念階段進入了實質性的產品落地期。相信那些能夠真正創造實際價值、解決核心痛點的 AI Crypto 專案,必將有機會引領下一個 AI 時代發展浪潮,推動人工智慧技術向更加開放、公平、可信的方向發展。
📍相關報導📍
Coinbase 執行長:2030 年全球 10% GDP 將基於加密貨幣「Onchain 就是新 Online」