全面對比Crypto x AI賽道六大頭部基建項目 誰能力拔頭籌?
2024-12-11 09:16 Meteorite Labs
來源:Meteorite Labs
近一年來,AI 敘事在 Crypto 市場發展火熱,a16z、紅杉、Lightspeed、Polychain 等領先的 VC 大筆一揮,千萬美元下注。許多科研背景、名校背景的高素質團隊也進入了 Web3,向着去中心化 AI 的方向邁進。未來 12 個月內,我們將見證這些優質項目逐漸落地。
今年 10 月,OpenAI 再次融資 66 億美元,AI 賽道的軍備競賽來到了一個史無前例的高度。散戶投資者很少有機會在直接投資英偉達和硬件以外賺錢,這股熱情勢必會持續蔓延到 Crypto 中,特別是近期由 AI Meme 帶動的全民抓狗潮。可以預見的是,Crypto x AI,不論是現有上市代幣,還是新晉明星項目,勢頭仍會強勁。
隨着去中心化 AI 頭部項目 Hyperbolic 近日獲得 Polychain 和 Lightspeed 的二次加碼,我們從近期獲得頭部機構大額融資的 6 個項目出發,梳理 Crypto x AI 基建項目的發展脈絡,展望去中心化技術可以如何爲人類在 AI 的未來保駕護航。
Hyperbolic:近日宣布完成由 Variant 和 Polychain 共同領投的 1200 萬美元 A 輪融資,總融資額超過 2000 萬美元,Bankless Ventures、Chapter One、Lightspeed Faction、IOSG、Blockchain Builders Fund、Alumni Ventures、Samsung Next 等知名 VC 參投。
PIN AI:完成 1000 萬美元 pre-seed 輪融資,a16z CSX、Hack VC、Blockchain Builders Fund(斯坦福區塊鏈加速器)等一衆知名 VC 投資。
Vana:完成 1800 萬美元的 A 輪融資和 500 萬美元的战略融資,Paradigm、Polychain、Coinbase 等知名 VC 投資。
Sahara:完成 4300 萬美元 A 輪融資,Binance Labs、Pantera Capital、Polychain 等知名 VC 投資。
Aethir:2023 年以 1.5 億美元估值完成 900 萬美元的 Pre-A 輪融資,並在 2024 年完成約 1.2 億美元的節點銷售。
IO.NET:完成 3000 萬美元的 A 輪融資,Hack VC、Delphi Digital、Foresight Ventures 等知名 VC 投資。
AI 的三要素:數據、算力和算法
馬克思在《資本論》中告訴我們,生產資料、生產力和生產關系是社會生產中的關鍵要素。如果我們做一次類比,就會發現在人工智能世界中,也有這樣的關鍵三要素。
在 AI 時代,算力、數據和算法是關鍵。
在 AI 中,數據即生產資料。例如,你每天在手機上打字聊天、拍照發朋友圈,這些文字和圖片都是數據,它們就像是 AI 的“食材”,是 AI 得以運作的基礎。
這些數據包括從結構化的數值信息到非結構化的圖像、音頻、視頻和文本等多種形式。沒有數據,AI 算法就無法學習和優化。數據的質量、數量、覆蓋面和多樣性直接影響到 AI 模型的表現,決定了它能否有能效地完成特定任務。
在 AI 中,算力即生產力。算力是執行 AI 算法所需的底層計算資源。算力越強,處理數據的速度就越快、效果就越好。算力的強弱直接決定了 AI 系統的效率和能力。
強大的算力不僅能夠縮短模型的訓練時間,還可以支持更復雜的模型架構,從而提升 AI 的智能水平。像 OpenAI 的 ChatGPT 這樣的大語言模型,需要數月時間在強大的計算集群上進行訓練。
在 AI 中,算法即生產關系。算法是 AI 的核心,其設計決定了數據和算力怎樣協同工作,是將數據轉化爲智能決策的關鍵。在強大算力的支持下,算法能夠更好地學習數據中的模式,並應用於實際問題中。
如此看來,數據就相當於 AI 的燃料,算力是 AI 的引擎,而算法則是 AI 的靈魂。 AI=數據+算力+算法,任何想要在 AI 賽道中脫穎而出的創業公司,這三要素必須齊全,或者在其中一項中展現出獨特的領先優勢。
隨着 AI 正在向多模態(模型基於多種信息形式,能夠同時處理文本、圖像和音頻等)發展,對算力和數據的需求只會呈指數級增長。
算力稀缺時代,Crypto 賦能 AI
ChatGPT 的橫空出世,不僅掀起了一場人工智能的革命,也無意中將算力和算力硬件推向了科技熱搜的風口浪尖。
歷經 2023 年的“千模大战”,2024 年,隨着市場對於 AI 大模型認知的不斷加深,圍繞大模型的全球競爭正在被劃分爲“能力提升”與“場景开發”兩條路。
在大模型能力提升方面,市場最大的期待莫過於被傳 OpenAI 將於今年發布的 GPT-5,翹首以盼其大模型被推到一個真正多模態的階段。
在大模型場景开發方面,AI 巨頭們都在推進大模型更快融入行業場景,產生應用落地價值。例如,AI Agent、AI 搜索等領域的嘗試,都是在不斷深化大模型對現有用戶體驗的提升。
這兩條路背後,無疑都對算力提出了更高的需求。大模型能力提升以訓練爲主,需要短時間內調用龐大的高性能算力;大模型場景應用則以推理爲主,對算力的性能要求相對不算高,但更注重穩定性和低延時。
正如 OpenAI 曾在 2018 年做過的估算,自 2012 年以來,訓練大模型的算力需求每 3.5 個月會翻一番,每年所需算力增幅高達 10 倍。同時隨着大模型及應用越來越多地部署到企業實際業務場景中,推理算力需求也水漲船高。
問題來了,全球範圍內對高性能 GPU 的需求正在迅速增長,而供給卻未能跟上。以英偉達的 H100 芯片爲例,在 2023 年經歷了嚴重的供應短缺問題,其供給缺口超過 43 萬顆。即將推出的性能提高 2.5 倍、成本僅增加 25% 的 B100 芯片,很有可能再次出現供應短缺。這種供需失衡會導致算力成本的再次上升,使得許多中小型企業難以承擔高昂的計算費用,從而限制他們在 AI 領域的發展潛力。
大型科技公司如 OpenAI、Google 和 Meta 擁有更強大的資源獲取能力,有錢有資源去構建自家的算力基礎設施。但對於 AI 初創公司,更別說是尚未融資的呢?
的確在 eBay、亞馬遜等平台上購买二手 GPU 也是可行方法之一。雖然降低了成本,但可能存在性能問題和長期維修費用。在這個 GPU 稀缺的時代,構建基礎設施對於初創公司恐怕永遠不會是最優解。
即便已經有了可按需租賃的 GPU 雲提供商,但高昂的價格對於它們來說也是一個不小的挑战,例如,一張英偉達 A100 的價格約每天 80 美元,如果需要 50 張每月運行 25 天,只在算力方面的成本就高達 80 x 50 x 25=10 萬美元/月。
這給了以 DePIN 爲架構的去中心化算力網絡趁虛而入的機會,可以說順風順水。正如 IO.NET、Aethir、Hyperbolic 所做的,它們將 AI 初創公司的算力基礎設施成本轉移到網絡本身。而且可以讓全球任何人將家中未使用的 GPU 連接至其中,大幅降低了計算成本。
Aethir:全球 GPU 共享網絡,讓算力普惠化
Aethir 在 2023 年 9 月以 1.5 億美元估值完成 900 萬美元的 Pre-A 輪融資,並在今年 3-5 月完成約 1.2 億美元的 Checker Node 節點銷售。Aethir 在短短 30 分鐘內通過銷售 Checker Node 獲得了 6000 萬美元的收益,可見市場對該項目的認可和期待。
Aethir 的核心,是要建立一個去中心化的 GPU 網絡,讓每個人都有機會貢獻自己的闲置 GPU 資源,並獲得收益。這就像是把每個人的電腦變成一個小型的超級計算機,大家一起共享計算能力。這樣做的好處是,可以大幅度提高 GPU 的利用率,減少資源浪費,同時也能讓需要大量計算能力的企業或個人,以更低的成本獲取到所需的資源
Aethir 創建了一個去中心化的 DePIN 網絡,就像資源池一般,激勵來自全球各地的數據中心、遊戲工作室、科技公司和遊戲玩家將闲置 GPU 連至其中。這些 GPU 提供方可以自由地將 GPU 連接或退出網絡,因此具有比闲置更高的利用率。這使得 Aethir 能夠向算力需求方提供從消費者級、專業級到數據中心級的 GPU 資源,而且相比 Web2 雲提供商的價格要低 80% 以上。
Aethir 的 DePIN 架構確保了這些零散算力的品質和穩定。其中最核心的三個部分是:
Container(容器)是 Aethir 的計算單元,充當雲服務器,負責執行和渲染應用程序。每一個任務都被封裝在一個獨立的 Container 中,作爲相對隔離的環境來運行客戶的任務,避免了任務間互相幹擾的情況。
Indexer(索引器)主要用於根據任務需求即時匹配和調度可用的算力資源。同時,動態資源調整機制能夠根據整個網絡的負載情況,動態將資源分配給不同的任務,以達到最佳整體效能。
Checker(檢查器)則負責即時監控和評估 Container 的性能,它可以即時監控和評估整個網絡的狀態,並對可能出現的安全問題做出及時的反應。如需應對網絡攻擊等安全事件,在偵測到異常行爲後,能夠及時發出警告並啓動防護措施。同樣的,當網絡性能出現瓶頸時,Checker也可以及時發出提醒,以便問題能夠被及時解決,保證了服務品質和安全。
Container、Indexer、Checker 三者之間有效協作,爲客戶提供了自由定制算力配置,安全、穩定且價格相對低廉的雲服務體驗。對於 AI 和遊戲等領域,Aethir 是一個不錯的商用級解決方案。
總的來說,Aethir 通過 DePIN 的方式,重塑了 GPU 資源的分配和使用,讓算力變得更加普及和經濟。它已在 AI 和遊戲領域取得了一些不錯的成績,而且還在不斷擴展合作夥伴和業務线,未來的發展潛力不可限量。
IO.NET:打破算力瓶頸的分布式超級計算網絡
IO.NET 今年 3 月完成了 3000 萬美元的 A 輪融資,Hack VC、Delphi Digital、Foresight Ventures 等知名 VC 投資。
與 Aethir 類似,打造一個企業級的去中心化計算網絡,通過匯聚全球闲散的計算資源(GPU、CPU),爲 AI 初創企業提供價格更低、更易獲得、更靈活適配的算力服務。
不同於 Aethir 的是,IO.NET 利用 Ray 框架(IO-SDK)將數千個 GPU 集群轉換爲一個整體,服務於機器學習(Ray 框架也被 OpenAI 用於訓練 GPT-3)。在單個設備上訓練大模型時,CPU/GPU 內存限制和順序處理工作流程呈現了巨大的瓶頸。利用 Ray 框架來編排和批處理,實現了算力任務並行化。
爲此,IO.NET 採用多層架構:
用戶界面層:爲用戶提供視覺前端界面,包括公共網站、客戶區域及GPU供應商區域,旨在提供直觀且友好的用戶體驗。
安全層:確保系統的完整性與安全,融合了網絡防護、用戶認證及活動日志記錄等機制。
API 層:作爲網站、供應商及內部管理的通信樞紐,便於數據交換和各類操作的執行。
後端層:構成系統核心,負責管理集群/GPU、客戶交互及自動擴展等運營任務。
數據庫層:負責數據的存儲和管理,主存儲負責結構化數據,而緩存則用於臨時數據的處理。
任務層:管理異步通信和任務執行,保證數據處理和流轉的高效性。
基礎設施層:構成系統基礎,包含 GPU 資源池、編排工具及執行/ML 任務,配備了強大的監控解決方案。
從技術上看,IO.NET 爲解決分布式算力面臨的難點,推出了其核心技術 IO-SDK 的分層架構,以及解決安全連接和數據隱私問題的反向隧道技術和網狀 VPN 架構。在 Web3 受到熱捧,被稱爲是下一個 Filecoin,前景較爲廣闊。
總的來說,IO.NET 的核心使命是打造全球最大的 DePIN 基礎設施,把全世界的闲置 GPU 資源都集中起來,向需要大量算力的 AI 和機器學習領域提供支持。
Hyperbolic:打造“AI 雨林”,實現繁榮互助的分布式 AI 基建生態
今天,Hyperbolic 再次宣布完成了總額超過 1200 萬美元的 A 輪融資,由 Variant 和 Polychain Capital 共同領投,總融資額超過2000萬美元。Bankless Ventures、Chapter One、Lightspeed Faction、IOSG、Blockchain Builders Fund、Alumni Ventures、Samsung Next 等知名 VC機構參投。其中頭部硅谷風投 Polychain 和 LightSpeed Faction 在種子輪後二度加碼,足以說明 Hyperbolic 在 Web3 AI 賽道的龍頭地位。
Hyperbolic 的核心使命是讓 AI 變得人人可用,开發者做的起,創作者用的起。Hyperbolic 旨在構建一個“AI 雨林”,在其生態系統中,开發者可以找到創新、協作和發展所需的必要資源。就像天然雨林一樣,生態間相互聯系、生機勃勃、可再生,讓創作者能夠無限制地探索。
在兩位聯合創始人 Jasper 和 Yuchen 看來,雖然 AI 模型可以开源,但如果沒有开放的計算資源,那還是不夠的。目前很多大型數據中心控制着 GPU 資源,這讓很多想要用 AI 的人望而卻步。Hyperbolic 就是要打破這種局面,他們通過整合全球的闲置計算資源建立 DePIN 算力基礎設施,讓每個人都能輕松使用 AI。
因此,Hyperbolic 引入了“开放式 AI 雲”概念,小到個人電腦,大到數據中心,都可以連接到 Hyperbolic 提供算力。在此基礎上,Hyperbolic 創建了一個可驗證、確保隱私的 AI 層,允許开發者構建有推理能力的 AI 應用,而所需算力則直接來源於 AI 雲。
與 Aethir、IO.NET 類似,Hyperbolic 的 AI 雲擁有自己獨特的 GPU 集群模型,被稱爲“太陽系集群”。正如我們所知的那樣,太陽系包含了水星、火星等各種獨立行星,Hyperbolic 的太陽系集群掌管着例如水星集群、火星集群、木星集群,這些 GPU 集群用途廣泛,規模各異,但又相互獨立,由太陽系調度。
這樣的模型確保了 GPU 集群滿足了兩個特性,相比 Aethir、IO.NET 更靈活且效率最大化:
調節狀態平衡,GPU 集群會根據需求自動擴大或縮小
若某個集群發生中斷,太陽系集群將自動檢測並修復
在大型語言模型(LLM)的性能對比實驗中,Hyperbolic GPU 集群的吞吐量高達 43 tokens/s,這一成績不僅超過了由 60 人組成的 Together AI 團隊的 42 tokens/s,更是明顯高於擁有 300 多名團隊成員的 HuggingFace 的 27 tokens/s。
而在圖像生成模型的生成速度對比實驗中,Hyperbolic GPU 集群同樣展現了其技術實力不容小覷。同樣是使用 SOTA 开源圖像生成模型,Hyperbolic 以 17.6 images/min 的生成速度領先,不僅超過了 Together AI 的 13.6 images/min,更是遠高於 IO.NET 的 6.5 images/min。
這些數據有力地證明了 Hyperbolic 的 GPU 集群模型擁有極高的效率,卓越的性能表現使之在規模更大的競爭對手中脫穎而出。結合價格低廉的優勢,這使得 Hyperbolic 非常適合需要高算力提供支持的復雜 AI 應用,提供近乎實時的響應,且確保 AI 模型在處理復雜任務時具有更高的准確性和效率。
另外,從加密創新的角度,我們認爲 Hyperbolic 最應關注的成績是开發了驗證機制 PoSP(Proof of Sampling,抽樣證明),以去中心化的方法解決 AI 領域最棘手的挑战之一 — 驗證輸出是否來自指定的模型,從而使推理過程可以經濟有效地去中心化。
基於 PoSP 原理,Hyperbolic 團隊开發了針對 AI 應用的 spML機制(抽樣機器學習),對網絡中的交易隨機抽樣,獎勵誠實者,處罰不誠實者,來達到一種輕量級的驗證效果,減輕了網絡的計算負擔,使得幾乎任何 AI 創業公司都可以將他們的 AI 服務以一種可分布驗證的範式完成去中心化。
具體實現流程如下:
1)節點計算了函數,通過加密的方式將結果提交給編排者。
2) 然後,由編排者決定是否信任這一結果,如果信任,則節點因計算而獲得獎勵。
3) 如果不信任,編排者會隨機選擇網絡中的驗證者,對節點發起挑战,計算同樣的函數。同樣的,驗證者通過加密的方式將結果提交給編排者。
4) 最後,編排者檢查所有的結果是否一致,如果一致,節點和驗證者都會獲得獎勵;如果不一致,將會發起仲裁程序,對每個結果的計算過程做追溯。誠實者因其准確性獲得獎勵,不誠實者因欺騙系統而被處罰。
節點不知道他們提交的結果是否會被挑战,也不知道編排者會選擇哪個驗證者來挑战,有次來確保驗證的公正性。作弊成本遠超潛在的收益。
如果未來 spML 得到檢驗,那么足以改變 AI 應用的遊戲規則,使無需信任的推理驗證成爲現實。此外,Hyperbolic 擁有行業中獨一無二的將 BF16 算法運用在模型推理中的能力(同業者都還停留在 FP8),能有效提升推理的准確度,使得 Hyperbolic 的去中心化推理服務性價比卓越超群。
此外,Hyperbolic 的創新還體現在其將 AI 雲的算力供給與 AI 應用一體化。去中心化算力市場的需求本身較爲稀少,Hyperbolic 通過構建可驗證的 AI 基礎設施來吸引开發者建設 AI 應用,算力可以在不犧牲性能和安全性的情況下直接無縫集成至 AI 應用,擴展到一定規模後能做到自給自足,達到供需平衡。
开發者可以在 Hyperbolic 上構建圍繞算力、Web2 及 Web3 的 AI 創新應用,例如:
GPU Exchange,建立在 GPU 網絡(編排層)之上的 GPU 交易平台,將“GPU 資源”商品化自由交易,使算力更具成本效益。
IAO,或者說將 AI Agent 代幣化,允許貢獻者賺取代幣,AI Agent 的收入將分配給代幣持有者。
AI 驅動的 DAO,即通過人工智能幫助治理決策和財務管理的 DAO。
GPU Restaking,允許用戶將 GPU 連接到 Hyperbolic 後,再質押到 AI 應用。
總的來說,Hyperbolic 建立了一個开放的 AI 生態系統,讓每個人都能輕松地使用 AI。通過技術創新,Hyperbolic 正在讓 AI 變得更加普及和可訪問,讓 AI 的未來充滿互操作性和兼容性,鼓勵合作創新。
數據回歸用戶,共赴 AI 浪潮
當今,數據就是金礦,個人數據正被科技巨頭無償攫取和商業化。
數據是 AI 的食糧。沒有高質量的數據,即使是最先進的算法也無法發揮其作用。數據的數量、質量和多樣性直接影響到 AI 模型的性能。
前面我們提到過,業界正在期待 GPT-5 的推出。但是它遲遲沒出來,原因可能是數據量尚未足夠。僅在發表論文階段的 GPT-3,就需要 2 萬億 Token 的數據量。GPT-5 預計會達到 200 萬億 Token 的數據量。除了現有的文本數據,還要更多的多模態數據,加以清洗後才能夠被用於訓練。
在今天的公开互聯網數據中,高質量的數據樣本是偏少的,一個現實的情況是,大模型在任意領域的問答生成表現都非常好,但面對專業領域問題的表現不佳,甚至會出現模型“一本正經地胡說八道”的幻覺。
爲了確保數據的“新鮮程度”,AI 巨頭們經常與大型數據源的所有者達成交易協議。例如,OpenAI 與 Reddit 籤署了一項價值 6000 萬美元的協議。
近期一些社群軟件开始要求用戶籤署協議,需要用戶同意將內容授權用於第三方 AI 模型的訓練,然而,用戶卻沒有從中獲得任何回報。這種掠奪行爲引發輿論對數據使用權的質疑。
顯然,區塊鏈去中心化且可追溯來源的潛力天然適合改善數據和資源的獲取窘境,同時爲用戶數據提供更多控制權和透明度,還可以通過參與 AI 模型的訓練和優化獲得收益。這種全新的數據價值創造方式將大幅提升用戶參與度,推動生態整體繁榮。
Web3 已經有了一些針對 AI 數據的公司,例如:
數據獲取:Ocean Protocol、Vana、PIN AI、Sahara 等
數據處理:Public AI、Lightworks 等
其中比較有意思的是 Vana、PIN AI、Saraha,恰巧也都在近期獲得了大額融資,投資者陣容豪華。這兩個項目都跳脫出了子領域,將數據獲取與 AI 开發相結合,推動 AI 應用的落地。
Vana:用戶掌控數據,DAO 與貢獻機制重塑 AI 數據經濟
Vana 在 2022 年 12 月完成了一輪 1800 萬美元的融資,並在今年 9 月完成了 500 萬美元的战略融資。Paradigm、Polychain、Coinbase 等知名 VC 投資。
Vana 的核心理念是“用戶擁有的數據,實現用戶擁有的 AI”。在這個數據爲王的時代,Vana 想要打破大公司對數據的壟斷,讓用戶自己控制自己的數據,並且從自己的數據中獲益。
Vana 是一個去中心化數據網絡,專注於保護私人數據,使用戶的數據能夠像金融資產一樣靈活地使用。Vana 試圖重塑數據經濟的格局,將用戶從被動的數據提供者轉變爲積極參與、共同受益的生態系統建設者。
爲了實現這個愿景,Vana 允許用戶通過數據 DAO 匯集並上傳數據,然後通過貢獻證明機制,在保護隱私的情況下驗證數據的價值。這些數據可以用於 AI 訓練,而用戶根據上傳數據的優質程度獲得激勵。
在實現方式上,Vana 的技術架構包括數據流動性層、數據可移植層、通用連接組、非托管數據存儲和去中心化應用層五個關鍵組件。
數據流動性層(Data Liquidity Layer):這是 Vana 網絡的核心,它通過數據流動性池(DLP)激勵、聚合並驗證有價值的數據。DLP 就像是數據版的“流動性池”,每個 DLP 都是一個智能合約,專門用於聚合特定類型的數據資產,如 Reddit、Twitter 等社交媒體數據。
數據可移植層(Data Portability Layer):這一組件向用戶數據賦予了可移植性,確保用戶可以輕松地在不同的應用和 AI 模型之間轉移和使用自己的數據。
數據生態圖:這是一個跟蹤整個生態實時數據流動的地圖,確保了透明度。
非托管數據存儲:Vana 的創新點在於其獨特的數據管理方式,讓用戶始終保持對自己數據的完全控制權。用戶的原始數據不會上鏈,而是由用戶自行選擇存儲位置,比如雲服務器或個人服務器。
去中心化應用層:在數據基礎上,Vana 構建了一個开放的應用生態系統,开發者可以利用 DLP 積累的數據構建各種創新應用,包括 AI 應用,而數據貢獻者則可以從這些應用中獲得分紅獎勵。
目前 Vana 上構建了圍繞 ChatGPT、Reddit、LinkedIn、Twitter 等社媒平台以及專注於 AI、瀏覽數據的 DLP,隨着更多的 DLP 加入其中,更多的創新應用在平台上構建,Vana 有潛力成爲下一代去中心化 AI 和數據經濟基礎設施。
這不禁讓我們想到最近發生的一則新聞,爲了改善 LLM 的多樣性,Meta 正在收集 Facebook、Instagram 英國用戶的數據,但因讓用戶選擇“退出”而不是“同意”,而飽受強迫詬病。也許,Meta 在 Vana 上分別構建一個 Facebook 和 Instagram 的 DLP,不僅確保了數據隱私,還激勵更多用戶主動貢獻數據,會是一種更好的選擇。
PIN AI:去中心化 AI 助手,移動式 AI 連接數據與日常生活
PIN AI 今年 9 月完成 1000 萬美元 pre-seed 輪融資,a16z CSX、Hack VC、Blockchain Builders Fund(斯坦福區塊鏈加速器)等一衆知名 VC 和天使投資人參與了本次投資。
PIN AI 是一個开放的 AI 網絡,由 DePIN 架構的分布式數據存儲網絡提供支持,用戶可以將設備連接至該網絡,提供個人數據/用戶偏好,獲得代幣激勵。此舉使用戶能夠重新獲得控制權並使其數據貨幣化。而开發者可以利用數據在其中構建有用的 AI Agent。
其愿景是成爲 Apple Intelligence 的去中心化替代方案,致力於向用戶群體提供對日常生活有用的應用,實現用戶提出的意圖,比如线上購买商品、策劃旅行、計劃投資行爲。
PIN AI 由兩種 AI 組成,個人 AI 助理和外部 AI 服務。
個人 AI 助理能夠訪問用戶數據,收集用戶的需求,並且在外部服務 AI 需要數據時給予它們相應的數據。PIN AI 底層由 DePIN 分布式數據存儲網絡構成,爲外部 AI 服務的推理提供豐富的用戶數據,同時無法訪問用戶的個人隱私。
有了 PIN AI,用戶將不再需要打开數千個手機 App 來完成不同的任務。當用戶向個人 AI 助理表達“我想买一件新衣服”、“點什么樣的外賣”或“找到我這篇文章中最好的投資機會”等意圖時,該 AI 不僅了解用戶的偏好,還可以有效地執行所有這些任務——將找到最相關的應用程序和服務提供商,以競標的形式實現用戶意圖。
最重要的是,PIN AI 意識到了在當下用戶習慣直接和中心化服務提供商互動獲得服務的困局下,引入一個能提供更多價值的去中心化服務的必要性。個人 AI 助理可以名正言順的以用戶的名義,獲取用戶和 Web2 應用互動時產生的高價值數據,並以去中心化的方式存儲、調用,使同一份數據發揮更大的價值,使數據所有者和調用者同時受益。
雖然 PIN AI 主網還未正式上线,但團隊通過 Telegram 小程度向用戶展示了產品雛形,便於感知愿景。
Hi PIN Bot 由三個板塊組成,Play、Data Connectors、AI Agent。
Play 是一個 AI 虛擬伴侶,由 PIN AI-1.5b、Gemma、Llama 等大模型提供支持。這就相當於 PIN AI 的個人 AI 助理。
在 Data Connectors 中,用戶可以連接 Google、Facebook、X、Telegram 账戶,賺取積分升級虛擬伴侶。未來還將支持用戶連接 Amazon、Ebay、Uber 等账戶。這就相當於 PIN AI 的 DePIN 數據網絡。
自己的數據自己用,連接數據後,用戶可以向虛擬伴侶提出需求(Coming soon),由虛擬伴侶向符合任務要求的 AI Agent 提供用戶的數據來處理。
官方开發了一些 AI Agent 原型,目前仍是測試階段,這些也就相當於 PIN AI 的外部 AI 服務。例如 X Insight,輸入推特账號,它可以分析該账號的運營情況。當 Data Connectors 支持電商、外賣等平台账戶後,像 Shopping、Order Food 這些 AI Agent 也能夠發揮作用,自主處理用戶提出的訂單。
總的來說,通過 DePIN+AI 的形式,PIN AI 建立了一個开放的 AI 網絡,讓开發者可以構建真正有用的 AI 應用,讓用戶的生活變得更加便捷和智能。隨着更多的开發者加入,PIN AI 將會帶來更多創新的應用,讓 AI 真正融入日常生活。
Sahara:多層架構領航AI數據確權、隱私、與公平交易
Sahara 在今年 8 月完成 4300 萬美元 A 輪融資,Binance Labs、Pantera Capital、Polychain 等知名 VC 投資。
Sahara AI 是一個多層架構的 AI 區塊鏈應用平台,專注在 AI 時代建立一個更加公平透明、能夠將數據進行價值歸屬並分潤給用戶的 AI 發展模式,解決傳統 AI 系統中的隱私、安全、數據獲取以及透明度等痛點。
通俗的來說,Sahara AI 想要建一個去中心化的 AI 網絡,讓用戶能自己控制數據,還能根據貢獻的數據質量來獲得獎勵。這樣一來,用戶不再是被動的數據提供者,而是變成了能夠參與進來,共享收益的生態系統建設者。
用戶可以把數據上傳到他們的去中心化數據市場,然後通過一種特殊的機制來證明這些數據的所有權(“確權”)。這些數據可以用來訓練 AI,用戶根據數據的質量來獲得獎勵。
Sahara AI 包含應用、交易、數據和執行四層架構,爲 AI 生態系統發展提供了強大的基礎。
應用層:提供安全保險庫、去中心化 AI 數據市場、無代碼工具包和 Sahara ID 等工具。這些工具能夠確保數據隱私並推動對用戶的公平補償,且進一步簡化創建和部署 AI 應用的過程。
簡單來說,保險庫利用先進的加密技術保障 AI 數據的安全性;去中心化 AI 數據市場可以用於數據收集、標注和轉化,促進創新和公平交易;無代碼工具包則使 AI 應用的开發更加簡單;Sahara ID 負責管理用戶聲譽,保障信任。
交易層:Sahara 區塊鏈,通過權益證明(PoS)共識機制來確保網絡的效率和穩定性,讓即使在有惡意節點存在的情況下也能達成共識。此外,Sahara 的原生預編譯功能是專爲優化 AI 處理而設計,能直接在區塊鏈環境中進行高效計算,提升系統性能。
數據層:管理鏈上和鏈下的數據。鏈上數據處理不可追溯的操作和屬性記錄,保障信譽和透明性;鏈下數據則處理大型數據集,並通過 Merkle Tree 和零知識證明技術來確保數據的完整性與安全性,防止數據重復和篡改。
執行層:抽象了保險庫、AI 模型和 AI 應用的操作,支持各種 AI 訓練、推理和服務範式。
整個四層架構不僅確保了系統的安全和可擴展性,還體現了 Sahara AI 促進協作經濟和 AI 發展的遠大愿景,旨在徹底改變 AI 技術的應用模式,爲用戶帶來更具創新性和公平的解決方案。
結語
隨着 AI 技術的不斷進步和加密市場的興起,我們正站在一個新時代的門檻上。
隨着 AI 大模型和應用的不斷湧現,對算力的需求也在呈指數級增長。然而,算力的稀缺和成本的上升,對於許多中小型企業來說,是一個巨大的挑战。幸運的是,去中心化的解決方案,特別是 Hyperbolic、Aethir 和 IO.NET,爲 AI 初創公司提供了新的算力獲取途徑,降低了成本,提高了效率。
同時,我們也看到了數據在 AI 發展中的重要性。數據不僅是 AI 的食糧,更是推動 AI 應用落地的關鍵。PIN AI、 Sahara 等項目通過激勵網絡,鼓勵用戶參與數據的收集和分享,爲 AI 的發展提供了強大的數據支持。
算力和數據不僅僅是訓練環節,對於 AI 應用來說,從數據攝入到生產推理,每個環節都需要利用不同工具實現海量數據處理,並且這是一個不斷重復的流程。
在這個 AI 和 Crypto 交織的世界中,我們有理由相信,未來將見證更多創新的 AI 項目落地,這些項目將不僅改變我們的工作和生活方式,也將推動整個社會向更加智能化、去中心化的方向發展。隨着技術的不斷進步和市場的不斷成熟,我們期待着一個更加开放、公平、高效的 AI 時代的到來。
鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。
標題:全面對比Crypto x AI賽道六大頭部基建項目 誰能力拔頭籌?
地址:https://www.sgitmedia.com/article/47605.html
相關閱讀:
- 50名引領2024年加密行業的風雲人物一覽 2024-12-11
- 當o1學會“裝傻”和“說謊” 我們終於知道Ilya到底看到了什么 2024-12-11
- 量子計算會摧毀比特幣嗎? 2024-12-11
- 市場連跌三日 原因何在? 2024-12-11
- 金色百科 | 一文看懂去中心化科學DeSci 2024-12-11
- 微策略目標:1個中本聰 2024-12-11
- 微軟股東投票否決將比特幣納入資產負債表決議 2024-12-11
- Ripple穩定幣RLUSD獲紐約監管機構批准 2024-12-11