另类专区另类专区亚洲,日韩国产欧美精品综合二区,日本黄色免费在线视频,天天爽夜夜爽免费看

  • 售前

  • 售后

潛力賽道前瞻:去中心化算力市場

政策 allinweb3
2023-11-3 19:52 1744人瀏覽 0人回復
摘要

前言自 GPT-3 誕生以來,生成式 AI 以其驚人的表現(xiàn)以及廣闊的應用場景,讓人工智能領域迎來了爆炸式的拐點,科技巨頭開始扎堆抱團跳入 AI 賽道。但問題也隨之而來,大型語言模型(LLM)訓練和推理的運行需要大量算力 ...

前言

自 GPT-3 誕生以來,生成式 AI 以其驚人的表現(xiàn)以及廣闊的應用場景,讓人工智能領域迎來了爆炸式的拐點,科技巨頭開始扎堆抱團跳入 AI 賽道。但問題也隨之而來,大型語言模型(LLM)訓練和推理的運行需要大量算力支撐,伴隨著模型的迭代升級,算力需求和成本更是呈指數(shù)級的增加。以 GPT-2 和 GPT-3 為例,GPT-2 和 GPT-3 之間的參數(shù)量相差 1166 倍(GPT-2 為 1.5 億參數(shù),GPT-3 為 1750 億參數(shù)),GPT-3 的一次訓練成本以當時公有 GPU 云的價格模型計算最高可達 1200 萬美元,為 GPT-2 的 200 倍。而在實際使用過程中,用戶的每次提問都需要推理運算,按今年年初 1300 萬獨立用戶訪問的情況來說,對應的芯片需求是 3 萬多片 A100GPU。那么初始投入成本將達到驚人的 8 億美元,每日模型推理費用預估費用 70 萬美元。

算力不足和成本過高成為整個 AI 行業(yè)面臨的難題,然而同樣的問題似乎也將困擾區(qū)塊鏈行業(yè)。一方面比特幣的第四次減半與 ETF 通過即將到來,隨著未來價格攀升,礦商對于算力硬件的需求必然大幅提高。而另一方面零知識證明(「Zero-Knowledge Proof」,簡稱 ZKP)技術正在蓬勃發(fā)展,Vitalik 也曾多次強調 ZK 在未來十年內對區(qū)塊鏈領域的影響將與區(qū)塊鏈本身一樣重要。雖然這項技術的未來被區(qū)塊鏈行業(yè)寄予厚望,但 ZK 由于復雜的計算過程,在生成證明過程中同 AI 一樣也需要消耗大量的算力與時間。

在可預見的未來里,算力短缺將成為必然,那么去中心化算力市場是否會是一門好生意?

去中心化算力市場定義

去中心化算力市場其實基本等價于去中心化云計算賽道,但相比于去中心化云計算,我個人認為這個詞來描述之后所講的新項目會更為貼切。去中心化算力市場應屬于 DePIN(去中心化物理基礎設施網(wǎng)絡)的子集,其目標旨在創(chuàng)建一個開放的算力市場,通過代幣激勵使得任何擁有閑置算力資源的人都可以在此市場上提供他們的資源,主要服務于 B 端用戶及開發(fā)者群體。從較為熟知的項目來說,比如基于去中心化 GPU 的渲染解決方案網(wǎng)絡 Render Network 和用于云計算的分布式點對點市場 Akash Network 都屬于這條賽道。

而下文將從基礎概念開始,再展開討論該賽道下的三個新興市場:AGI 算力市場、比特幣算力市場以及 ZK 硬件加速市場中的 AGI 算力市場,后兩個將在《潛力賽道前瞻:去中心化算力市場(下)》中進行討論。

算力概述

算力概念的起源可以追溯到計算機發(fā)明之初,最初的計算機是由機械裝置完成計算任務,而算力指的是機械裝置的計算能力。隨著計算機技術的發(fā)展,算力的概念也隨之演化,現(xiàn)在的算力通常指的是計算機硬件(CPU、GPU、FPGA 等)和軟件(操作系統(tǒng)、編譯器、應用程序等)協(xié)同工作的能力。

定義

算力(Computing Power)是指計算機或其他計算設備在一定時間內可以處理的數(shù)據(jù)量或完成的計算任務的數(shù)量。算力通常被用來描述計算機或其他計算設備的性能,它是衡量一臺計算設備處理能力的重要指標。

衡量標準

算力可以用各種方式來衡量,例如計算速度、計算能耗、計算精度、并行度。在計算機領域,常用的算力衡量指標包括 FLOPS(每秒浮點運算次數(shù))、IPS(每秒指令數(shù))、TPS(每秒事務數(shù))等。

FLOPS(每秒浮點運算次數(shù))是指計算機處理浮點運算(帶有小數(shù)點的數(shù)字進行數(shù)學運算,需要考慮精度問題和舍入誤差等問題)的能力,它衡量的是計算機每秒能夠完成多少次浮點運算。FLOPS 是衡量計算機高性能計算能力的指標,通常用于衡量超級計算機、高性能計算服務器和圖形處理器(GPU)等的計算能力。例如,一個計算機系統(tǒng)的 FLOPS 為 1 TFLOPS(1 萬億次浮點運算每秒),意味著它每秒可以完成 1 萬億次浮點運算。

IPS(每秒指令數(shù))是指計算機處理指令的速度,它衡量的是計算機每秒能夠執(zhí)行多少條指令。IPS 是衡量計算機單指令性能的指標,通常用于衡量中央處理器(CPU)等的性能。例如,一個 CPU 的 IPS 為 3 GHz(每秒可以執(zhí)行 3 億次指令),意味著它每秒可以執(zhí)行 3 億次指令。

TPS(每秒事務數(shù))是指計算機處理事務的能力,它衡量的是計算機每秒可以完成多少個事務。通常用于衡量數(shù)據(jù)庫服務器的性能。例如,一個數(shù)據(jù)庫服務器的 TPS 為 1000,意味著它每秒可以處理 1000 個數(shù)據(jù)庫事務。

此外,還有一些針對特定應用場景的算力指標,例如推理速度、圖像處理速度、語音識別準確率。

算力的類型

GPU 算力指的是圖形處理器(Graphics Processing Unit)的計算能力。與 CPU(Central Processing Unit)不同,GPU 是專門設計用于處理圖像和視頻等圖形數(shù)據(jù)的硬件,它具有大量的處理單元和高效的并行計算能力,可以同時進行大量的浮點運算。由于 GPU 最初是用于游戲圖形處理的,因此它們通常比 CPU 擁有更高的時鐘頻率和更大的內存帶寬,以支持復雜的圖形運算。

CPU 和 GPU 的區(qū)別

架構:CPU 和 GPU 的計算架構不同。CPU 通常采用一或多個核心,每個核心都是一個通用的處理器,能夠執(zhí)行各種不同的操作。而 GPU 則擁有大量的流處理器(Stream Processors)和著色器(Shader),這些處理器專門用于執(zhí)行圖像處理相關的運算;

并行計算:GPU 通常具有更高的并行計算能力。CPU 的核心數(shù)量有限,每個核心只能執(zhí)行一條指令,但 GPU 可以擁有數(shù)千個流處理器,可以同時執(zhí)行多個指令和操作。因此,GPU 通常比 CPU 更適合執(zhí)行并行計算任務,例如機器學習和深度學習等需要大量并行計算的任務;

程序設計:GPU 的程序設計相對于 CPU 來說更為復雜,需要使用特定的編程語言(如 CUDA 或 OpenCL),并使用特定的編程技巧來利用 GPU 的并行計算能力。相比之下,CPU 的程序設計更為簡單,可以使用通用的編程語言和編程工具。

算力的重要性

在工業(yè)革命時代,石油是世界的血液,滲透到各個產(chǎn)業(yè)之中。算力在區(qū)塊鏈中而在即將到來的 AI 時代,算力會是全世界的「數(shù)字石油」。從各大企業(yè)對于 AI 芯片的瘋搶以及 Nvidia 股票突破萬億,再到美國近期對中國的高端芯片封鎖詳細到算力大小、芯片面積,甚至計劃禁用 GPU 云,其重要性已不言而喻,算力將是下個時代的大宗商品。

算力


人工通用智能概述

人工智能 (Artificial Intelligence),是研究、開發(fā)用于模擬、延伸和擴展人的智能的理論、方法、技術及應用系統(tǒng)的一門新的技術科學。它起源于 20 世紀五六十年代,經(jīng)過半個多世紀的演變,經(jīng)歷了符號主義、連接主義和行為主體三次浪潮的相互交織發(fā)展,到如今,作為一項新興的通用技術,正在推動著社會生活與各行各業(yè)的巨變。而現(xiàn)階段常見的生成式 AI 更具體的定義是:人工通用智能(Artificial General Intelligence, 簡稱 AGI),一種具有廣泛理解能力的人工智能系統(tǒng),它能在多種不同任務和領域中表現(xiàn)出與人類相似或超越人類的智能。AGI 基本需要三個要素組成,深度學習(deep learning,簡稱 DL)、大數(shù)據(jù)、大規(guī)模算力。

深度學習

深度學習是機器學習(ML)的一個子領域,深度學習算法是仿照人腦建模的神經(jīng)網(wǎng)絡。例如,人腦包含數(shù)百萬個相互關聯(lián)的神經(jīng)元,它們協(xié)同工作以學習和處理信息。同樣,深度學習神經(jīng)網(wǎng)絡(或人工神經(jīng)網(wǎng)絡)是由在計算機內部協(xié)同工作的多層人工神經(jīng)元組成的。人工神經(jīng)元是稱為節(jié)點的軟件模塊,它使用數(shù)學計算來處理數(shù)據(jù)。人工神經(jīng)網(wǎng)絡是使用這些節(jié)點來解決復雜問題的深度學習算法。

算力


從層次上劃分神經(jīng)網(wǎng)絡可分為輸入層、隱藏層、輸出層,而不同層之間連接的便是參數(shù)。

輸入層(Input Layer):輸入層是神經(jīng)網(wǎng)絡的第一層,負責接收外部輸入數(shù)據(jù)。輸入層的每個神經(jīng)元對應于輸入數(shù)據(jù)的一個特征。例如,在處理圖像數(shù)據(jù)時,每個神經(jīng)元可能對應于圖像的一個像素值;

隱藏層(Hidden Layers):輸入層處理數(shù)據(jù)并將其傳遞到神經(jīng)網(wǎng)絡中更遠的層。這些隱藏層在不同層級處理信息,在接收新信息時調整其行為。深度學習網(wǎng)絡有數(shù)百個隱藏層,可用于從多個不同角度分析問題。例如,你得到了一張必須分類的未知動物的圖像,則可以將其與你已經(jīng)認識的動物進行比較。比如通過耳朵形狀、腿的數(shù)量、瞳孔的大小來判斷這是什么動物。深度神經(jīng)網(wǎng)絡中的隱藏層以相同的方式工作。如果深度學習算法試圖對動物圖像進行分類,則其每個隱藏層都會處理動物的不同特征并嘗試對其進行準確的分類;

輸出層(Output Layer):輸出層是神經(jīng)網(wǎng)絡的最后一層,負責生成網(wǎng)絡的輸出。輸出層的每個神經(jīng)元代表一個可能的輸出類別或值。例如,在分類問題中,每個輸出層神經(jīng)元可能對應于一個類別,而在回歸問題中,輸出層可能只有一個神經(jīng)元,其值表示預測結果;

參數(shù):在神經(jīng)網(wǎng)絡中,不同層之間的連接由權重(Weights)和偏置(Biases)參數(shù)表示,這些參數(shù)在訓練過程中被優(yōu)化以使網(wǎng)絡能夠準確地識別數(shù)據(jù)中的模式和進行預測。參數(shù)的增加可以提高神經(jīng)網(wǎng)絡的模型容量,即模型能夠學習和表示數(shù)據(jù)中復雜模式的能力。但相對應的是參數(shù)的增加會提升對算力的需求。

大數(shù)據(jù)

為了有效訓練,神經(jīng)網(wǎng)絡通常需要大量、多樣及質量高和多源的數(shù)據(jù)。它是機器學習模型訓練和驗證的基礎。通過分析大數(shù)據(jù),機器學習模型可以學習數(shù)據(jù)中的模式和關系,從而進行預測或分類。

大規(guī)模算力

神經(jīng)網(wǎng)絡的多層復雜結構、大量參數(shù)、大數(shù)據(jù)處理需求、迭代訓練方式(在訓練階段,模型需要反復迭代,訓練過程中需要對每一層計算前向傳播和反向傳播,包括激活函數(shù)的計算、損失函數(shù)的計算、梯度的計算和權重的更新)、高精度計算需求、并行計算能力、優(yōu)化和正則化技術以及模型評估和驗證過程共同導致了對高算力的需求,隨著深度學習的推進,AGI 對大規(guī)模算力的要求每年增加 10 倍左右。截止目前最新的模型 GPT-4 包含 1.8 兆參數(shù),單次訓練成本超 6000 萬美元,所需算力 2.15e25 FLOPS(21500 萬億次浮點計算)。而接下來的模型訓練對算力的需求還在不斷擴大,新的模型也在不斷增加。

AI 算力經(jīng)濟學

未來市場規(guī)模

根據(jù)最權威的測算,國際數(shù)據(jù)公司 IDC(International Data Corporation)與浪潮信息和清華大學全球產(chǎn)業(yè)研究院聯(lián)合編制的《2022-2023 全球計算力指數(shù)評估報告》,全球 AI 計算市場規(guī)模將從 2022 年的 195.0 億美元增長到 2026 年的 346.6 億美元,其中生成式 AI 計算市場規(guī)模將從 2022 年的 8.2 億美元增長到 2026 年的 109.9 億美元。生成式 AI 計算占整體 AI 計算市場的比例將從 4.2% 增長到 31.7%。


算力


算力經(jīng)濟壟斷


AI GPU 的生產(chǎn)已被 NVIDA 獨家壟斷,還極其昂貴(最新的 H100,單片售價已炒至 4 萬美元),并且 GPU 一經(jīng)發(fā)售就遭硅谷巨頭搶購一空,這些設備的其中一部分用于自家新模型的訓練。而另外一部分則通過云平臺出租給 AI 開發(fā)者,如 Google、Amazon 和 Microsoft 的云計算平臺掌握了大量的服務器、GPU 和 TPU 等算力資源。算力已然成為巨頭壟斷的新資源,大量 AI 相關開發(fā)者甚至購買不到一張不加價的專用 GPU,為了使用最新的設備,開發(fā)者不得不租用 AWS 或者 Microsoft 的云服務器。從財報上看這項業(yè)務擁有極高的利潤,AWS 的云服務有 61% 的毛利率,而微軟則更高有 72% 的毛利率。


算力

那么我們是否不得不接受這種集中式的權威和控制,并為算力資源支付 72% 的利潤費用?壟斷 Web2 的巨頭還會壟斷下一個時代嗎?

去中心化 AGI 算力的難題

提到反壟斷,去中心化通常都是最優(yōu)解,從現(xiàn)有的項目看我們是否能通過 DePIN 中的存儲項目加 RDNR 之類的空閑 GPU 利用協(xié)議來實現(xiàn) AI 所需的大規(guī)模算力?答案是否定的,屠龍的道路并沒有那么簡單,早期的項目并沒有為 AGI 算力而專門設計,不具備可行性,算力上鏈至少需要面臨以下五個挑戰(zhàn):

1.工作驗證:構建一個真正無需信任的計算網(wǎng)絡,并為參與者提供經(jīng)濟激勵,網(wǎng)絡必須有辦法驗證深度學習計算工作是否實際執(zhí)行。這個問題的核心是深度學習模型的狀態(tài)依賴性;在深度學習模型中,每一層的輸入都依賴于前一層的輸出。這意味著,不能僅僅驗證模型中的某一層而不考慮它之前的所有層。每一層的計算都是基于它前面所有層的結果。因此,為了驗證特定點(比如特定的層)完成的工作,必須執(zhí)行從模型的開始到那個特定點的所有工作;

2.市場:AI 算力市場作為一個新興市場受制于供求困境,比如冷啟動問題,供應和需求流動性需要從一開始就大致匹配,以便市場能夠成功地增長。為了捕獲潛在的算力供應,必須為參與者提供明確的獎勵以換取他們的算力資源。市場需要一個機制來跟蹤完成的計算工作,并及時向提供者支付相應的費用。傳統(tǒng)的市場中,中介負責處理管理和入職等任務,同時通過設定最低支付額度來減少運營成本。然而,這種方式在擴展市場規(guī)模時成本較高。只有少部分供應能夠在經(jīng)濟上被有效捕獲,這導致了一個閾值平衡狀態(tài),即市場只能捕獲和維持有限的供應,而無法進一步增長;

3.停機問題:停機問題是計算理論中的一個基本問題,它涉及到判斷一個給定的計算任務是否會在有限的時間內完成或者永遠不會停止。這個問題是不可解的,意味著不存在一個通用的算法能夠對所有的計算任務預判它們是否會在有限時間內停止。比如在以太坊上智能合約執(zhí)行也面臨著類似的停機問題。即無法預先確定一個智能合約的執(zhí)行需要多少計算資源,或者是否會在合理的時間內完成;

(在深度學習的背景下,這個問題將更復雜,因為模型和框架將從靜態(tài)圖構建切換到動態(tài)構建和執(zhí)行。)

4.隱私:對隱私意識的設計和開發(fā)是項目方必須要做的。雖然大量的機器學習研究可以在公開數(shù)據(jù)集上進行,但為了提高模型的性能和適應特定的應用,通常需要在專有的用戶數(shù)據(jù)上對模型進行微調。這種微調過程可能涉及到個人數(shù)據(jù)的處理,因此需要考慮隱私保護的要求;

5.并行化:這一點是當前項目不具備可行性的關鍵因素,深度學習模型通常在擁有專有架構和極低的延遲的大型硬件集群上并行訓練,而分布式計算網(wǎng)絡中的 GPU 需要進行頻繁的數(shù)據(jù)交換將會帶來延遲,并且會受限于性能最低的 GPU。算力源存在不可信與不可靠的情況下,如何異構并行化是必須解決的問題,目前可行的方法是通過變壓器模型(Transformer Model)來實現(xiàn)并行化,比如 Switch Transformers,現(xiàn)在已經(jīng)具有高度并行化的特性。

解決方案:雖然目前對于去中心化 AGI 算力市場的嘗試還處于早期,但恰好存在兩個項目初步解決了去中心化網(wǎng)絡的共識設計及去中心化算力網(wǎng)絡在模型訓練和推理上的落地過程。下文將以 Gensyn 和 Together 為例進行分析去中心化 AGI 算力市場的設計方式與問題所在。

Gensyn

算力

Gensyn 是一個還處于構建階段的 AGI 算力市場,旨在解決去中心化深度學習計算的多種挑戰(zhàn),以及降低當前深度學習的費用。Gensyn 本質上是基于 Polkadot 網(wǎng)絡上的第一層權益證明協(xié)議,它通過智能合約直接獎勵求解者(Solver)換取他們的閑置 GPU 設備用于計算,并執(zhí)行機器學習任務。

那么回到上文的問題,構建一個真正無需信任的計算網(wǎng)絡核心在于驗證已完成的機器學習工作。這是一個高度復雜的問題,需要在復雜性理論、博弈論、密碼學和優(yōu)化的交匯之間找到一個平衡點。

Gensyn 提出一個簡單的解決方案是,求解者提交他們完成的機器學習任務的結果。為了驗證這些結果是否準確,另一個獨立的驗證者會嘗試重新執(zhí)行相同的工作。這個方法可被稱為單一復制,因為只有一個驗證者會進行重新執(zhí)行。這意味著只有一次額外的工作來驗證原始工作的準確性。然而,如果驗證工作的人不是原始工作的請求者,那么信任問題仍然存在。因為驗證者本身可能也不誠實,而且他們的工作需要被驗證。這導致了一個潛在問題,即如果驗證工作的人不是原始工作的請求者,那么就需要另一個驗證者來驗證他們的工作。但這個新的驗證者也可能不被信任,因此需要另一個驗證者來驗證他們的工作,這可能會一直延續(xù)下去,形成一個無限的復制鏈。此處需要引入三個關鍵概念并將其交織構建四個角色的參與者系統(tǒng)來解決無限鏈問題。

概率學習證明:使用基于梯度的優(yōu)化過程的元數(shù)據(jù)來構建完成工作的證書。通過復制某些階段,可以快速驗證這些證書,從而確保工作已經(jīng)如期完成。

基于圖的精確定位協(xié)議:使用多粒度、基于圖的精確定位協(xié)議,以及交叉評估器的一致性執(zhí)行。這允許重新運行和比較驗證工作以確保一致性,并最終由區(qū)塊鏈本身確認。

Truebit 風格的激勵游戲:使用抵押和削減來構建激勵游戲,確保每個經(jīng)濟上合理的參與者都會誠實行事并執(zhí)行其預期的任務。

參與者系統(tǒng)由提交者、求解者、驗證者和舉報者組成。

  • 提交者(Submitters):

提交者是系統(tǒng)的終端用戶,提供將被計算的任務,并支付已完成工作單位的費用;

  • 求解者(Solvers):

求解者是系統(tǒng)的主要工作者,執(zhí)行模型訓練并生成由驗證者檢查的證明;

  • 驗證者(Verifiers):

驗證者是將非確定性訓練過程與確定性線性計算聯(lián)系起來的關鍵,復制解決者的證明的一部分并將距離與預期閾值進行比較;

  • 舉報者(Whistleblowers):

舉報者是最后一道防線,檢查驗證者的工作并提出挑戰(zhàn),希望獲得豐厚的獎金支付。

系統(tǒng)運作

該協(xié)議設計的博弈系統(tǒng)運作將包括八個階段,涵蓋四個主要參與者角色,用于完成從任務提交到最終驗證的完整流程。

1.任務提交 (Task Submission): 任務由三個特定的信息組成:

  • 描述任務和超參數(shù)的元數(shù)據(jù);
  • 一個模型二進制文件(或基本架構);
  • 公開可訪問的、預處理過的訓練數(shù)據(jù)。

2.為了提交任務,提交者以機器可讀的格式指定任務的詳細信息,并將其連同模型二進制文件(或機器可讀架構)和預處理過的訓練數(shù)據(jù)的公開可訪問位置提交給鏈。公開的數(shù)據(jù)可以存儲在簡單的對象存儲如 AWS 的 S3 中,或在一個去中心化的存儲如 IPFS、Arweave 或 Subspace 中。

3.分析(Profiling): 分析過程為學習驗證的證明確定了一個基線距離閾值。驗證者將定期抓取分析任務,并為學習證明比較生成變異閾值。為了生成閾值,驗證者將確定性地運行和重運行訓練的一部分,使用不同的隨機種子,生成并檢查自己的證明。在此過程中,驗證者將建立一個可用作驗證解決方案的非確定性工作的總體預期距離閾值。

4.訓練(Training): 在分析之后,任務進入公共任務池(類似于以太坊的 Mempool)。選擇一個求解者來執(zhí)行任務,并從任務池中移除任務。求解者根據(jù)提交者提交的元數(shù)據(jù)以及提供的模型和訓練數(shù)據(jù)執(zhí)行任務。在執(zhí)行訓練任務時,求解者還通過定期檢查點并存儲訓練過程中的元數(shù)據(jù)(包括參數(shù))來生成學習證明,以便驗證者盡可能準確地復制以下優(yōu)化步驟。

5.證明生成(Proof generation): 求解者周期性地存儲模型權重或更新以及與訓練數(shù)據(jù)集的相應索引,以識別用于生成權重更新的樣本??梢哉{整檢查點頻率以提供更強的保證或節(jié)省存儲空間。證明可以「堆疊」,這意味著證明可以從用于初始化權重的隨機分布開始,或從使用自己的證明生成的預訓練權重開始。這使協(xié)議能夠建立一組已經(jīng)證明的、預訓練的基礎模型(即基礎模型),這些模型可以針對更具體的任務進行微調。

6.證明的驗證(Verification of proof): 任務完成后,求解者向鏈注冊任務完成,并在公開可訪問的位置展示其學習證明,以便驗證者訪問。驗證者從公共任務池中提取驗證任務,并執(zhí)行計算工作以重運行證明的一部分并執(zhí)行距離計算。然后鏈(連同在分析階段計算的閾值)使用得到的距離來確定驗證是否與證明匹配。

7.基于圖的精確定位挑戰(zhàn)(Graph-based pinpoint challenge): 在驗證學習證明之后,舉報者可以復制驗證者的工作以檢查驗證工作本身是否正確執(zhí)行。如果舉報者認為驗證已被錯誤執(zhí)行(惡意或非惡意),他們可以向合約仲裁發(fā)起挑戰(zhàn)以獲得獎勵。這種獎勵可以來自解決者和驗證者的存款(在真正積極的情況下),或來自彩票庫獎金池(在假陽性的情況下),并使用鏈本身執(zhí)行仲裁。舉報者(在他們的例子中是驗證者)只有在期望收到適當?shù)难a償時才會驗證并隨后挑戰(zhàn)工作。實際上,這意味著舉報者預計會根據(jù)其他活動的舉報者的數(shù)量(即,具有實時存款和挑戰(zhàn))加入和離開網(wǎng)絡。因此,任何舉報者的預期默認策略是在其他舉報者數(shù)量較少時加入網(wǎng)絡,發(fā)布存款,隨機選擇一個活動任務,并開始他們的驗證過程。在第一個任務結束后,他們將抓取另一個隨機活動任務并重復,直到舉報者的數(shù)量超過其確定的支付閾值,然后他們將離開網(wǎng)絡(或更可能地,根據(jù)他們的硬件能力轉向網(wǎng)絡中執(zhí)行另一個角色——驗證者或求解者),直到情況再次逆轉。

8.合約仲裁(Contract arbitration):當驗證者被舉報人質疑時,他們會與鏈條進入一個流程,以找出有爭議的操作或輸入的位置,最 終由鏈條執(zhí)行最終的基本操作并確定質疑是否有理。為了保持舉報人的誠實可信并克服驗證者的困境,此處引入定期強制錯誤和頭獎支付。

9.結算(Settlement): 在結算過程中,根據(jù)概率和確定性檢查的結論來支付參與者。根據(jù)先前驗證和挑戰(zhàn)的結果,不同的場景會有不同的支付。如果認為工作已正確執(zhí)行且所有檢查都已通過,則根據(jù)執(zhí)行的操作獎勵解決方案提供者和驗證者。

項目簡評

Gensyn 在驗證層和激勵層上設計了一套精彩的博弈系統(tǒng),通過找出網(wǎng)絡中的分歧點能快速鎖定錯誤所在,但目前的系統(tǒng)中還缺少很多細節(jié)。比如說如何設置參數(shù)才能保證獎懲合理,又不會門檻過高?博弈中的環(huán)節(jié)是否有考慮過極端情況與求解者算力不同的問題?在當前版本的白皮書中也沒有異構并行化運行的詳細說明,目前來看 Gensyn 的落地還道阻且長。

Together.ai

Together 是一家專注于大模型的開源,致力于去中心化的 AI 算力方案的公司,希望任何人在任何地方都能接觸和使用 AI。嚴格來說 Together 并非區(qū)塊鏈項目,但項目目前已經(jīng)初步解決了去中心化 AGI 算力網(wǎng)絡中的延遲問題。所以下文只分析 Together 的解決方案,對項目不做評價。

在去中心化網(wǎng)絡比數(shù)據(jù)中心慢 100 倍的情況下,如何實現(xiàn)大模型的訓練和推理?

讓我們想象一下去中心化的情況下,參與網(wǎng)絡的 GPU 設備分布情況會是怎么樣?這些設備將分布于不同的大洲,不同的城市,設備之間需要連接,而連接的延遲和帶寬又各不相同。如下圖所示,模擬了一個分布式的情況,設備分布處于北美洲、歐洲和亞洲,設備之間的帶寬和延遲各不相同。那么需要如何做才能將其串聯(lián)?

免責聲明:本文不構成投資建議,用戶應考慮本文中的任何意見、觀點或結論是否符合其特定狀況,及遵守所在國家和地區(qū)的相關法律法規(guī)。 歡迎轉載分享!
轉載請注明本文地址:
如有文章侵犯了您的權利,請聯(lián)系本站站長,我們將在第一時間刪除相關內容,謝謝!

分享
推薦閱讀
立足于香港,定位于傳播、交流全球Web3區(qū)塊鏈資訊情報社區(qū),集區(qū)塊鏈行業(yè)新聞、Web、資訊、行情、策略、百科、社區(qū)等一站式區(qū)塊鏈產(chǎn)業(yè)信息服務平臺,我們追求及時、全面、專業(yè)、準確的資訊與數(shù)據(jù),致力于為區(qū)塊鏈創(chuàng)業(yè)者以及數(shù)字貨幣投資者提供最好的產(chǎn)品和服務。
  • 商務合作

  • 微信公眾號

  • 二維碼

网站地图闽icp备44218674号