构建开放AI基础设施:Gonka对去中心化计算的愿景

Gonka旨在去中心化AI计算,为开发者和硬件提供商提供可预测、可验证的访问,同时挑战集中式云巨头的主导地位。

随着对AI计算的控制日益集中在少数云服务提供商和硬件巨头手中,Gonka作为一个专注于去中心化、高效AI基础设施的新型Layer-1网络应运而生。该项目的创始人相信,通过将计算视为开放、可验证的基础设施,而非受限的服务,Gonka可以解锁全球对AI资源的访问,并挑战当今集中式系统的结构性限制。

1. Gonka是什么,它解决了什么问题?

Gonka是一个高效AI计算的去中心化Layer-1网络,旨在解决当前AI繁荣背后的结构性问题:AI计算的生产、分配和激励机制。

如今,AI的主要瓶颈不再是模型,而是对计算的控制。先进的GPU高度集中在少数硬件制造商和超大规模云提供商手中,使得AI计算成本高昂、信息不透明,并且越来越受到地理和政治的限制。美国和中国正迅速巩固对芯片、能源和数据中心容量的控制,使得其他国家处于依赖地位,限制了其在AI经济中的竞争能力。

这影响到创业公司和整个地区。开发者面临价格波动、容量短缺和供应商锁定的风险,而许多国家由于基础AI基础设施受限,可能落后于其他国家。

Gonka在协议层面重新思考这一问题。它不再将计算视为由中心化提供商控制的 gated 服务,而是借鉴已证明可以通过开放激励协调大规模物理基础设施的系统。就像比特币在硬件和能源方面的示范一样,Gonka将类似的原则应用于AI计算,不是在应用层面,而是在协议层面。

采用Transformer基础的工作量证明机制,网络将几乎所有可用GPU算力引导到有意义的AI工作负载上。目前,这些工作主要是AI推理,未来计划支持训练。节点通过验证的计算贡献获得奖励,而非资本分配或投机机制。与许多去中心化系统不同,计算不是在抽象的安全任务或重复的共识工作中消耗,而是被用于生产性任务。

对于开发者而言,这意味着可以获得可预测的AI计算访问,而无需依赖封闭的API或单一云提供商。更广泛地看,Gonka将AI计算视为基础设施,具有高效、可验证和全球分布的特性,而非由少数门控者控制的资源。

2. Gonka的工作量证明模型与Bittensor等其他去中心化AI项目有何不同?

主要区别在于每个网络定义的“工作”内容以及围绕其创造的价值方式。

许多去中心化AI项目,包括Bittensor,专注于模型或网络层面的协调。它们的激励机制通常由质押、委托或同行评估系统塑造,奖励和影响力并不总是与原始计算贡献成正比。这种方式在某些协调问题上有效,但未必能优化大规模、高效的AI计算基础设施。

Gonka采取不同路径。它是一个以计算为先的网络,“工作”被定义为可验证的AI计算。Gonka的工作量证明基于Transformer的PoW机制,衡量真实GPU工作量,而非资本投入或投机参与。投票权和奖励直接与验证的计算贡献挂钩,使激励与基础设施性能保持一致。

另一个关键区别是效率。在许多去中心化系统中,大部分可用计算资源被用于共识、验证或重复工作,这些工作在网络之外几乎没有价值。例如,在Bittensor等系统中,约60%的奖励用于质押,虽然对网络安全必要,但对AI计算贡献有限。Gonka的Sprint设计最大限度减少了这部分开销,几乎所有GPU资源都用于有意义的AI工作,主要是推理。

简单来说,像Bittensor这样的项目专注于协调智能,而Gonka则专注于为AI计算本身构建经济和基础设施基础。这些方法在堆栈的不同层面运作,Gonka的模型特别优化以服务硬件提供商和实际的AI工作负载。

3. 为什么Gonka选择专注于AI推理而非训练?

Gonka作为一个以计算为先的网络,其视角自然决定了我们从何处开始。

优先关注推理是顺序上的选择,而非限制。推理是当今大部分实际AI应用的核心,也是基础设施最明显的瓶颈。随着AI系统从试验阶段走向生产,持续推理变得昂贵、容量受限,并由中心化提供商严格控制。

从网络设计角度看,推理也是开始的最佳点。它让我们可以在真实的生产工作负载下验证Gonka的核心原则——可验证的计算、高效的资源分配和激励对齐。推理工作负载是连续的、可衡量的,非常适合去中心化环境,硬件利用率和效率尤为重要。

训练,尤其是在大规模时,是另一类具有自己协调动态和执行特性的难题。我们的重点是首先构建在真实需求下有效的基础设施,而推理已是当下需求的主要场景。未来,Gonka也计划引入训练,且网络会将所有推理收入的20%用于支持未来的模型训练。

4. Gonka如何验证矿工确实完成了他们声称的AI推理工作?

Gonka的验证机制直接嵌入网络的计算衡量和价值评估中。

推理任务在短时间段内(Sprint)执行。在每个Sprint中,节点被要求对随机初始化的Transformer模型进行推理。由于这些任务计算密集且不断变化,无法预先计算、模拟或复用之前的结果。唯一的有效方式是进行真实的计算。

网络通过验证输出是否符合实际运行模型的预期结果来检查结果。

为了保持效率,Gonka不会对每次计算都进行验证,而是持续验证部分结果,并对被怀疑伪造的节点增加检查频率。节点的奖励包括有用工作的费用,如果提交的结果未通过验证,则不支付奖励。这种方式降低了开销,同时确保提交虚假或伪造结果的行为不值得。

随着时间推移,持续提交正确结果的节点会被认定为可靠贡献者,获得更大的网络参与度。这一以验证真实计算为核心的原则,支撑了Gonka的激励和影响力。

5. OpenAI、Google和Microsoft控制着庞大的计算基础设施和成熟的客户群。Gonka在与这些巨头竞争中有什么优势?

挑战不在于技术本身,而在于计算访问的控制方式。

我们不认为Gonka是在与OpenAI、Google或Microsoft的传统意义上的竞争。它们构建并运营着一些世界上最先进的集中式AI系统,这些系统将继续扮演重要角色。

区别在于我们关注的堆栈层面。集中式提供商控制着庞大的基础设施,但这种控制伴随着权衡。访问计算资源受限,价格不透明,容量由内部优先级决定。对许多开发者和地区来说,这带来了波动、锁定和长期可预测性不足的问题。

Gonka设计为一种开放基础设施,而非服务。计算由去中心化的节点网络提供,供需关系决定其可用性。激励机制在网络层面上保持一致,奖励验证过的计算,鼓励持续优化基础设施。

这使Gonka具有竞争力,不是取代现有巨头,而是通过满足结构性不足的用例——需要开放性、可预测访问和基础设施透明度的工作负载——实现竞争。通过让硬件提供商在性能和效率上直接竞争,Gonka也推动AI计算成本下降,使更广泛的开发者、创业公司和地区都能负担得起。

6. 自2025年8月上线以来,Gonka已发展到2200名开发者和12,000 GPU等效容量。是什么推动了这种增长?

推动这种增长的不是短期的炒作,而是结构性的契合。

在供应端,节点在寻找替代那些未充分利用硬件的集中式模型。在需求端,开发者面临价格波动、容量限制和封闭API的困境。随着AI工作负载进入生产阶段,可预测性和访问性变得与性能同样重要。

随着越来越多的节点加入,无论是独立还是通过池((这又是一个更大的话题)),网络对开发者的价值也在增加。随着更多工作负载上线,持续的需求进一步吸引基础设施投资。这种反馈循环成为增长的主要驱动力。

增长速度反映出Gonka的激励机制与市场的实际需求高度契合。节点因有用的计算获得奖励,开发者获得可靠的推理容量,网络随着这些利益的相互强化而自然扩展。

这种协调大多在Gonka社区内公开进行,包括在Gonka Discord中的持续讨论。

7. Gonka最近从Bitfury获得了$50 百万美元的投资,同时保持去中心化治理模式。Gonka如何在机构资本与去中心化愿景之间取得平衡?

关键在于Gonka在协议层面本身就是去中心化的,而不仅仅是叙事上的。治理与真实、可验证的计算贡献挂钩,而非资本所有权。

近期来自Bitfury等机构合作伙伴的支持,并不意味着对网络的控制权。它们的参与反映了在构建大规模计算基础设施方面的丰富经验,但不赋予其在协议中的特殊权限。在Gonka中,资金本身不会转化为影响力。投资决策由Gonka社区投票决定,比如社区投票决定将GNK从社区池出售给Bitfury。

实际上,投票权和网络决策参与度取决于实际贡献的验证AI计算量。影响力通过真实工作增长:连接的GPU、持续的性能和在AI工作负载中的验证贡献。不能通过单纯的财务投资购买或获得,必须通过运营基础设施来赢得。这同样适用于个人、大型运营商和机构参与者。

这种分离是有意为之。机构资本可以加速早期发展、研究和生态系统成长,但去中心化由网络的激励和治理机制保障。没有任何参与者,无论机构还是个人,贡献的验证计算比例不足,就无法获得主导控制。

这种方式使Gonka既能与经验丰富的基础设施合作伙伴合作,又能坚持其核心原则:由提供算力的人治理,而非由资金提供者控制。

8. 如果AI推理变成商品化,价值通常流向控制模型的人,而非基础设施。Gonka如何实现可持续的长期价值?

这种模式主要存在于封闭生态系统中,少数公司控制模型、基础设施和访问。在这些系统中,价值不仅集中在控制权,还在利润空间,参与收益的企业股东范围有限。

目前,人们可以付费给OpenAI、Anthropic或其他提供商使用AI,但无法在AI计算的经济中直接参与或获益。无法直接参与或从这些系统背后的计算层获利。像Nvidia、Meta或Google这样的上市公司,只是作为更广泛业务的一部分提供AI敞口,而非作为独立的经济层面直接参与AI计算。因此,AI经济中增长最快的部分仍然大多封闭。

同时,虽然推理在表面上可能商品化,但计算本身并非如此。计算受硬件可用性、能源供应、地理位置和协调机制的限制。随着全球对推理需求的增长,瓶颈逐渐从模型转向对可靠、低成本大规模计算的访问,而这个瓶颈具有结构性价值。

这带来更广泛的经济影响。当计算访问集中时,整个地区被推入依赖状态,限制了本地创新、生产力增长和在AI经济中的参与。没有特权访问超大规模云或先进GPU的国家,只能作为服务使用AI,而无法自主构建或贡献其基础设施。

Gonka在协议层面围绕这一瓶颈构建。它不拥有模型,也不抽取租金,而是通过开放、无许可的规则协调计算的生产、验证和分配。GNK代表了对AI计算经济的直接参与,不是公司股权,而是与真实、可验证贡献挂钩的访问和影响力。

这种模型也改变了参与者的身份。硬件所有者,从大型运营商到小型GPU持有者,都可以直接贡献AI工作负载,并根据验证的计算获得收益,无论是独立操作还是通过池。开发者可以获得可预测、透明的计算访问,而无需被锁定在单一提供商或模糊的定价模型中。

更广泛地看,我们看到两种可能的未来:一种是大部分AI容量由少数公司和国家拥有控制,另一种是开放网络允许全球协调计算,价值流向真正贡献资源的人。Gonka为第二条路径而建。

同时,不应忽视开源模型的作用。从一开始,它们就是AI创新的核心驱动力,尤其是在开发者和创业公司中。我们相信,像Gonka这样的网络自然支持开源模型的发展和采用,通过提供可访问、可验证的计算,使智能保持开放、具有竞争力,而不被专有基础设施锁死。

9. 创始人认为去中心化基础设施必要的具体行业经验是什么?

我们的信念不是来自理论,而是来自多年来在分布式计算和在集中环境中大规模构建AI系统的实践经验。

在Snap以及后续的Product Science,我们从事生产AI系统工作,计算的获取直接决定了可以构建和部署的内容。我们看到,一旦AI变得商业关键,基础设施的决策就变得高度集中,控制也变得紧密。

最令人印象深刻的是,AI计算市场实际上高度集中。一小部分公司控制着先进GPU的访问、设定价格、定义容量限制,并决定哪些用例可行。这种集中不仅塑造市场,也塑造权力。对计算的控制日益决定了谁能参与AI创新。

我们还看到,这种集中不仅在经济层面,还涉及地理和主权。计算访问正变得区域受限,受能源供应、出口管制和国家基础设施战略的影响。实际上,这使得整个地区处于结构性依赖状态,限制了其构建竞争性AI生态的能力。

同时,我们也见证了去中心化系统在全球范围内成功协调物理基础设施的例子。比特币就是一个典型例子,不是作为金融资产,而是作为一个激励机制,围绕真实世界的硬件和能源进行协调。这种对比让问题变得清晰。

Gonka由此而生:如果AI计算成为基础设施,就需要一种开放、无许可且具有韧性的协调模型,而非由少数几方控制。

10. 在科技巨头不断升级其AI基础设施和能力的竞争环境中,Gonka需要做什么才能成功?

Gonka不需要超越或超支技术巨头来取得成功。它需要专注于堆栈的不同层面——那些集中式玩家难以结构性应对的层面。

大型科技公司将继续构建强大的AI基础设施。它们的系统优化于封闭生态、内部优先级和集中控制。这种模式非常高效,但也带来访问、定价和决策的集中。

为了让Gonka成功,网络必须持续提供基础设施层面的高效,确保大部分计算用于真实的AI工作负载,而非协议开销。激励机制必须与验证的计算工作紧密结合,使奖励和影响力随着真实贡献而增长,而非资本或投机。

同样重要的是,Gonka必须保持开放、无许可的架构,具有透明的协议规则。AI的计算正逐渐成为基础设施,就像工业时代的电力或早期互联网。在那些时刻,决定性的问题不是哪个公司有最好的产品,而是谁拥有基础电网的接入权,以及在什么条件下。

科技巨头将继续存在并发挥重要作用。Gonka的成功在于成为一种互补的基础设施层,限制过度集中,扩大全球访问,促使AI创新在更开放、去中心化的经济环境中成长。

VSN1.21%
查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)