GonkaはAI計算を分散化し、開発者やハードウェア提供者に予測可能で検証可能なアクセスを提供するとともに、中央集権的なクラウド大手の支配に挑戦することを目的としています。AI計算の管理が少数のクラウドプロバイダーやハードウェア大手に集中するにつれ、Gonkaは分散型で高効率なAIインフラに焦点を当てた新しいLayer-1ネットワークとして登場しました。プロジェクトの創設者は、計算をゲート付きサービスではなくオープンで検証可能なインフラとして扱うことで、Gonkaは世界中のAIリソースへのアクセスを解放し、今日の中央集権システムの構造的制約に挑戦できると信じています。### **1. Gonkaとは何であり、どのような問題を解決しますか?**Gonkaは高効率AI計算のためのL1分散型ネットワークであり、今日のAIブームの背後にある構造的な問題、すなわちAIの計算がどのように生産、配分、インセンティブ付けされるかに取り組んでいます。現在、AIの主なボトルネックはモデルではなく、計算の管理です。先進的なGPUは少数のハードウェアメーカーやハイパースケールクラウドプロバイダーに集中しており、AI計算は高価で不透明、地理的・政治的に制約されつつあります。米国と中国はチップ、エネルギー、データセンター容量の管理を急速に集中させており、他の多くの国々は依存状態に陥り、AI経済での競争力を制限されています。これはスタートアップや地域全体に影響します。開発者は価格変動や容量不足、ベンダーロックインに直面し、多くの国は基盤となるAIインフラへのアクセス制限により遅れをとるリスクがあります。Gonkaはこれをプロトコルレベルで再考します。計算を中央集権的な提供者が管理するゲート付きサービスとして扱うのではなく、すでに大規模な物理インフラをオープンなインセンティブを通じて調整可能であることを証明したシステムから着想を得ています。ビットコインがハードウェアとエネルギーのために示したように、Gonkaは同様の原則をAI計算に適用し、アプリケーション層ではなくプロトコル自体のレベルで行います。TransformerベースのProof-of-Workメカニズムを用いて、ネットワークはほぼすべてのGPUパワーを意味のあるAIワークロードに向けます。今日のこの作業は主にAI推論であり、将来的にはトレーニングも計画しています。ホストは資本配分や投機的メカニズムではなく、検証済みの計算貢献に基づいて報酬を得ます。そして、多くの分散システムとは異なり、計算は抽象的なセキュリティタスクや重複した合意作業に浪費されず、生産的に使用されます。開発者にとっては、閉じたAPIや単一のクラウドプロバイダーに依存せずに予測可能なAI計算アクセスを提供します。より広く見ると、GonkaはAI計算を少数のゲートキーパーによる管理資源ではなく、効率的で検証可能、かつグローバルに分散された基盤インフラとして扱います。### **2. GonkaのProof-of-Workモデルは、Bittensorなどの他の分散型AIプロジェクトとどのように異なりますか?**主な違いは、それぞれのネットワークが「作業」と定義する内容と、それに伴う価値の創出方法にあります。多くの分散型AIプロジェクト、例えばBittensorは、モデルやネットワークレベルでの調整に焦点を当てています。彼らのインセンティブはしばしばステーキング、委任、ピア評価システムによって形成されており、報酬や影響力は必ずしも生の計算貢献に比例しません。このアプローチは特定の調整問題には効果的ですが、大規模で効率的なAI計算インフラの最適化には必ずしも適していません。Gonkaは異なる道を取ります。計算を最優先としたネットワークとして、「作業」は検証可能なAI計算と定義されます。GonkaのProof-of-Workは、資本配分や投機的参加ではなく、実際のGPU作業を測定するTransformerベースのPoWメカニズムに基づいています。投票権と報酬は検証済みの計算貢献に直接結びつき、インセンティブを実インフラのパフォーマンスと一致させます。もう一つの重要な違いは効率性です。多くの分散システムでは、利用可能な計算のかなりの部分が合意形成、検証、または重複作業に消費され、ネットワーク外ではほとんど価値を生まないことがあります。例えばBittensorでは、報酬の約60%がステーキングに割り当てられていますが、これはネットワークの安全性には必要ですが、AI計算には寄与しません。GonkaのSprintベースの設計はこのオーバーヘッドを最小化し、ほぼすべてのGPUリソースを意味のあるAIワークロード、主に推論に向けることを可能にします。簡単に言えば、Bittensorのようなプロジェクトは知性の調整に焦点を当てているのに対し、GonkaはAI計算そのものの経済的・インフラ的基盤の構築に焦点を当てています。これらのアプローチはスタックの異なる層で動作し、Gonkaのモデルはハードウェア提供者や実世界のAIワークロードに最適化されています。### **3. なぜGonkaはトレーニングではなく推論に焦点を当てることを選んだのですか?**Gonkaは計算を最優先とするネットワークとして構築されており、その視点が自然とどこから始めるかを決めました。最初に推論に焦点を当てる決定は、シーケンスの問題であり制限ではありません。推論は今日の実世界のAI利用の大部分を占めており、インフラのボトルネックも最も顕著です。AIシステムが実験段階から本番運用に移行するにつれ、継続的な推論は高価で容量制約があり、中央集権的な提供者によって厳しく管理されます。ネットワーク設計の観点からも、推論は始めるのに適した場所です。これにより、Gonkaのコア原則—検証可能な計算、効率的なリソース配分、インセンティブの整合性—を実運用のワークロードの下で検証できます。推論ワークロードは継続的で測定可能であり、ハードウェアの利用と効率性が重要な分散環境に適しています。一方、より大規模なトレーニングは、調整のダイナミクスや実行特性が異なる問題のクラスです。私たちの焦点は、まず実需要に応えるインフラを構築することであり、その需要はすでに今日存在しています。将来的にはトレーニングも導入予定であり、推論収益の20%を将来のモデル訓練支援に充てます。### **4. Gonkaはどのようにしてマイナーが実際に行ったAI推論作業を行ったと検証しますか?**Gonkaの検証は、計算を測定し評価する方法に直接組み込まれています。推論タスクは、「スプリント」と呼ばれる短時間の期間中に実行されます。各スプリントで、ホストはランダムに初期化された大規模Transformerモデルに対して推論を行うよう求められます。これらのタスクは計算負荷が高く、継続的に変化するため、事前に計算したり、シミュレーションしたり、以前の結果から再利用したりすることはできません。正当な出力を生成する唯一の実用的な方法は、実際の計算を行うことです。ネットワークは、結果が実際にモデルを動かした場合に期待されるものと一致するかどうかを検証します。システムの効率性を保つために、Gonkaはすべての計算を再検証しません。代わりに、一部の結果を継続的に検証し、不正な結果を提出したと疑われる参加者の検査を強化します。ホストの報酬の一部は、有用な作業に対する手数料で構成されており、検証に合格しなかった作業には支払われません。このアプローチはオーバーヘッドを低く抑えつつ、不正または捏造された結果の提出を抑制します。時間とともに、正しい結果を一貫して提出するホストは信頼できる貢献者として認識され、ネットワーク内での参加度が高まります。この原則、すなわち実際の計算を証明されたものとして報いることは、Gonkaのインセンティブと影響力の両方の基盤となっています。### **5. OpenAI、Google、Microsoftは巨大な計算インフラと確立された顧客基盤を持っています。Gonkaがこれらの既存企業に対して競争力を持つ理由は何ですか?**課題は技術そのものではなく、計算へのアクセスがどのように管理されているかにあります。私たちはGonkaを、OpenAIやGoogle、Microsoftといった企業と従来の意味で競合させるものとは見ていません。彼らは世界で最も先進的な中央集権型AIスタックを構築・運用しており、それらのシステムは今後も重要な役割を果たし続けます。違いは、私たちが取り組むスタックの層にあります。中央集権的な提供者は巨大なインフラを管理していますが、その管理にはトレードオフがあります。計算へのアクセスはゲート付きで、価格は不透明、容量は内部の優先順位によって形作られています。多くの開発者や地域にとっては、これが変動性、ロックイン、長期的な予測性の制限につながっています。Gonkaはサービスではなくオープンなインフラとして設計されています。計算は分散型のホストネットワークによって供給され、利用可能性は実際の計算供給と需要によって決まります。インセンティブはネットワークレベルで整合し、検証済み計算を報酬し、継続的なインフラ最適化を促進します。これにより、Gonkaは既存の企業を置き換えるのではなく、構造的に十分にサービスされていないユースケース、オープン性、予測可能なアクセス、インフラの透明性を必要とするワークロードを可能にします。ハードウェア提供者が性能と効率性で直接競争する市場を作ることで、AI計算のコストも引き下げ、より多くの開発者、スタートアップ、地域にアクセスしやすくします。### **6. 2025年8月のローンチ以来、Gonkaは2,200人の開発者と12,000GPU相当の容量に成長しています。この採用を促進している要因は何ですか?**この採用を促進しているのは、一時的な熱狂ではなく、構造的な整合性です。供給側では、ホストはハードウェアを十分に活用できない中央集権モデルの代替を求めています。需要側では、開発者は価格変動や容量制約、閉じたAPIに直面しています。AIワークロードが本番運用に移行するにつれ、予測性とアクセスの重要性はパフォーマンスと同等かそれ以上になっています。より多くのホストが参加することで、独立してもプールを通じても((これは別の大きな話題です))、ネットワークは開発者にとってより有用になります。より多くのワークロードがオンラインになると、持続的な需要が生まれ、インフラのさらなる拡大を促します。このフィードバックループが採用の主な推進力です。採用のスピードは、Gonkaのインセンティブが市場の両側の実世界のニーズと整合していることを反映しています。ホストは有用な計算に報酬を得て、開発者は信頼できる推論容量にアクセスでき、これらの関心が相互に強化されることでネットワークは有機的に拡大します。この調整の多くは、Gonkaコミュニティ内でオープンに行われており、Gonka Discordでの継続的な議論も含まれます。### **7. Gonkaは最近、Bitfuryから$50 百万ドルの投資を受けながらも分散型ガバナンスモデルを維持しています。Gonkaはどのようにして機関投資資本と分散化のビジョンを両立させているのですか?**重要なのは、Gonkaはプロトコルレベルで意図的に分散型に設計されていることであり、単なる物語ではありません。ガバナンスは、資本所有ではなく、実際に検証された計算貢献に結びついています。Bitfuryのような機関投資家からの最近の支援は、ネットワークのコントロールを意味しません。彼らの関与は大規模な計算インフラ構築の深い経験を反映していますが、プロトコル内で特別な特権を与えるものではありません。Gonkaでは、資金調達自体が影響力に変わることはなく、投資に関する決定はGonkaコミュニティによる投票で行われ、GNKをコミュニティプールからBitfuryに売却することを選択しました。実際には、投票権とネットワーク決定への参加は、実際にどれだけ検証済みAI計算を貢献したかによって決まります。影響力は、実作業—接続されたGPU、持続的なパフォーマンス、AIワークロードへの貢献—を通じて成長します。これは、単に資金投資によって買収できるものではなく、インフラを運用して獲得すべきものです。個人、大規模運用者、機関投資家のいずれも、貢献した検証済み計算の割合に応じて影響力を得ます。この分離は意図的です。機関投資資本は、初期の開発、研究、エコシステムの成長を加速させることができますが、分散化はネットワークのインセンティブとガバナンスメカニズムによって強制されます。検証済み計算の相応のシェアを貢献しない参加者は、支配的なコントロールを得ることはできません。このアプローチにより、Gonkaは経験豊富なインフラパートナーと協力しつつ、コア原則を維持します。それは、「ネットワークはそれを動かす人々によってガバナンスされる」ということです。### **8. AI推論が商品化されると、価値は通常モデルを管理する者に流れ、インフラには流れなくなります。Gonkaはどのようにして持続可能な長期価値を獲得しますか?**そのパターンは、主に閉鎖的エコシステムにおいて成立します。そこでは、少数の企業がモデル、インフラ、アクセスを管理し、価値はコントロールとマージンに集中し、利益の取り分も限定的です。今日、人々はOpenAIやAnthropic、その他の提供者に支払ってAIを利用できますが、AI計算の経済圏に直接関与したり、利益を得たりすることはできません。これらのシステムの背後にある計算層に直接関与したり、利益を得たりする方法はありません。Nvidia、Meta、Googleのような上場企業は、AIへのエクスポージャーをより広範なビジネスの一部として提供しており、AI計算を独立した経済層として直接参加することはありません。その結果、AI経済の中で最も成長している部分の一つは、ほぼ閉鎖的なままです。同時に、推論は表面的には商品化されるかもしれませんが、計算はそうではありません。計算は、ハードウェアの供給、エネルギーアクセス、地理、調整によって制約されます。推論需要が世界的に拡大するにつれ、ボトルネックはモデルからアクセス可能で信頼性の高いコスト効率の良い計算へとシフトし、その構造的な価値が高まります。これには経済的な広範な意味もあります。計算へのアクセスが集中すると、地域全体が依存状態に追い込まれ、地域のイノベーション、生産性向上、AI経済への参加が制限されます。 ハイパースケールクラウドや先進的なGPUへの特権的アクセスを持たない国々は、AIをサービスとして消費するしかなく、構築や基盤インフラへの貢献はできません。Gonkaは、そのボトルネックをプロトコルレベルで構築しています。モデルを所有したり、収益を得たりするのではなく、計算の生成、検証、配分をオープンでパーミッションレスなルールを通じて調整します。GNKは、AI計算の経済に直接参加するものであり、企業の株式ではなく、実際の検証済み貢献に結びついたアクセスと影響力を表します。このモデルは、参加できる人を変えます。ハードウェア所有者は、大規模運用者から小規模GPU所有者まで、AIワークロードに直接貢献し、検証済み計算に基づいて報酬を得ることができます。個人や小規模運用者、機関投資家も、単一の提供者や不透明な価格モデルに縛られることなく、予測可能で透明な計算にアクセスできます。より広く見れば、二つの未来が浮かび上がります。一つは、多くのAI容量が少数の企業や国家によって所有・管理される未来、もう一つは、オープンネットワークが計算を世界的に調整し、価値が実際にリソースを提供した者に流れる未来です。Gonkaは後者の道に向けて構築されています。また、オープンソースモデルの役割も見逃せません。最初から、オープンソースはAIのイノベーションの重要な推進力であり、特に開発者やスタートアップの間でそうです。Gonkaのようなネットワークは、アクセス可能で検証可能な計算を提供することで、オープンなモデルの開発と採用を自然に支援し、知性をオープン、競争的に保ち、独自のインフラにロックされない状態を維持します。### **9. 創設者たちが分散型インフラが必要だと考えるに至った、AI業界での具体的な経験は何ですか?**私たちの確信は理論からではなく、分散計算の長年の経験と、大規模な中央集権環境内でAIシステムを構築した経験から来ています。SnapやProduct Scienceでの経験では、アクセスできる計算が直接、構築・展開できるものを決定していました。AIが商業的に重要になるとき、インフラの決定はどのように行われるか、そしてその決定がどれほど厳格に管理されるかを見てきました。最も印象的だったのは、AI計算市場が実際にどれほど集中しているかです。少数の企業が先進GPUへのアクセスを管理し、価格設定を行い、容量制限を設け、どのユースケースが実行可能かを決めています。この集中は、市場だけでなく、権力の構造も形成します。計算の管理は、誰がAIのイノベーションに参加できるかをますます決定づける要因となっています。また、この集中は経済だけでなく、地理や主権の面にも及びます。計算へのアクセスは地域的に制約されつつあり、エネルギー供給、輸出規制、国家のインフラ戦略に影響されます。実際、これにより地域全体が構造的に依存状態に追い込まれ、競争力のあるAIエコシステムを構築する能力が制限されます。同時に、私たちは分散型システムが物理インフラをグローバルに調整できることも見てきました。ビットコインはその明確な例であり、金融資産としてではなく、リアルなハードウェアとエネルギーに対してインセンティブを整合させるプロトコルです。その対比が問題を明らかにしました。Gonkaはその気づきから生まれました。もしAI計算が基盤的インフラになるなら、それはオープンでパーミッションレス、かつレジリエントな調整モデルを必要とします。少数のアクターによる管理ではなく。### **10. 競争の激しい環境で、テックジャイアントが継続的にAIインフラと能力をアップグレードし続ける中、Gonkaが成功するためには何が必要ですか?**Gonkaは、技術大手を上回る必要はありません。成功するには、スタックの異なる層に焦点を当て続ける必要があります。そこは、中央集権的なプレイヤーが構造的に対応しにくい層です。大手テクノロジー企業は、強力なAIインフラを引き続き構築し続けるでしょう。彼らのシステムは、閉じたエコシステム、内部優先事項、中央集権的な管理に最適化されています。そのモデルは非常に効率的ですが、アクセスや価格設定、意思決定を集中させる側面もあります。Gonkaが成功するためには、ネットワークは一貫してインフラレベルの効率性を提供し続ける必要があります。ほとんどの計算を、プロトコルのオーバーヘッドではなく、実際のAIワークロードに向けることです。インセンティブは、資本や投機ではなく、検証済みの計算作業に密接に結びついている必要があります。報酬と影響力は、実際の貢献に比例して拡大します。さらに重要なのは、Gonkaは透明なプロトコルレベルのルールを持つオープンでパーミッションレスなアーキテクチャを維持し続けることです。AIのための計算は、産業革命時の電力や、初期のインターネットのように、ますます基盤的なインフラになりつつあります。その時代の決定的な問いは、「どの会社が最良の製品を持っているか」ではなく、「誰が基盤の電力網にアクセスできるか」「どの条件下でアクセスできるか」でした。テクノロジー大手は今後も存在し続け、重要な役割を果たします。Gonkaは、過度な中央集権を抑制し、グローバルなアクセスを拡大し、AIイノベーションをよりオープンで分散型の経済環境で促進する補完的なインフラ層となることで成功します。
オープンAIインフラの構築:Gonkaの分散型コンピューティングに対するビジョンの内幕
GonkaはAI計算を分散化し、開発者やハードウェア提供者に予測可能で検証可能なアクセスを提供するとともに、中央集権的なクラウド大手の支配に挑戦することを目的としています。
AI計算の管理が少数のクラウドプロバイダーやハードウェア大手に集中するにつれ、Gonkaは分散型で高効率なAIインフラに焦点を当てた新しいLayer-1ネットワークとして登場しました。プロジェクトの創設者は、計算をゲート付きサービスではなくオープンで検証可能なインフラとして扱うことで、Gonkaは世界中のAIリソースへのアクセスを解放し、今日の中央集権システムの構造的制約に挑戦できると信じています。
1. Gonkaとは何であり、どのような問題を解決しますか?
Gonkaは高効率AI計算のためのL1分散型ネットワークであり、今日のAIブームの背後にある構造的な問題、すなわちAIの計算がどのように生産、配分、インセンティブ付けされるかに取り組んでいます。
現在、AIの主なボトルネックはモデルではなく、計算の管理です。先進的なGPUは少数のハードウェアメーカーやハイパースケールクラウドプロバイダーに集中しており、AI計算は高価で不透明、地理的・政治的に制約されつつあります。米国と中国はチップ、エネルギー、データセンター容量の管理を急速に集中させており、他の多くの国々は依存状態に陥り、AI経済での競争力を制限されています。
これはスタートアップや地域全体に影響します。開発者は価格変動や容量不足、ベンダーロックインに直面し、多くの国は基盤となるAIインフラへのアクセス制限により遅れをとるリスクがあります。
Gonkaはこれをプロトコルレベルで再考します。計算を中央集権的な提供者が管理するゲート付きサービスとして扱うのではなく、すでに大規模な物理インフラをオープンなインセンティブを通じて調整可能であることを証明したシステムから着想を得ています。ビットコインがハードウェアとエネルギーのために示したように、Gonkaは同様の原則をAI計算に適用し、アプリケーション層ではなくプロトコル自体のレベルで行います。
TransformerベースのProof-of-Workメカニズムを用いて、ネットワークはほぼすべてのGPUパワーを意味のあるAIワークロードに向けます。今日のこの作業は主にAI推論であり、将来的にはトレーニングも計画しています。ホストは資本配分や投機的メカニズムではなく、検証済みの計算貢献に基づいて報酬を得ます。そして、多くの分散システムとは異なり、計算は抽象的なセキュリティタスクや重複した合意作業に浪費されず、生産的に使用されます。
開発者にとっては、閉じたAPIや単一のクラウドプロバイダーに依存せずに予測可能なAI計算アクセスを提供します。より広く見ると、GonkaはAI計算を少数のゲートキーパーによる管理資源ではなく、効率的で検証可能、かつグローバルに分散された基盤インフラとして扱います。
2. GonkaのProof-of-Workモデルは、Bittensorなどの他の分散型AIプロジェクトとどのように異なりますか?
主な違いは、それぞれのネットワークが「作業」と定義する内容と、それに伴う価値の創出方法にあります。
多くの分散型AIプロジェクト、例えばBittensorは、モデルやネットワークレベルでの調整に焦点を当てています。彼らのインセンティブはしばしばステーキング、委任、ピア評価システムによって形成されており、報酬や影響力は必ずしも生の計算貢献に比例しません。このアプローチは特定の調整問題には効果的ですが、大規模で効率的なAI計算インフラの最適化には必ずしも適していません。
Gonkaは異なる道を取ります。計算を最優先としたネットワークとして、「作業」は検証可能なAI計算と定義されます。GonkaのProof-of-Workは、資本配分や投機的参加ではなく、実際のGPU作業を測定するTransformerベースのPoWメカニズムに基づいています。投票権と報酬は検証済みの計算貢献に直接結びつき、インセンティブを実インフラのパフォーマンスと一致させます。
もう一つの重要な違いは効率性です。多くの分散システムでは、利用可能な計算のかなりの部分が合意形成、検証、または重複作業に消費され、ネットワーク外ではほとんど価値を生まないことがあります。例えばBittensorでは、報酬の約60%がステーキングに割り当てられていますが、これはネットワークの安全性には必要ですが、AI計算には寄与しません。GonkaのSprintベースの設計はこのオーバーヘッドを最小化し、ほぼすべてのGPUリソースを意味のあるAIワークロード、主に推論に向けることを可能にします。
簡単に言えば、Bittensorのようなプロジェクトは知性の調整に焦点を当てているのに対し、GonkaはAI計算そのものの経済的・インフラ的基盤の構築に焦点を当てています。これらのアプローチはスタックの異なる層で動作し、Gonkaのモデルはハードウェア提供者や実世界のAIワークロードに最適化されています。
3. なぜGonkaはトレーニングではなく推論に焦点を当てることを選んだのですか?
Gonkaは計算を最優先とするネットワークとして構築されており、その視点が自然とどこから始めるかを決めました。
最初に推論に焦点を当てる決定は、シーケンスの問題であり制限ではありません。推論は今日の実世界のAI利用の大部分を占めており、インフラのボトルネックも最も顕著です。AIシステムが実験段階から本番運用に移行するにつれ、継続的な推論は高価で容量制約があり、中央集権的な提供者によって厳しく管理されます。
ネットワーク設計の観点からも、推論は始めるのに適した場所です。これにより、Gonkaのコア原則—検証可能な計算、効率的なリソース配分、インセンティブの整合性—を実運用のワークロードの下で検証できます。推論ワークロードは継続的で測定可能であり、ハードウェアの利用と効率性が重要な分散環境に適しています。
一方、より大規模なトレーニングは、調整のダイナミクスや実行特性が異なる問題のクラスです。私たちの焦点は、まず実需要に応えるインフラを構築することであり、その需要はすでに今日存在しています。将来的にはトレーニングも導入予定であり、推論収益の20%を将来のモデル訓練支援に充てます。
4. Gonkaはどのようにしてマイナーが実際に行ったAI推論作業を行ったと検証しますか?
Gonkaの検証は、計算を測定し評価する方法に直接組み込まれています。
推論タスクは、「スプリント」と呼ばれる短時間の期間中に実行されます。各スプリントで、ホストはランダムに初期化された大規模Transformerモデルに対して推論を行うよう求められます。これらのタスクは計算負荷が高く、継続的に変化するため、事前に計算したり、シミュレーションしたり、以前の結果から再利用したりすることはできません。正当な出力を生成する唯一の実用的な方法は、実際の計算を行うことです。
ネットワークは、結果が実際にモデルを動かした場合に期待されるものと一致するかどうかを検証します。
システムの効率性を保つために、Gonkaはすべての計算を再検証しません。代わりに、一部の結果を継続的に検証し、不正な結果を提出したと疑われる参加者の検査を強化します。ホストの報酬の一部は、有用な作業に対する手数料で構成されており、検証に合格しなかった作業には支払われません。このアプローチはオーバーヘッドを低く抑えつつ、不正または捏造された結果の提出を抑制します。
時間とともに、正しい結果を一貫して提出するホストは信頼できる貢献者として認識され、ネットワーク内での参加度が高まります。この原則、すなわち実際の計算を証明されたものとして報いることは、Gonkaのインセンティブと影響力の両方の基盤となっています。
5. OpenAI、Google、Microsoftは巨大な計算インフラと確立された顧客基盤を持っています。Gonkaがこれらの既存企業に対して競争力を持つ理由は何ですか?
課題は技術そのものではなく、計算へのアクセスがどのように管理されているかにあります。
私たちはGonkaを、OpenAIやGoogle、Microsoftといった企業と従来の意味で競合させるものとは見ていません。彼らは世界で最も先進的な中央集権型AIスタックを構築・運用しており、それらのシステムは今後も重要な役割を果たし続けます。
違いは、私たちが取り組むスタックの層にあります。中央集権的な提供者は巨大なインフラを管理していますが、その管理にはトレードオフがあります。計算へのアクセスはゲート付きで、価格は不透明、容量は内部の優先順位によって形作られています。多くの開発者や地域にとっては、これが変動性、ロックイン、長期的な予測性の制限につながっています。
Gonkaはサービスではなくオープンなインフラとして設計されています。計算は分散型のホストネットワークによって供給され、利用可能性は実際の計算供給と需要によって決まります。インセンティブはネットワークレベルで整合し、検証済み計算を報酬し、継続的なインフラ最適化を促進します。
これにより、Gonkaは既存の企業を置き換えるのではなく、構造的に十分にサービスされていないユースケース、オープン性、予測可能なアクセス、インフラの透明性を必要とするワークロードを可能にします。ハードウェア提供者が性能と効率性で直接競争する市場を作ることで、AI計算のコストも引き下げ、より多くの開発者、スタートアップ、地域にアクセスしやすくします。
6. 2025年8月のローンチ以来、Gonkaは2,200人の開発者と12,000GPU相当の容量に成長しています。この採用を促進している要因は何ですか?
この採用を促進しているのは、一時的な熱狂ではなく、構造的な整合性です。
供給側では、ホストはハードウェアを十分に活用できない中央集権モデルの代替を求めています。需要側では、開発者は価格変動や容量制約、閉じたAPIに直面しています。AIワークロードが本番運用に移行するにつれ、予測性とアクセスの重要性はパフォーマンスと同等かそれ以上になっています。
より多くのホストが参加することで、独立してもプールを通じても((これは別の大きな話題です))、ネットワークは開発者にとってより有用になります。より多くのワークロードがオンラインになると、持続的な需要が生まれ、インフラのさらなる拡大を促します。このフィードバックループが採用の主な推進力です。
採用のスピードは、Gonkaのインセンティブが市場の両側の実世界のニーズと整合していることを反映しています。ホストは有用な計算に報酬を得て、開発者は信頼できる推論容量にアクセスでき、これらの関心が相互に強化されることでネットワークは有機的に拡大します。
この調整の多くは、Gonkaコミュニティ内でオープンに行われており、Gonka Discordでの継続的な議論も含まれます。
7. Gonkaは最近、Bitfuryから$50 百万ドルの投資を受けながらも分散型ガバナンスモデルを維持しています。Gonkaはどのようにして機関投資資本と分散化のビジョンを両立させているのですか?
重要なのは、Gonkaはプロトコルレベルで意図的に分散型に設計されていることであり、単なる物語ではありません。ガバナンスは、資本所有ではなく、実際に検証された計算貢献に結びついています。
Bitfuryのような機関投資家からの最近の支援は、ネットワークのコントロールを意味しません。彼らの関与は大規模な計算インフラ構築の深い経験を反映していますが、プロトコル内で特別な特権を与えるものではありません。Gonkaでは、資金調達自体が影響力に変わることはなく、投資に関する決定はGonkaコミュニティによる投票で行われ、GNKをコミュニティプールからBitfuryに売却することを選択しました。
実際には、投票権とネットワーク決定への参加は、実際にどれだけ検証済みAI計算を貢献したかによって決まります。影響力は、実作業—接続されたGPU、持続的なパフォーマンス、AIワークロードへの貢献—を通じて成長します。これは、単に資金投資によって買収できるものではなく、インフラを運用して獲得すべきものです。個人、大規模運用者、機関投資家のいずれも、貢献した検証済み計算の割合に応じて影響力を得ます。
この分離は意図的です。機関投資資本は、初期の開発、研究、エコシステムの成長を加速させることができますが、分散化はネットワークのインセンティブとガバナンスメカニズムによって強制されます。検証済み計算の相応のシェアを貢献しない参加者は、支配的なコントロールを得ることはできません。
このアプローチにより、Gonkaは経験豊富なインフラパートナーと協力しつつ、コア原則を維持します。それは、「ネットワークはそれを動かす人々によってガバナンスされる」ということです。
8. AI推論が商品化されると、価値は通常モデルを管理する者に流れ、インフラには流れなくなります。Gonkaはどのようにして持続可能な長期価値を獲得しますか?
そのパターンは、主に閉鎖的エコシステムにおいて成立します。そこでは、少数の企業がモデル、インフラ、アクセスを管理し、価値はコントロールとマージンに集中し、利益の取り分も限定的です。
今日、人々はOpenAIやAnthropic、その他の提供者に支払ってAIを利用できますが、AI計算の経済圏に直接関与したり、利益を得たりすることはできません。これらのシステムの背後にある計算層に直接関与したり、利益を得たりする方法はありません。Nvidia、Meta、Googleのような上場企業は、AIへのエクスポージャーをより広範なビジネスの一部として提供しており、AI計算を独立した経済層として直接参加することはありません。その結果、AI経済の中で最も成長している部分の一つは、ほぼ閉鎖的なままです。
同時に、推論は表面的には商品化されるかもしれませんが、計算はそうではありません。計算は、ハードウェアの供給、エネルギーアクセス、地理、調整によって制約されます。推論需要が世界的に拡大するにつれ、ボトルネックはモデルからアクセス可能で信頼性の高いコスト効率の良い計算へとシフトし、その構造的な価値が高まります。
これには経済的な広範な意味もあります。計算へのアクセスが集中すると、地域全体が依存状態に追い込まれ、地域のイノベーション、生産性向上、AI経済への参加が制限されます。
ハイパースケールクラウドや先進的なGPUへの特権的アクセスを持たない国々は、AIをサービスとして消費するしかなく、構築や基盤インフラへの貢献はできません。
Gonkaは、そのボトルネックをプロトコルレベルで構築しています。モデルを所有したり、収益を得たりするのではなく、計算の生成、検証、配分をオープンでパーミッションレスなルールを通じて調整します。GNKは、AI計算の経済に直接参加するものであり、企業の株式ではなく、実際の検証済み貢献に結びついたアクセスと影響力を表します。
このモデルは、参加できる人を変えます。ハードウェア所有者は、大規模運用者から小規模GPU所有者まで、AIワークロードに直接貢献し、検証済み計算に基づいて報酬を得ることができます。個人や小規模運用者、機関投資家も、単一の提供者や不透明な価格モデルに縛られることなく、予測可能で透明な計算にアクセスできます。
より広く見れば、二つの未来が浮かび上がります。一つは、多くのAI容量が少数の企業や国家によって所有・管理される未来、もう一つは、オープンネットワークが計算を世界的に調整し、価値が実際にリソースを提供した者に流れる未来です。Gonkaは後者の道に向けて構築されています。
また、オープンソースモデルの役割も見逃せません。最初から、オープンソースはAIのイノベーションの重要な推進力であり、特に開発者やスタートアップの間でそうです。Gonkaのようなネットワークは、アクセス可能で検証可能な計算を提供することで、オープンなモデルの開発と採用を自然に支援し、知性をオープン、競争的に保ち、独自のインフラにロックされない状態を維持します。
9. 創設者たちが分散型インフラが必要だと考えるに至った、AI業界での具体的な経験は何ですか?
私たちの確信は理論からではなく、分散計算の長年の経験と、大規模な中央集権環境内でAIシステムを構築した経験から来ています。
SnapやProduct Scienceでの経験では、アクセスできる計算が直接、構築・展開できるものを決定していました。AIが商業的に重要になるとき、インフラの決定はどのように行われるか、そしてその決定がどれほど厳格に管理されるかを見てきました。
最も印象的だったのは、AI計算市場が実際にどれほど集中しているかです。少数の企業が先進GPUへのアクセスを管理し、価格設定を行い、容量制限を設け、どのユースケースが実行可能かを決めています。この集中は、市場だけでなく、権力の構造も形成します。計算の管理は、誰がAIのイノベーションに参加できるかをますます決定づける要因となっています。
また、この集中は経済だけでなく、地理や主権の面にも及びます。計算へのアクセスは地域的に制約されつつあり、エネルギー供給、輸出規制、国家のインフラ戦略に影響されます。実際、これにより地域全体が構造的に依存状態に追い込まれ、競争力のあるAIエコシステムを構築する能力が制限されます。
同時に、私たちは分散型システムが物理インフラをグローバルに調整できることも見てきました。ビットコインはその明確な例であり、金融資産としてではなく、リアルなハードウェアとエネルギーに対してインセンティブを整合させるプロトコルです。その対比が問題を明らかにしました。
Gonkaはその気づきから生まれました。もしAI計算が基盤的インフラになるなら、それはオープンでパーミッションレス、かつレジリエントな調整モデルを必要とします。少数のアクターによる管理ではなく。
10. 競争の激しい環境で、テックジャイアントが継続的にAIインフラと能力をアップグレードし続ける中、Gonkaが成功するためには何が必要ですか?
Gonkaは、技術大手を上回る必要はありません。成功するには、スタックの異なる層に焦点を当て続ける必要があります。そこは、中央集権的なプレイヤーが構造的に対応しにくい層です。
大手テクノロジー企業は、強力なAIインフラを引き続き構築し続けるでしょう。彼らのシステムは、閉じたエコシステム、内部優先事項、中央集権的な管理に最適化されています。そのモデルは非常に効率的ですが、アクセスや価格設定、意思決定を集中させる側面もあります。
Gonkaが成功するためには、ネットワークは一貫してインフラレベルの効率性を提供し続ける必要があります。ほとんどの計算を、プロトコルのオーバーヘッドではなく、実際のAIワークロードに向けることです。インセンティブは、資本や投機ではなく、検証済みの計算作業に密接に結びついている必要があります。報酬と影響力は、実際の貢献に比例して拡大します。
さらに重要なのは、Gonkaは透明なプロトコルレベルのルールを持つオープンでパーミッションレスなアーキテクチャを維持し続けることです。AIのための計算は、産業革命時の電力や、初期のインターネットのように、ますます基盤的なインフラになりつつあります。その時代の決定的な問いは、「どの会社が最良の製品を持っているか」ではなく、「誰が基盤の電力網にアクセスできるか」「どの条件下でアクセスできるか」でした。
テクノロジー大手は今後も存在し続け、重要な役割を果たします。Gonkaは、過度な中央集権を抑制し、グローバルなアクセスを拡大し、AIイノベーションをよりオープンで分散型の経済環境で促進する補完的なインフラ層となることで成功します。