Gonka vise à décentraliser le calcul AI, offrant aux développeurs et aux fournisseurs de matériel un accès prévisible et vérifiable tout en remettant en question la domination des géants du cloud centralisés.
Alors que le contrôle sur le calcul AI devient de plus en plus concentré entre les mains de quelques fournisseurs de cloud et géants du matériel, Gonka a émergé comme un nouveau réseau Layer-1 axé sur une infrastructure AI décentralisée et à haute efficacité. Le fondateur du projet croit qu’en traitant le calcul comme une infrastructure ouverte et vérifiable plutôt qu’un service fermé, Gonka peut débloquer un accès mondial aux ressources AI et remettre en cause les limitations structurelles des systèmes centralisés actuels.
1. Qu’est-ce que Gonka, et quel problème résout-il ?
Gonka est un réseau décentralisé de niveau 1 pour un calcul AI à haute efficacité, conçu pour répondre à un problème structurel sous le boom actuel de l’IA : comment le calcul pour l’IA est produit, alloué et incité.
Aujourd’hui, le principal goulot d’étranglement dans l’IA n’est plus les modèles, mais le contrôle du calcul. Les GPU avancés sont fortement concentrés chez un petit nombre de fabricants de matériel et de fournisseurs de cloud hyperscale, rendant le calcul AI coûteux, opaque, et de plus en plus contraint par la géographie et la politique. Les États-Unis et la Chine consolidant rapidement leur contrôle sur les puces, l’énergie et la capacité des centres de données, laissent une grande partie du reste du monde dans une position dépendante et limitent sa capacité à concurrencer dans l’économie de l’IA.
Cela affecte à la fois les startups et les régions entières. Les développeurs font face à une volatilité des prix, des pénuries de capacité, et un verrouillage par les fournisseurs, tandis que de nombreux pays risquent de prendre du retard en raison d’un accès restreint à l’infrastructure AI fondamentale.
Gonka repense cela au niveau du protocole. Au lieu de traiter le calcul comme un service fermé contrôlé par des fournisseurs centralisés, nous nous sommes inspirés de systèmes qui ont déjà prouvé qu’il est possible de coordonner une infrastructure physique à grande échelle via des incitations ouvertes. Tout comme Bitcoin a démontré pour le matériel et l’énergie, Gonka applique des principes similaires au calcul AI, non pas au niveau de l’application, mais au niveau même du protocole.
En utilisant un mécanisme de preuve de travail basé sur Transformer, le réseau dirige presque toute la puissance GPU disponible vers des charges de travail AI significatives. Aujourd’hui, ce travail concerne principalement l’inférence AI, avec la formation prévue pour l’avenir. Les hôtes gagnent des récompenses basées sur leur contribution computationnelle vérifiée, plutôt que sur l’allocation de capital ou des mécanismes spéculatifs. Et contrairement à de nombreux systèmes décentralisés, le calcul n’est pas brûlé sur des tâches de sécurité abstraites ou du travail de consensus dupliqué, il est utilisé de manière productive.
Pour les développeurs, cela offre un accès prévisible au calcul AI sans dépendre d’API fermées ou d’un seul fournisseur cloud. Plus largement, Gonka considère le calcul AI comme une infrastructure fondamentale, efficace, vérifiable et distribuée mondialement, plutôt qu’une ressource contrôlée par quelques gardiens.
2. En quoi le modèle de preuve de travail de Gonka diffère-t-il d’autres projets d’IA décentralisée comme Bittensor ?
La principale différence réside dans ce que chaque réseau définit comme « travail » et comment la valeur est créée autour.
De nombreux projets d’IA décentralisée, y compris Bittensor, se concentrent sur la coordination au niveau du modèle ou du réseau. Leurs incitations sont souvent façonnées par le staking, la délégation ou des systèmes d’évaluation par pairs, où les récompenses et l’influence ne sont pas toujours directement proportionnels à la contribution brute en calcul. Cette approche peut être efficace pour certains problèmes de coordination, mais elle n’optimise pas nécessairement pour une infrastructure de calcul AI à grande échelle et efficace.
Gonka adopte une voie différente. Elle est conçue comme un réseau axé sur le calcul, où « travail » est défini comme une computation AI vérifiable. La preuve de travail dans Gonka repose sur un mécanisme PoW basé sur Transformer qui mesure le vrai travail GPU, plutôt que l’allocation de capital ou la participation spéculative. Le pouvoir de vote et les récompenses sont directement liés à la contribution computationnelle vérifiée, alignant ainsi les incitations avec la performance réelle de l’infrastructure.
Une autre distinction clé est l’efficacité. Dans de nombreux systèmes décentralisés, une part importante du calcul disponible est consommée par le consensus, la validation ou du travail dupliqué qui a peu de valeur hors du réseau. Par exemple, dans des systèmes comme Bittensor, environ 60 % des récompenses sont allouées au staking, ce qui, bien que nécessaire pour la sécurité du réseau, ne contribue pas au calcul AI. La conception Sprint de Gonka minimise cette surcharge, permettant que presque toutes les ressources GPU disponibles soient dirigées vers des charges de travail AI significatives, principalement l’inférence.
En termes simples, des projets comme Bittensor se concentrent sur la coordination de l’intelligence. Gonka se concentre sur la construction de la fondation économique et infrastructurelle pour le calcul AI lui-même. Ces approches opèrent à différents niveaux de la pile, et le modèle de Gonka est intentionnellement optimisé pour les fournisseurs de matériel et les charges de travail AI réelles.
3. Pourquoi Gonka a-t-elle choisi de se concentrer sur l’inférence AI plutôt que sur la formation ?
Gonka est conçue comme un réseau axé sur le calcul, et cette perspective façonne naturellement notre point de départ.
La décision de se concentrer d’abord sur l’inférence était une question de séquencement, pas de limitation. L’inférence est là où la majorité de l’utilisation réelle de l’IA se produit aujourd’hui, et c’est aussi là que les goulots d’étranglement infrastructurels sont les plus visibles. À mesure que les systèmes d’IA passent de l’expérimentation à la production, l’inférence continue devient coûteuse, limitée en capacité, et étroitement contrôlée par des fournisseurs centralisés.
D’un point de vue de conception du réseau, l’inférence est aussi le bon point de départ. Elle nous permet de valider les principes fondamentaux de Gonka – calcul vérifiable, allocation efficace des ressources, et alignement des incitations – dans des charges de travail de production réelles. Les charges d’inférence sont continues, mesurables, et bien adaptées à un environnement décentralisé où l’utilisation du matériel et l’efficacité comptent.
La formation, surtout à grande échelle, est une classe de problème différente avec ses propres dynamiques de coordination et caractéristiques d’exécution. Notre objectif est de construire une infrastructure qui fonctionne sous une demande réelle dès le départ, et l’inférence est là où ces demandes sont déjà présentes aujourd’hui. Mais Gonka prévoit d’introduire la formation à l’avenir, et le réseau dédie 20 % de tous les revenus d’inférence pour soutenir la formation de futurs modèles.
4. Comment Gonka vérifie-t-elle que les mineurs effectuent réellement le travail d’inférence AI qu’ils prétendent avoir accompli ?
La vérification dans Gonka est intégrée directement dans la façon dont le réseau mesure et valorise le calcul.
Les tâches d’inférence sont exécutées lors de périodes courtes et limitées dans le temps appelées Sprint. À chaque Sprint, les Hôtes sont invités à faire de l’inférence sur de grands modèles Transformer initialisés aléatoirement pour chaque cycle. Parce que ces tâches sont intensives en calcul et changent en permanence, elles ne peuvent pas être pré-calculées, simulées ou réutilisées d’un cycle à l’autre. La seule façon pratique de produire des résultats valides est d’effectuer le vrai calcul.
Le réseau vérifie les résultats en validant si les sorties correspondent à ce qui serait attendu en exécutant réellement le modèle
Pour maintenir l’efficacité du système, Gonka ne vérifie pas chaque calcul. Elle vérifie une partie des résultats en continu et augmente la fréquence des vérifications pour les participants suspectés de falsification. Une partie des récompenses des Hôtes consiste en des frais pour un travail utile. Ces frais ne sont pas versés si le travail effectué n’a pas passé la validation. Cette approche maintient les coûts faibles tout en s’assurant que soumettre des résultats incorrects ou falsifiés n’en vaut pas la peine.
Au fil du temps, les Hôtes qui soumettent constamment des résultats corrects sont reconnus comme des contributeurs fiables et gagnent une participation accrue au sein du réseau. Ce même principe, qui récompense la vraie computation, sous-tend à la fois les incitations et l’influence dans Gonka.
5. OpenAI, Google et Microsoft contrôlent une infrastructure de calcul massive avec des bases clients établies. Qu’est-ce qui rend Gonka compétitive face à ces incumbents ?
Le défi ne réside pas dans la technologie elle-même, mais dans la façon dont l’accès au calcul est contrôlé.
Nous ne voyons pas Gonka comme en compétition directe avec des entreprises comme OpenAI, Google ou Microsoft. Elles construisent et exploitent certains des stacks d’IA centralisés les plus avancés au monde, et ces systèmes continueront à jouer un rôle majeur.
La différence réside dans la couche de la pile que nous abordons. Les fournisseurs centralisés contrôlent une infrastructure massive, mais ce contrôle a ses compromis. L’accès au calcul est fermé, les prix sont opaques, et la capacité est façonnée par des priorités internes. Pour de nombreux développeurs et régions, cela entraîne volatilité, verrouillage, et une prévisibilité limitée à long terme.
Gonka est conçue comme une infrastructure ouverte plutôt qu’un service. Le calcul est fourni par un réseau décentralisé d’Hôtes, et la disponibilité est façonnée par l’offre et la demande réelles en calcul. Les incitations sont alignées au niveau du réseau, récompensant le calcul vérifié et encourageant l’optimisation continue de l’infrastructure.
Cela rend Gonka compétitive non pas en remplaçant les incumbents, mais en permettant des cas d’usage qui sont structurellement sous-desservis par les plateformes centralisées, des charges de travail nécessitant ouverture, accès prévisible, et transparence au niveau de l’infrastructure. En créant un marché où les fournisseurs de matériel rivalisent directement sur la performance et l’efficacité, Gonka contribue aussi à réduire le coût du calcul AI, le rendant accessible à un éventail beaucoup plus large de développeurs, startups et régions.
6. Depuis son lancement en août 2025, Gonka a atteint 2 200 développeurs et une capacité équivalente à 12 000 GPU. Qu’est-ce qui explique cette adoption ?
Ce qui motive cette adoption, ce n’est pas le battage à court terme, mais l’alignement structurel.
Du côté de l’offre, les Hôtes recherchent des alternatives aux modèles centralisés qui sous-utilisent leur matériel. Du côté de la demande, les développeurs font face à la volatilité des prix, aux contraintes de capacité, et aux API fermées des fournisseurs centralisés. À mesure que les charges de travail AI passent en production, la prévisibilité et l’accès deviennent aussi importants que la performance brute.
À mesure que davantage d’Hôtes rejoignent, que ce soit de façon indépendante ou via des pools (ce qui est un sujet plus vaste), le réseau devient plus utile pour les développeurs. Avec l’arrivée de plus de charges de travail, cela crée une demande soutenue qui attire encore plus d’infrastructure. Cette boucle de rétroaction a été le principal moteur de l’adoption.
Le rythme de cette adoption reflète le fait que les incitations de Gonka sont alignées avec les besoins réels du marché des deux côtés. Les Hôtes sont récompensés pour un calcul utile, les développeurs obtiennent un accès fiable à la capacité d’inférence, et le réseau se développe de manière organique à mesure que ces intérêts se renforcent mutuellement.
Une grande partie de cette coordination se fait de manière ouverte au sein de la communauté Gonka, y compris dans les discussions continues sur le Discord de Gonka.
7. Gonka a récemment obtenu un investissement de $50 millions de dollars de Bitfury tout en conservant un modèle de gouvernance décentralisé. Comment Gonka équilibre-t-elle capital institutionnel et sa vision de décentralisation ?
L’essentiel est que Gonka est décentralisée par conception au niveau du protocole, pas seulement en discours. La gouvernance du réseau est liée à une contribution computationnelle réelle et vérifiable plutôt qu’à la détention de capitaux.
Le soutien récent d’un partenaire institutionnel comme Bitfury ne se traduit pas par un contrôle sur le réseau. Leur implication reflète une expérience approfondie dans la construction d’infrastructures de calcul à grande échelle, mais elle ne confère pas de privilèges spéciaux dans le protocole. Dans Gonka, le financement lui-même ne se traduit pas en influence. Les décisions d’investissement sont prises par la communauté Gonka, qui a voté pour vendre du GNK du pool communautaire à Bitfury.
En pratique, le pouvoir de vote et la participation aux décisions du réseau sont déterminés par la quantité de calcul AI vérifié qu’un participant contribue réellement. L’influence croît par le travail réel : GPU connectés, performance soutenue, contribution prouvée aux charges AI. Elle ne peut pas être achetée ou acquise uniquement par un investissement financier ; elle doit être gagnée en opérant l’infrastructure. Cela s’applique aussi bien aux individus, qu’aux grands opérateurs ou aux participants institutionnels.
Cette séparation est intentionnelle. Le capital institutionnel peut accélérer le développement initial, la recherche et la croissance de l’écosystème, mais la décentralisation est assurée par les mécanismes d’incitation et de gouvernance du réseau. Aucun participant, institutionnel ou autre, ne peut obtenir un contrôle dominant sans contribuer une part proportionnelle de calcul vérifié.
Cette approche permet à Gonka de collaborer avec des partenaires infrastructure expérimentés tout en conservant son principe fondamental : le réseau est gouverné par ceux qui le font fonctionner, pas par ceux qui le financent.
8. Si l’inférence AI devient une commodité, la valeur circule généralement vers ceux qui contrôlent les modèles, pas l’infrastructure. Comment Gonka capte-t-elle une valeur durable à long terme ?
Ce schéma est principalement valable dans des écosystèmes fermés, où les mêmes quelques entreprises contrôlent modèles, infrastructure et accès. Dans ces systèmes, la valeur se concentre non seulement dans le contrôle, mais aussi dans les marges, et la participation à la plus-value est limitée à un petit nombre d’actionnaires corporatifs.
Aujourd’hui, les gens peuvent payer OpenAI, Anthropic ou d’autres fournisseurs pour utiliser l’IA, mais ils ne peuvent pas participer de manière significative à l’économie du calcul AI lui-même. Il n’y a pas de moyen d’interagir directement avec ou de bénéficier de la couche de calcul derrière ces systèmes. Les entreprises publiques comme Nvidia, Meta ou Google offrent une exposition à l’IA uniquement dans le cadre d’activités beaucoup plus larges, et non comme une couche économique autonome de calcul AI. En conséquence, une des parties à croissance la plus rapide de l’économie de l’IA reste largement fermée.
Par ailleurs, si l’inférence peut se commodifier à la surface, le calcul lui-même ne le peut pas. Le calcul est limité par la disponibilité du matériel, l’accès à l’énergie, la géographie et la coordination. À mesure que la demande d’inférence s’étend mondialement, le goulot d’étranglement se déplace de plus en plus des modèles vers l’accès à un calcul fiable, à faible coût et à grande échelle, et ce goulot devient structurellement précieux.
Cela a des implications économiques plus larges. Lorsque l’accès au calcul est concentré, des régions entières se retrouvent dans une position dépendante, limitant l’innovation locale, la croissance de la productivité et la participation à l’économie de l’IA.
Les pays sans accès privilégié aux clouds hyperscale ou aux GPU avancés sont contraints de consommer l’IA comme un service, plutôt que de la construire ou de contribuer à son infrastructure sous-jacente.
Gonka est construite autour de ce goulot au niveau du protocole. Au lieu de posséder des modèles ou d’extraire des rentes, le réseau coordonne la production, la vérification et l’allocation du calcul via des règles ouvertes et sans permission. GNK représente une participation directe à l’économie du calcul AI lui-même, pas une participation en actions dans une entreprise, mais un accès et une influence liés à une contribution réelle et vérifiable.
Ce modèle modifie aussi qui peut participer. Les propriétaires de matériel, qu’ils soient grands opérateurs ou petits détenteurs de GPU, peuvent contribuer directement aux charges de travail AI et gagner en fonction du calcul vérifié, que ce soit de façon indépendante ou via des pools. Les développeurs ont accès à un calcul prévisible et transparent sans être enfermés dans un seul fournisseur ou des modèles de prix opaques.
Plus largement, deux futurs possibles émergent. L’un où la majorité de la capacité AI est détenue et contrôlée par quelques entreprises et États, et un autre où des réseaux ouverts permettent de coordonner le calcul à l’échelle mondiale, avec une valeur qui circule vers ceux qui contribuent réellement des ressources. Gonka est construite pour le second chemin.
Il ne faut pas non plus négliger le rôle des modèles open-source. Depuis le début, ils ont été un moteur clé d’innovation en IA, notamment chez les développeurs et startups. Nous croyons que des réseaux comme Gonka soutiennent naturellement le développement et l’adoption de modèles ouverts en fournissant un calcul accessible et vérifiable, permettant à l’intelligence de rester ouverte, compétitive, et non verrouillée derrière une infrastructure propriétaire.
9. Quelle expérience spécifique dans l’industrie de l’IA a conduit les fondateurs à penser qu’une infrastructure décentralisée était nécessaire ?
Notre conviction ne vient pas de la théorie, mais de plusieurs années de travail avec le calcul distribué et de la construction de systèmes d’IA dans des environnements centralisés à grande échelle.
Chez Snap et plus tard via Product Science, nous avons travaillé sur des systèmes d’IA en production où l’accès au calcul déterminait directement ce qui pouvait être construit et déployé. Nous avons vu comment les décisions d’infrastructure sont prises une fois que l’IA devient critique pour le commerce, et à quel point ces décisions deviennent étroitement contrôlées.
Ce qui ressortait le plus, c’est à quel point le marché du calcul AI est concentré. Un petit nombre de sociétés contrôlent l’accès aux GPU avancés, fixent les prix, définissent les limites de capacité, et décident quels cas d’usage sont viables. Cette concentration ne façonne pas seulement les marchés ; elle façonne le pouvoir. Le contrôle du calcul détermine de plus en plus qui peut participer à l’innovation en IA.
Nous avons aussi constaté que cette concentration dépasse l’économie pour toucher la géographie et la souveraineté. L’accès au calcul devient régional, influencé par la disponibilité énergétique, les contrôles à l’export, et les stratégies d’infrastructure nationale. En pratique, cela met en position dépendante des régions entières, limitant leur capacité à bâtir des écosystèmes IA compétitifs.
Parallèlement, nous avions vu des systèmes décentralisés coordonner avec succès une infrastructure physique à l’échelle mondiale. Bitcoin en est un exemple clair, non pas comme un actif financier, mais comme un protocole alignant les incitations autour du matériel et de l’énergie réels. Ce contraste a rendu le problème évident.
Gonka est née de cette prise de conscience : si le calcul AI devient une infrastructure fondamentale, il lui faut un modèle de coordination ouvert, sans permission, et résilient, et non contrôlé par une poignée d’acteurs.
10. Que doit-il se passer pour que Gonka réussisse dans un paysage concurrentiel où les géants technologiques améliorent continuellement leur propre infrastructure et capacités AI ?
Gonka n’a pas besoin de surpasser ou de dépenser plus que les géants technologiques pour réussir. Elle doit rester concentrée sur une couche différente de la pile, celle que les acteurs centralisés sont structurellement moins aptes à adresser.
Les grandes entreprises technologiques continueront à construire des infrastructures AI puissantes. Leurs systèmes sont optimisés pour des écosystèmes fermés, des priorités internes, et un contrôle centralisé. Ce modèle peut être très efficace, mais il concentre aussi l’accès, le pouvoir de fixation des prix, et la prise de décision.
Pour que Gonka réussisse, le réseau doit constamment fournir une efficacité au niveau de l’infrastructure, en s’assurant que la majorité du calcul est dirigée vers des charges de travail AI réelles plutôt que vers le surcoût du protocole. Les incitations doivent rester étroitement liées au travail computationnel vérifié, de façon à ce que les récompenses et l’influence évoluent avec la contribution réelle, et non avec le capital ou la spéculation.
Plus important encore, Gonka doit préserver une architecture ouverte, sans permission, avec des règles de protocole transparentes. Le calcul pour l’IA devient de plus en plus une infrastructure fondamentale, semblable à l’électricité à l’époque industrielle ou à Internet dans ses premières années. À ces moments-là, la question déterminante n’était pas quelle entreprise avait le meilleur produit, mais qui avait accès au réseau sous-jacent, et dans quelles conditions.
Les géants technologiques continueront d’exister et de jouer un rôle important. Gonka réussira si elle devient une couche d’infrastructure complémentaire, qui limite la centralisation excessive, étend l’accès mondial, et permet à l’innovation en IA de croître dans un environnement économique plus ouvert et décentralisé.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Construire une infrastructure d'IA ouverte : Inside Gonka’s vision for decentralized compute
Gonka vise à décentraliser le calcul AI, offrant aux développeurs et aux fournisseurs de matériel un accès prévisible et vérifiable tout en remettant en question la domination des géants du cloud centralisés.
Alors que le contrôle sur le calcul AI devient de plus en plus concentré entre les mains de quelques fournisseurs de cloud et géants du matériel, Gonka a émergé comme un nouveau réseau Layer-1 axé sur une infrastructure AI décentralisée et à haute efficacité. Le fondateur du projet croit qu’en traitant le calcul comme une infrastructure ouverte et vérifiable plutôt qu’un service fermé, Gonka peut débloquer un accès mondial aux ressources AI et remettre en cause les limitations structurelles des systèmes centralisés actuels.
1. Qu’est-ce que Gonka, et quel problème résout-il ?
Gonka est un réseau décentralisé de niveau 1 pour un calcul AI à haute efficacité, conçu pour répondre à un problème structurel sous le boom actuel de l’IA : comment le calcul pour l’IA est produit, alloué et incité.
Aujourd’hui, le principal goulot d’étranglement dans l’IA n’est plus les modèles, mais le contrôle du calcul. Les GPU avancés sont fortement concentrés chez un petit nombre de fabricants de matériel et de fournisseurs de cloud hyperscale, rendant le calcul AI coûteux, opaque, et de plus en plus contraint par la géographie et la politique. Les États-Unis et la Chine consolidant rapidement leur contrôle sur les puces, l’énergie et la capacité des centres de données, laissent une grande partie du reste du monde dans une position dépendante et limitent sa capacité à concurrencer dans l’économie de l’IA.
Cela affecte à la fois les startups et les régions entières. Les développeurs font face à une volatilité des prix, des pénuries de capacité, et un verrouillage par les fournisseurs, tandis que de nombreux pays risquent de prendre du retard en raison d’un accès restreint à l’infrastructure AI fondamentale.
Gonka repense cela au niveau du protocole. Au lieu de traiter le calcul comme un service fermé contrôlé par des fournisseurs centralisés, nous nous sommes inspirés de systèmes qui ont déjà prouvé qu’il est possible de coordonner une infrastructure physique à grande échelle via des incitations ouvertes. Tout comme Bitcoin a démontré pour le matériel et l’énergie, Gonka applique des principes similaires au calcul AI, non pas au niveau de l’application, mais au niveau même du protocole.
En utilisant un mécanisme de preuve de travail basé sur Transformer, le réseau dirige presque toute la puissance GPU disponible vers des charges de travail AI significatives. Aujourd’hui, ce travail concerne principalement l’inférence AI, avec la formation prévue pour l’avenir. Les hôtes gagnent des récompenses basées sur leur contribution computationnelle vérifiée, plutôt que sur l’allocation de capital ou des mécanismes spéculatifs. Et contrairement à de nombreux systèmes décentralisés, le calcul n’est pas brûlé sur des tâches de sécurité abstraites ou du travail de consensus dupliqué, il est utilisé de manière productive.
Pour les développeurs, cela offre un accès prévisible au calcul AI sans dépendre d’API fermées ou d’un seul fournisseur cloud. Plus largement, Gonka considère le calcul AI comme une infrastructure fondamentale, efficace, vérifiable et distribuée mondialement, plutôt qu’une ressource contrôlée par quelques gardiens.
2. En quoi le modèle de preuve de travail de Gonka diffère-t-il d’autres projets d’IA décentralisée comme Bittensor ?
La principale différence réside dans ce que chaque réseau définit comme « travail » et comment la valeur est créée autour.
De nombreux projets d’IA décentralisée, y compris Bittensor, se concentrent sur la coordination au niveau du modèle ou du réseau. Leurs incitations sont souvent façonnées par le staking, la délégation ou des systèmes d’évaluation par pairs, où les récompenses et l’influence ne sont pas toujours directement proportionnels à la contribution brute en calcul. Cette approche peut être efficace pour certains problèmes de coordination, mais elle n’optimise pas nécessairement pour une infrastructure de calcul AI à grande échelle et efficace.
Gonka adopte une voie différente. Elle est conçue comme un réseau axé sur le calcul, où « travail » est défini comme une computation AI vérifiable. La preuve de travail dans Gonka repose sur un mécanisme PoW basé sur Transformer qui mesure le vrai travail GPU, plutôt que l’allocation de capital ou la participation spéculative. Le pouvoir de vote et les récompenses sont directement liés à la contribution computationnelle vérifiée, alignant ainsi les incitations avec la performance réelle de l’infrastructure.
Une autre distinction clé est l’efficacité. Dans de nombreux systèmes décentralisés, une part importante du calcul disponible est consommée par le consensus, la validation ou du travail dupliqué qui a peu de valeur hors du réseau. Par exemple, dans des systèmes comme Bittensor, environ 60 % des récompenses sont allouées au staking, ce qui, bien que nécessaire pour la sécurité du réseau, ne contribue pas au calcul AI. La conception Sprint de Gonka minimise cette surcharge, permettant que presque toutes les ressources GPU disponibles soient dirigées vers des charges de travail AI significatives, principalement l’inférence.
En termes simples, des projets comme Bittensor se concentrent sur la coordination de l’intelligence. Gonka se concentre sur la construction de la fondation économique et infrastructurelle pour le calcul AI lui-même. Ces approches opèrent à différents niveaux de la pile, et le modèle de Gonka est intentionnellement optimisé pour les fournisseurs de matériel et les charges de travail AI réelles.
3. Pourquoi Gonka a-t-elle choisi de se concentrer sur l’inférence AI plutôt que sur la formation ?
Gonka est conçue comme un réseau axé sur le calcul, et cette perspective façonne naturellement notre point de départ.
La décision de se concentrer d’abord sur l’inférence était une question de séquencement, pas de limitation. L’inférence est là où la majorité de l’utilisation réelle de l’IA se produit aujourd’hui, et c’est aussi là que les goulots d’étranglement infrastructurels sont les plus visibles. À mesure que les systèmes d’IA passent de l’expérimentation à la production, l’inférence continue devient coûteuse, limitée en capacité, et étroitement contrôlée par des fournisseurs centralisés.
D’un point de vue de conception du réseau, l’inférence est aussi le bon point de départ. Elle nous permet de valider les principes fondamentaux de Gonka – calcul vérifiable, allocation efficace des ressources, et alignement des incitations – dans des charges de travail de production réelles. Les charges d’inférence sont continues, mesurables, et bien adaptées à un environnement décentralisé où l’utilisation du matériel et l’efficacité comptent.
La formation, surtout à grande échelle, est une classe de problème différente avec ses propres dynamiques de coordination et caractéristiques d’exécution. Notre objectif est de construire une infrastructure qui fonctionne sous une demande réelle dès le départ, et l’inférence est là où ces demandes sont déjà présentes aujourd’hui. Mais Gonka prévoit d’introduire la formation à l’avenir, et le réseau dédie 20 % de tous les revenus d’inférence pour soutenir la formation de futurs modèles.
4. Comment Gonka vérifie-t-elle que les mineurs effectuent réellement le travail d’inférence AI qu’ils prétendent avoir accompli ?
La vérification dans Gonka est intégrée directement dans la façon dont le réseau mesure et valorise le calcul.
Les tâches d’inférence sont exécutées lors de périodes courtes et limitées dans le temps appelées Sprint. À chaque Sprint, les Hôtes sont invités à faire de l’inférence sur de grands modèles Transformer initialisés aléatoirement pour chaque cycle. Parce que ces tâches sont intensives en calcul et changent en permanence, elles ne peuvent pas être pré-calculées, simulées ou réutilisées d’un cycle à l’autre. La seule façon pratique de produire des résultats valides est d’effectuer le vrai calcul.
Le réseau vérifie les résultats en validant si les sorties correspondent à ce qui serait attendu en exécutant réellement le modèle
Pour maintenir l’efficacité du système, Gonka ne vérifie pas chaque calcul. Elle vérifie une partie des résultats en continu et augmente la fréquence des vérifications pour les participants suspectés de falsification. Une partie des récompenses des Hôtes consiste en des frais pour un travail utile. Ces frais ne sont pas versés si le travail effectué n’a pas passé la validation. Cette approche maintient les coûts faibles tout en s’assurant que soumettre des résultats incorrects ou falsifiés n’en vaut pas la peine.
Au fil du temps, les Hôtes qui soumettent constamment des résultats corrects sont reconnus comme des contributeurs fiables et gagnent une participation accrue au sein du réseau. Ce même principe, qui récompense la vraie computation, sous-tend à la fois les incitations et l’influence dans Gonka.
5. OpenAI, Google et Microsoft contrôlent une infrastructure de calcul massive avec des bases clients établies. Qu’est-ce qui rend Gonka compétitive face à ces incumbents ?
Le défi ne réside pas dans la technologie elle-même, mais dans la façon dont l’accès au calcul est contrôlé.
Nous ne voyons pas Gonka comme en compétition directe avec des entreprises comme OpenAI, Google ou Microsoft. Elles construisent et exploitent certains des stacks d’IA centralisés les plus avancés au monde, et ces systèmes continueront à jouer un rôle majeur.
La différence réside dans la couche de la pile que nous abordons. Les fournisseurs centralisés contrôlent une infrastructure massive, mais ce contrôle a ses compromis. L’accès au calcul est fermé, les prix sont opaques, et la capacité est façonnée par des priorités internes. Pour de nombreux développeurs et régions, cela entraîne volatilité, verrouillage, et une prévisibilité limitée à long terme.
Gonka est conçue comme une infrastructure ouverte plutôt qu’un service. Le calcul est fourni par un réseau décentralisé d’Hôtes, et la disponibilité est façonnée par l’offre et la demande réelles en calcul. Les incitations sont alignées au niveau du réseau, récompensant le calcul vérifié et encourageant l’optimisation continue de l’infrastructure.
Cela rend Gonka compétitive non pas en remplaçant les incumbents, mais en permettant des cas d’usage qui sont structurellement sous-desservis par les plateformes centralisées, des charges de travail nécessitant ouverture, accès prévisible, et transparence au niveau de l’infrastructure. En créant un marché où les fournisseurs de matériel rivalisent directement sur la performance et l’efficacité, Gonka contribue aussi à réduire le coût du calcul AI, le rendant accessible à un éventail beaucoup plus large de développeurs, startups et régions.
6. Depuis son lancement en août 2025, Gonka a atteint 2 200 développeurs et une capacité équivalente à 12 000 GPU. Qu’est-ce qui explique cette adoption ?
Ce qui motive cette adoption, ce n’est pas le battage à court terme, mais l’alignement structurel.
Du côté de l’offre, les Hôtes recherchent des alternatives aux modèles centralisés qui sous-utilisent leur matériel. Du côté de la demande, les développeurs font face à la volatilité des prix, aux contraintes de capacité, et aux API fermées des fournisseurs centralisés. À mesure que les charges de travail AI passent en production, la prévisibilité et l’accès deviennent aussi importants que la performance brute.
À mesure que davantage d’Hôtes rejoignent, que ce soit de façon indépendante ou via des pools (ce qui est un sujet plus vaste), le réseau devient plus utile pour les développeurs. Avec l’arrivée de plus de charges de travail, cela crée une demande soutenue qui attire encore plus d’infrastructure. Cette boucle de rétroaction a été le principal moteur de l’adoption.
Le rythme de cette adoption reflète le fait que les incitations de Gonka sont alignées avec les besoins réels du marché des deux côtés. Les Hôtes sont récompensés pour un calcul utile, les développeurs obtiennent un accès fiable à la capacité d’inférence, et le réseau se développe de manière organique à mesure que ces intérêts se renforcent mutuellement.
Une grande partie de cette coordination se fait de manière ouverte au sein de la communauté Gonka, y compris dans les discussions continues sur le Discord de Gonka.
7. Gonka a récemment obtenu un investissement de $50 millions de dollars de Bitfury tout en conservant un modèle de gouvernance décentralisé. Comment Gonka équilibre-t-elle capital institutionnel et sa vision de décentralisation ?
L’essentiel est que Gonka est décentralisée par conception au niveau du protocole, pas seulement en discours. La gouvernance du réseau est liée à une contribution computationnelle réelle et vérifiable plutôt qu’à la détention de capitaux.
Le soutien récent d’un partenaire institutionnel comme Bitfury ne se traduit pas par un contrôle sur le réseau. Leur implication reflète une expérience approfondie dans la construction d’infrastructures de calcul à grande échelle, mais elle ne confère pas de privilèges spéciaux dans le protocole. Dans Gonka, le financement lui-même ne se traduit pas en influence. Les décisions d’investissement sont prises par la communauté Gonka, qui a voté pour vendre du GNK du pool communautaire à Bitfury.
En pratique, le pouvoir de vote et la participation aux décisions du réseau sont déterminés par la quantité de calcul AI vérifié qu’un participant contribue réellement. L’influence croît par le travail réel : GPU connectés, performance soutenue, contribution prouvée aux charges AI. Elle ne peut pas être achetée ou acquise uniquement par un investissement financier ; elle doit être gagnée en opérant l’infrastructure. Cela s’applique aussi bien aux individus, qu’aux grands opérateurs ou aux participants institutionnels.
Cette séparation est intentionnelle. Le capital institutionnel peut accélérer le développement initial, la recherche et la croissance de l’écosystème, mais la décentralisation est assurée par les mécanismes d’incitation et de gouvernance du réseau. Aucun participant, institutionnel ou autre, ne peut obtenir un contrôle dominant sans contribuer une part proportionnelle de calcul vérifié.
Cette approche permet à Gonka de collaborer avec des partenaires infrastructure expérimentés tout en conservant son principe fondamental : le réseau est gouverné par ceux qui le font fonctionner, pas par ceux qui le financent.
8. Si l’inférence AI devient une commodité, la valeur circule généralement vers ceux qui contrôlent les modèles, pas l’infrastructure. Comment Gonka capte-t-elle une valeur durable à long terme ?
Ce schéma est principalement valable dans des écosystèmes fermés, où les mêmes quelques entreprises contrôlent modèles, infrastructure et accès. Dans ces systèmes, la valeur se concentre non seulement dans le contrôle, mais aussi dans les marges, et la participation à la plus-value est limitée à un petit nombre d’actionnaires corporatifs.
Aujourd’hui, les gens peuvent payer OpenAI, Anthropic ou d’autres fournisseurs pour utiliser l’IA, mais ils ne peuvent pas participer de manière significative à l’économie du calcul AI lui-même. Il n’y a pas de moyen d’interagir directement avec ou de bénéficier de la couche de calcul derrière ces systèmes. Les entreprises publiques comme Nvidia, Meta ou Google offrent une exposition à l’IA uniquement dans le cadre d’activités beaucoup plus larges, et non comme une couche économique autonome de calcul AI. En conséquence, une des parties à croissance la plus rapide de l’économie de l’IA reste largement fermée.
Par ailleurs, si l’inférence peut se commodifier à la surface, le calcul lui-même ne le peut pas. Le calcul est limité par la disponibilité du matériel, l’accès à l’énergie, la géographie et la coordination. À mesure que la demande d’inférence s’étend mondialement, le goulot d’étranglement se déplace de plus en plus des modèles vers l’accès à un calcul fiable, à faible coût et à grande échelle, et ce goulot devient structurellement précieux.
Cela a des implications économiques plus larges. Lorsque l’accès au calcul est concentré, des régions entières se retrouvent dans une position dépendante, limitant l’innovation locale, la croissance de la productivité et la participation à l’économie de l’IA.
Les pays sans accès privilégié aux clouds hyperscale ou aux GPU avancés sont contraints de consommer l’IA comme un service, plutôt que de la construire ou de contribuer à son infrastructure sous-jacente.
Gonka est construite autour de ce goulot au niveau du protocole. Au lieu de posséder des modèles ou d’extraire des rentes, le réseau coordonne la production, la vérification et l’allocation du calcul via des règles ouvertes et sans permission. GNK représente une participation directe à l’économie du calcul AI lui-même, pas une participation en actions dans une entreprise, mais un accès et une influence liés à une contribution réelle et vérifiable.
Ce modèle modifie aussi qui peut participer. Les propriétaires de matériel, qu’ils soient grands opérateurs ou petits détenteurs de GPU, peuvent contribuer directement aux charges de travail AI et gagner en fonction du calcul vérifié, que ce soit de façon indépendante ou via des pools. Les développeurs ont accès à un calcul prévisible et transparent sans être enfermés dans un seul fournisseur ou des modèles de prix opaques.
Plus largement, deux futurs possibles émergent. L’un où la majorité de la capacité AI est détenue et contrôlée par quelques entreprises et États, et un autre où des réseaux ouverts permettent de coordonner le calcul à l’échelle mondiale, avec une valeur qui circule vers ceux qui contribuent réellement des ressources. Gonka est construite pour le second chemin.
Il ne faut pas non plus négliger le rôle des modèles open-source. Depuis le début, ils ont été un moteur clé d’innovation en IA, notamment chez les développeurs et startups. Nous croyons que des réseaux comme Gonka soutiennent naturellement le développement et l’adoption de modèles ouverts en fournissant un calcul accessible et vérifiable, permettant à l’intelligence de rester ouverte, compétitive, et non verrouillée derrière une infrastructure propriétaire.
9. Quelle expérience spécifique dans l’industrie de l’IA a conduit les fondateurs à penser qu’une infrastructure décentralisée était nécessaire ?
Notre conviction ne vient pas de la théorie, mais de plusieurs années de travail avec le calcul distribué et de la construction de systèmes d’IA dans des environnements centralisés à grande échelle.
Chez Snap et plus tard via Product Science, nous avons travaillé sur des systèmes d’IA en production où l’accès au calcul déterminait directement ce qui pouvait être construit et déployé. Nous avons vu comment les décisions d’infrastructure sont prises une fois que l’IA devient critique pour le commerce, et à quel point ces décisions deviennent étroitement contrôlées.
Ce qui ressortait le plus, c’est à quel point le marché du calcul AI est concentré. Un petit nombre de sociétés contrôlent l’accès aux GPU avancés, fixent les prix, définissent les limites de capacité, et décident quels cas d’usage sont viables. Cette concentration ne façonne pas seulement les marchés ; elle façonne le pouvoir. Le contrôle du calcul détermine de plus en plus qui peut participer à l’innovation en IA.
Nous avons aussi constaté que cette concentration dépasse l’économie pour toucher la géographie et la souveraineté. L’accès au calcul devient régional, influencé par la disponibilité énergétique, les contrôles à l’export, et les stratégies d’infrastructure nationale. En pratique, cela met en position dépendante des régions entières, limitant leur capacité à bâtir des écosystèmes IA compétitifs.
Parallèlement, nous avions vu des systèmes décentralisés coordonner avec succès une infrastructure physique à l’échelle mondiale. Bitcoin en est un exemple clair, non pas comme un actif financier, mais comme un protocole alignant les incitations autour du matériel et de l’énergie réels. Ce contraste a rendu le problème évident.
Gonka est née de cette prise de conscience : si le calcul AI devient une infrastructure fondamentale, il lui faut un modèle de coordination ouvert, sans permission, et résilient, et non contrôlé par une poignée d’acteurs.
10. Que doit-il se passer pour que Gonka réussisse dans un paysage concurrentiel où les géants technologiques améliorent continuellement leur propre infrastructure et capacités AI ?
Gonka n’a pas besoin de surpasser ou de dépenser plus que les géants technologiques pour réussir. Elle doit rester concentrée sur une couche différente de la pile, celle que les acteurs centralisés sont structurellement moins aptes à adresser.
Les grandes entreprises technologiques continueront à construire des infrastructures AI puissantes. Leurs systèmes sont optimisés pour des écosystèmes fermés, des priorités internes, et un contrôle centralisé. Ce modèle peut être très efficace, mais il concentre aussi l’accès, le pouvoir de fixation des prix, et la prise de décision.
Pour que Gonka réussisse, le réseau doit constamment fournir une efficacité au niveau de l’infrastructure, en s’assurant que la majorité du calcul est dirigée vers des charges de travail AI réelles plutôt que vers le surcoût du protocole. Les incitations doivent rester étroitement liées au travail computationnel vérifié, de façon à ce que les récompenses et l’influence évoluent avec la contribution réelle, et non avec le capital ou la spéculation.
Plus important encore, Gonka doit préserver une architecture ouverte, sans permission, avec des règles de protocole transparentes. Le calcul pour l’IA devient de plus en plus une infrastructure fondamentale, semblable à l’électricité à l’époque industrielle ou à Internet dans ses premières années. À ces moments-là, la question déterminante n’était pas quelle entreprise avait le meilleur produit, mais qui avait accès au réseau sous-jacent, et dans quelles conditions.
Les géants technologiques continueront d’exister et de jouer un rôle important. Gonka réussira si elle devient une couche d’infrastructure complémentaire, qui limite la centralisation excessive, étend l’accès mondial, et permet à l’innovation en IA de croître dans un environnement économique plus ouvert et décentralisé.