Construyendo infraestructura de IA abierta: Dentro de la visión de Gonka para el cómputo descentralizado

Gonka busca descentralizar el cálculo de IA, ofreciendo a los desarrolladores y proveedores de hardware acceso predecible y verificable, mientras desafía el dominio de los gigantes de la nube centralizada.

A medida que el control sobre el cálculo de IA se concentra cada vez más en unos pocos proveedores de la nube y gigantes del hardware, Gonka ha emergido como una nueva red Layer-1 centrada en infraestructura de IA descentralizada y de alta eficiencia. El fundador del proyecto cree que, al tratar el cálculo como una infraestructura abierta y verificable en lugar de un servicio restringido, Gonka puede desbloquear el acceso global a recursos de IA y desafiar las limitaciones estructurales de los sistemas centralizados actuales.

1. ¿Qué es Gonka y qué problema resuelve?

Gonka es una red descentralizada L1 para cálculo de IA de alta eficiencia, diseñada para abordar un problema estructural subyacente al auge actual de la IA: cómo se produce, asigna e incentiva el cálculo para IA.

Hoy en día, el principal cuello de botella en IA ya no son los modelos, sino el control sobre el cálculo. Las GPU avanzadas están altamente concentradas entre unos pocos fabricantes de hardware y proveedores de la nube a gran escala, haciendo que el cálculo de IA sea costoso, opaco y cada vez más limitado por geografía y política. EE. UU. y China están consolidando rápidamente el control sobre chips, energía y capacidad de centros de datos, colocando a gran parte del resto del mundo en una posición dependiente y limitando su capacidad para competir en la economía de la IA.

Esto afecta tanto a startups como a regiones enteras. Los desarrolladores enfrentan volatilidad en precios, escasez de capacidad y dependencia de proveedores, mientras que muchos países corren el riesgo de quedarse atrás debido al acceso restringido a infraestructura fundamental de IA.

Gonka replantea esto a nivel de protocolo. En lugar de tratar el cálculo como un servicio restringido controlado por proveedores centralizados, nos inspiramos en sistemas que ya han demostrado que es posible coordinar infraestructura física a gran escala mediante incentivos abiertos. Al igual que Bitcoin demostró para hardware y energía, Gonka aplica principios similares al cálculo de IA, no en la capa de aplicación, sino en el nivel del propio protocolo.

Usando un mecanismo de Prueba de Trabajo basado en Transformers, la red dirige casi toda la potencia GPU disponible hacia cargas de trabajo significativas de IA. Hoy en día, este trabajo es principalmente inferencia de IA, con entrenamiento planeado para el futuro. Los anfitriones ganan recompensas basadas en la contribución computacional verificada, en lugar de asignación de capital o mecánicas especulativas. Y a diferencia de muchos sistemas descentralizados, el cálculo no se quema en tareas de seguridad abstractas o trabajo de consenso duplicado, sino que se usa de manera productiva.

Para los desarrolladores, esto proporciona acceso predecible al cálculo de IA sin depender de APIs cerradas o un único proveedor de nube. En términos más amplios, Gonka trata el cálculo de IA como infraestructura fundamental, eficiente, verificable y distribuida globalmente, en lugar de un recurso controlado por unos pocos guardianes.

2. ¿En qué se diferencia el modelo de Prueba de Trabajo de Gonka de otros proyectos de IA descentralizada como Bittensor?

La principal diferencia radica en qué define cada red como “trabajo” y cómo se crea valor en torno a ello.

Muchos proyectos de IA descentralizada, incluido Bittensor, se centran en la coordinación a nivel de modelo o red. Sus incentivos suelen estar moldeados por staking, delegación o sistemas de evaluación entre pares, donde las recompensas y la influencia no siempre son directamente proporcionales a la contribución computacional bruta. Este enfoque puede ser efectivo para ciertos problemas de coordinación, pero no necesariamente optimiza para infraestructura de cálculo de IA a gran escala y eficiente.

Gonka toma un camino diferente. Está diseñada como una red centrada en el cálculo, donde “trabajo” se define como computación de IA verificable. La Prueba de Trabajo en Gonka se basa en un mecanismo de PoW con Transformers que mide trabajo real de GPU, en lugar de asignación de capital o participación especulativa. El poder de voto y las recompensas están directamente ligados a la contribución computacional verificada, alineando incentivos con el rendimiento real de infraestructura.

Otra diferencia clave es la eficiencia. En muchos sistemas descentralizados, una parte significativa del cálculo disponible se consume en consenso, validación o trabajo duplicado que tiene poco valor fuera de la red. Por ejemplo, en sistemas como Bittensor, alrededor del 60% de las recompensas se destinan a staking, que aunque necesario para la seguridad de la red, no contribuye directamente a la computación de IA. El diseño Sprint de Gonka minimiza esta sobrecarga, permitiendo que casi todos los recursos GPU disponibles se dirijan a cargas de trabajo de IA significativas, principalmente inferencia.

En términos simples, proyectos como Bittensor se enfocan en coordinar inteligencia. Gonka se centra en construir la base económica e infraestructura para el cálculo de IA en sí mismo. Estos enfoques operan en diferentes capas del stack, y el modelo de Gonka está intencionadamente optimizado para proveedores de hardware y cargas de trabajo reales de IA.

3. ¿Por qué Gonka eligió centrarse en la inferencia de IA en lugar de en el entrenamiento?

Gonka está construida como una red centrada en el cálculo, y esa perspectiva naturalmente define dónde decidimos comenzar.

La decisión de enfocarnos primero en la inferencia fue una cuestión de secuenciación, no de limitación. La inferencia es donde ocurre la mayor parte del uso real de IA hoy en día, y también donde los cuellos de botella en infraestructura son más evidentes. A medida que los sistemas de IA pasan de la experimentación a producción, la inferencia continua se vuelve costosa, limitada en capacidad y controlada estrechamente por proveedores centralizados.

Desde la perspectiva del diseño de la red, la inferencia también es el lugar correcto para comenzar. Nos permite validar los principios centrales de Gonka — cálculo verificable, asignación eficiente de recursos y alineación de incentivos — bajo cargas de trabajo reales de producción. Las cargas de trabajo de inferencia son continuas, medibles y bien adaptadas a un entorno descentralizado donde la utilización y eficiencia del hardware importan.

El entrenamiento, especialmente a gran escala, es un problema diferente con sus propias dinámicas de coordinación y características de ejecución. Nuestro enfoque es construir infraestructura que funcione ante demanda real primero, y la inferencia es donde esas demandas ya están presentes hoy. Pero Gonka planea introducir entrenamiento en el futuro, y el 20% de todos los ingresos por inferencia se destinarán a apoyar el entrenamiento de futuros modelos.

4. ¿Cómo verifica Gonka que los mineros realmente están realizando el trabajo de inferencia de IA que afirman haber completado?

La verificación en Gonka está integrada directamente en cómo la red mide y valora el cálculo.

Las tareas de inferencia se ejecutan durante períodos cortos y limitados en el tiempo llamados Sprint. En cada Sprint, se pide a los anfitriones que ejecuten inferencia en grandes modelos Transformer que se inicializan aleatoriamente en cada ciclo. Debido a que estas tareas son computacionalmente intensivas y cambian continuamente, no se pueden precomputar, simular o reutilizar de ejecuciones anteriores. La única forma práctica de producir resultados válidos es realizar el cálculo real.

La red verifica los resultados validando si las salidas coinciden con lo que se esperaría al ejecutar realmente el modelo.

Para mantener la eficiencia, Gonka no vuelve a verificar cada cálculo individual. En cambio, valida una parte de los resultados de forma continua y aumenta las verificaciones para los participantes que se sospeche hayan falsificado los resultados. Parte de la recompensa de los anfitriones consiste en tarifas por trabajo útil. Estas tarifas no se pagan si el trabajo realizado no pasa la validación. Este enfoque mantiene bajos los costos operativos y asegura que no valga la pena presentar resultados falsos o fabricados.

Con el tiempo, los anfitriones que consistentemente envían resultados correctos son reconocidos como contribuyentes confiables y obtienen mayor participación en la red. Este mismo principio, de recompensar la computación real y comprobada, sustenta tanto los incentivos como la influencia en Gonka.

5. OpenAI, Google y Microsoft controlan infraestructura de cálculo masiva con bases de clientes establecidas. ¿Qué hace a Gonka competitiva frente a estos incumbentes?

El desafío no es la tecnología en sí, sino cómo se controla el acceso al cálculo.

No vemos a Gonka como competidora de empresas como OpenAI, Google o Microsoft en el sentido tradicional. Ellos construyen y operan algunos de los stacks de IA centralizados más avanzados del mundo, y esos sistemas seguirán jugando un papel importante.

La diferencia está en la capa del stack que abordamos. Los proveedores centralizados controlan infraestructura masiva, pero ese control tiene sus trade-offs. El acceso al cálculo está restringido, los precios son opacos y la capacidad se determina por prioridades internas. Para muchos desarrolladores y regiones, esto resulta en volatilidad, dependencia y previsibilidad limitada a largo plazo.

Gonka está diseñada como una infraestructura abierta en lugar de un servicio. El cálculo es suministrado por una red descentralizada de anfitriones, y la disponibilidad se determina por la oferta y demanda reales de computación. Los incentivos están alineados a nivel de red, recompensando el cálculo verificado y fomentando la optimización continua de infraestructura.

Esto hace que Gonka sea competitiva no reemplazando a los incumbentes, sino habilitando casos de uso que están estructuralmente desatendidos por plataformas centralizadas, cargas de trabajo que requieren apertura, acceso predecible y transparencia a nivel de infraestructura. Al crear un mercado donde los proveedores de hardware compiten directamente en rendimiento y eficiencia, Gonka también reduce el costo del cálculo de IA, haciéndolo accesible a un rango mucho más amplio de desarrolladores, startups y regiones.

6. Desde su lanzamiento en agosto de 2025, Gonka ha crecido hasta 2,200 desarrolladores y 12,000 de capacidad equivalente en GPU. ¿Qué impulsa esta adopción?

Lo que impulsa esta adopción no es la hype a corto plazo, sino la alineación estructural.

En el lado de la oferta, los anfitriones buscan alternativas a modelos centralizados que subutilizan su hardware. En el lado de la demanda, los desarrolladores enfrentan volatilidad en precios, restricciones de capacidad y APIs cerradas de proveedores centralizados. A medida que las cargas de trabajo de IA pasan a producción, la previsibilidad y el acceso son tan importantes como el rendimiento bruto.

A medida que más anfitriones se unen, ya sea de forma independiente o a través de pools (lo cual es un tema más amplio), la red se vuelve más útil para los desarrolladores. A medida que más cargas de trabajo entran en línea, esto crea una demanda sostenida que atrae aún más infraestructura. Este ciclo de retroalimentación ha sido el principal motor de adopción.

El ritmo de adopción refleja que los incentivos de Gonka están alineados con las necesidades del mundo real en ambos lados del mercado. Los anfitriones son recompensados por cálculo útil, los desarrolladores obtienen acceso confiable a capacidad de inferencia, y la red crece de forma orgánica a medida que esos intereses se refuerzan mutuamente.

Gran parte de esta coordinación sucede abiertamente dentro de la comunidad Gonka, incluyendo discusiones continuas en el Discord de Gonka.

7. Gonka aseguró recientemente una inversión de $50 millón de Bitfury manteniendo un modelo de gobernanza descentralizado. ¿Cómo equilibra Gonka el capital institucional con su visión descentralizadora?

El punto clave es que Gonka es descentralizada por diseño a nivel de protocolo, no solo en narrativa. La gobernanza en la red está vinculada a contribuciones de cálculo de IA verificables y reales, no a la propiedad de capital.

El apoyo reciente de un socio institucional como Bitfury no se traduce en control sobre la red. Su participación refleja experiencia profunda en infraestructura de cálculo a gran escala, pero no otorga privilegios especiales dentro del protocolo. En Gonka, la financiación en sí misma no se convierte en influencia. Las decisiones de inversión las toma la comunidad Gonka, que votó para vender GNK del fondo comunitario a Bitfury.

En la práctica, el poder de voto y la participación en decisiones de la red están determinados por cuánto cálculo de IA verificado aporta realmente un participante. La influencia crece a través del trabajo real: GPUs conectadas, rendimiento sostenido y contribución comprobada a cargas de IA. No se puede comprar ni adquirir solo con inversión financiera; hay que ganarlo operando infraestructura. Esto aplica por igual a individuos, operadores grandes y participantes institucionales.

Esta separación es intencional. El capital institucional puede acelerar el desarrollo inicial, la investigación y el crecimiento del ecosistema, pero la descentralización se refuerza mediante los mecanismos de incentivos y gobernanza de la red. Ningún participante, institucional o no, puede obtener control dominante sin contribuir con una parte proporcional de cálculo verificado.

Este enfoque permite a Gonka colaborar con socios de infraestructura experimentados, mientras mantiene su principio central: la red la gobiernan quienes la alimentan, no quienes la financian.

8. Si la inferencia de IA se commoditiza, el valor generalmente fluye hacia quienes controlan los modelos, no la infraestructura. ¿Cómo captura Gonka un valor sostenible a largo plazo?

Ese patrón se mantiene principalmente en ecosistemas cerrados, donde las mismas pocas empresas controlan modelos, infraestructura y acceso. En esos sistemas, el valor se concentra no solo en el control, sino también en los márgenes, y la participación en las ganancias está limitada a unos pocos accionistas corporativos.

Hoy en día, las personas pueden pagar a OpenAI, Anthropic u otros proveedores por usar IA, pero no pueden participar de manera significativa en la economía del cálculo de IA en sí. No hay forma de interactuar directamente o beneficiarse de la capa de cálculo detrás de estos sistemas. Las empresas públicas como Nvidia, Meta o Google ofrecen exposición a IA solo como parte de negocios mucho más amplios, no como una capa económica independiente de cálculo de IA. Como resultado, una de las partes de mayor crecimiento en la economía de IA sigue siendo en gran medida cerrada.

Al mismo tiempo, aunque la inferencia puede commodificarse a nivel superficial, el cálculo no. El cálculo está limitado por la disponibilidad de hardware, acceso a energía, geografía y coordinación. A medida que la demanda de inferencia escala globalmente, el cuello de botella se desplaza cada vez más desde los modelos hacia el acceso a cálculo confiable, rentable y a gran escala, y ese cuello de botella adquiere un valor estructural.

Esto tiene implicaciones económicas más amplias. Cuando el acceso al cálculo se concentra, regiones enteras quedan en una posición dependiente, limitando la innovación local, el crecimiento de productividad y la participación en la economía de la IA.
Países sin acceso privilegiado a nubes hyperscale o GPU avanzadas se ven obligados a consumir IA como servicio, en lugar de construir con ella o contribuir a su infraestructura subyacente.

Gonka está construida en torno a ese cuello de botella a nivel de protocolo. En lugar de poseer modelos o extraer rentas, la red coordina cómo se produce, verifica y asigna el cálculo mediante reglas abiertas y sin permisos. GNK representa participación directa en la economía del cálculo de IA en sí, no en la propiedad de una empresa, sino en el acceso y la influencia ligados a contribuciones reales y verificables.

Este modelo también cambia quién puede participar. Los propietarios de hardware, desde grandes operadores hasta pequeños poseedores de GPU, pueden contribuir directamente a cargas de trabajo de IA y ganar en función de la computación verificada, ya sea de forma independiente o a través de pools. Los desarrolladores obtienen acceso a cálculo predecible y transparente sin estar atados a un solo proveedor o modelos de precios opacos.

En términos más amplios, visualizamos dos futuros posibles. Uno donde la mayor parte de la capacidad de IA es propiedad y controlada por unas pocas corporaciones y estados, y otro donde redes abiertas permiten coordinar el cálculo globalmente, con valor que fluye hacia quienes realmente contribuyen recursos. Gonka está construida para ese segundo camino.

También es importante no pasar por alto el papel de los modelos de código abierto. Desde el principio, han sido un motor clave de innovación en IA, especialmente entre desarrolladores y startups. Creemos que redes como Gonka apoyan naturalmente el desarrollo y adopción de modelos abiertos al proporcionar cálculo accesible y verificable, permitiendo que la inteligencia permanezca abierta, competitiva y no bloqueada tras infraestructura propietaria.

9. ¿Qué experiencia específica en la industria de IA llevó a los fundadores a creer que era necesaria una infraestructura descentralizada?

Nuestra convicción no vino de la teoría, sino de años trabajando con computación distribuida y de construir sistemas de IA en entornos centralizados a gran escala.

En Snap y posteriormente en Product Science, trabajamos en sistemas de IA en producción donde el acceso al cálculo determinaba directamente qué se podía construir y desplegar. Vimos cómo se toman decisiones de infraestructura una vez que la IA se vuelve comercialmente crítica, y cuán estrechamente controladas se vuelven esas decisiones.

Lo que más destacó fue cuán concentrado está realmente el mercado de cálculo de IA. Un pequeño número de corporaciones controla el acceso a GPUs avanzadas, fija precios, define límites de capacidad y decide qué casos de uso son viables. Esta concentración no solo moldea mercados; también moldea el poder. El control sobre el cálculo determina cada vez más quién puede participar en la innovación de IA.

También vimos cómo esta concentración trasciende lo económico hacia la geografía y la soberanía. El acceso al cálculo se vuelve regionalmente restringido, influenciado por disponibilidad de energía, controles de exportación y estrategias nacionales de infraestructura. En la práctica, esto coloca a regiones enteras en una posición estructuralmente dependiente, limitando su capacidad para construir ecosistemas de IA competitivos.

Al mismo tiempo, habíamos visto sistemas descentralizados coordinar con éxito infraestructura física a escala global. Bitcoin fue un ejemplo claro, no como un activo financiero, sino como un protocolo que alineaba incentivos en torno a hardware y energía del mundo real. Esa comparación hizo que el problema fuera evidente.

Gonka surgió de esa realización: si el cálculo de IA se está convirtiendo en infraestructura fundamental, necesita un modelo de coordinación abierto, sin permisos y resiliente, no controlado por unos pocos actores.

10. ¿Qué debe suceder para que Gonka tenga éxito en un panorama competitivo donde los gigantes tecnológicos actualizan continuamente su propia infraestructura y capacidades de IA?

Gonka no necesita construir o gastar más que los gigantes tecnológicos para tener éxito. Necesita mantenerse enfocada en una capa diferente del stack, una que los actores centralizados están estructuralmente menos preparados para abordar.

Las grandes empresas tecnológicas seguirán construyendo infraestructura de IA poderosa. Sus sistemas están optimizados para ecosistemas cerrados, prioridades internas y control centralizado. Ese modelo puede ser muy eficiente, pero también concentra acceso, poder en precios y decisiones.

Para que Gonka tenga éxito, la red debe ofrecer consistentemente eficiencia a nivel de infraestructura, asegurando que la mayor parte del cálculo se dirija a cargas de trabajo reales de IA en lugar de sobrecarga del protocolo. Los incentivos deben mantenerse estrechamente ligados al trabajo computacional verificado, de modo que las recompensas y la influencia crezcan con la contribución real, no con capital o especulación.

Igualmente importante, Gonka debe mantener una arquitectura abierta y sin permisos, con reglas transparentes a nivel de protocolo. El cálculo para IA se está convirtiendo cada vez más en infraestructura fundamental, similar a la electricidad en la era industrial o a internet en sus primeros días. En esos momentos, la pregunta clave no era qué empresa tenía el mejor producto, sino quién tenía acceso a la red subyacente y en qué condiciones.

Las empresas tecnológicas seguirán existiendo y jugando un papel importante. Gonka tiene éxito si se convierte en una capa de infraestructura complementaria, que limite la centralización excesiva, expanda el acceso global y permita que la innovación en IA crezca en un entorno económico más abierto y descentralizado.

VSN2,2%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)