IA verificable: La clave para equilibrar la innovación y la confianza en la política de IA

Lo siguiente es una publicación de invitados de Felix Xu, fundador de ARPA Network.

El enfoque del gobierno de EE. UU. hacia la inteligencia artificial (AI) ha cambiado drásticamente, enfatizando la innovación acelerada sobre la supervisión regulatoria. En particular, la orden ejecutiva del presidente Donald Trump, Eliminando Barreras para el Liderazgo Americano en Inteligencia Artificial, ha establecido un nuevo tono para el desarrollo de IA, uno basado en promover la libertad de expresión y avanzar en el progreso tecnológico. De manera similar, la negativa del vicepresidente de EE. UU. JD Vance a respaldar un acuerdo global de seguridad de IA señala que América priorizará la innovación sin comprometer su ventaja competitiva.

Sin embargo, a medida que los sistemas de IA se vuelven cada vez más influyentes en los mercados financieros, la infraestructura crítica y el discurso público, la pregunta sigue siendo: ¿Cómo podemos garantizar la confianza y la fiabilidad en las decisiones y resultados impulsados por modelos de IA sin sofocar la innovación?

Aquí es donde entra la IA verificable, ofreciendo un enfoque transparente y criptográficamente seguro para la IA que garantiza la responsabilidad sin una regulación excesiva.

El desafío de la IA sin transparencia

El rápido avance de la IA ha dado paso a una nueva era de agentes de IA inteligentes capaces de tomar decisiones complejas y autónomas. Pero sin transparencia, estos sistemas pueden volverse impredecibles y no responsables.

Por ejemplo, los agentes de IA financiera, que dependen de modelos de aprendizaje automático sofisticados para analizar grandes conjuntos de datos, ahora operan bajo menos requisitos de divulgación. Si bien esto fomenta la innovación, también plantea una brecha de confianza: sin información sobre cómo estos agentes de IA llegan a sus conclusiones, las empresas y los usuarios pueden tener dificultades para verificar su precisión y fiabilidad.

Un colapso del mercado provocado por la toma de decisiones defectuosa de un modelo de IA no es solo un riesgo teórico, es una posibilidad si se despliegan modelos de IA sin salvaguardias verificables. El desafío no se trata de frenar el progreso de la IA, sino de garantizar que sus resultados puedan ser probados, validados y confiables.

Como dijo el renombrado psicólogo de Harvard B.F. Skinner, “El verdadero problema no es si las máquinas piensan, sino si los hombres lo hacen.” En la IA, la cuestión clave no es solo cuán inteligentes son estos sistemas, sino cómo los humanos pueden verificar y confiar en su inteligencia.

Cómo la IA verificable cierra la brecha de confianza

Russel Wald, director ejecutivo del Instituto de Inteligencia Artificial Centrada en el Ser Humano de Stanford, resume el enfoque de la IA en EE. UU.:

“La seguridad no va a ser el enfoque principal, sino que se va a centrar en la innovación acelerada y en la creencia de que la tecnología es una oportunidad.”

Esta es precisamente la razón por la que la IA Verificable es crucial. Permite la innovación en IA sin comprometer la confianza, asegurando que los resultados de la IA puedan ser validados de manera descentralizada y que preserve la privacidad.

La IA verificable aprovecha técnicas criptográficas como las Pruebas de Conocimiento Cero (ZKPs) y el Aprendizaje Automático de Conocimiento Cero (ZKML) para proporcionar a los usuarios confianza en las decisiones de IA sin exponer datos propietarios.

  • Los ZKPs permiten que los sistemas de IA generen pruebas criptográficas que confirman que una salida es legítima sin revelar los datos o procesos subyacentes. Esto garantiza la integridad incluso en un entorno con una supervisión regulatoria mínima.
  • ZKML trae modelos de IA verificables en la cadena, lo que permite resultados de IA sin confianza que son matemáticamente verificables. Esto es particularmente crítico para oráculos de IA y la toma de decisiones basada en datos en industrias como finanzas, salud y gobernanza.
  • ZK-SNARKs convierten los cálculos de IA en pruebas verificables, asegurando que los modelos de IA operen de manera segura mientras protegen los derechos de propiedad intelectual y la privacidad del usuario.

En esencia, Verifiable AI proporciona una capa de verificación independiente, asegurando que los sistemas de IA permanezcan transparentes, responsables y probablemente precisos.

AI verificable: El futuro de la responsabilidad de la IA

La trayectoria de la IA en América está destinada a una innovación agresiva. Pero en lugar de depender únicamente de la supervisión gubernamental, la industria debe promover soluciones tecnológicas que garanticen tanto el progreso como la confianza.

Algunas empresas pueden aprovechar las regulaciones de IA más flexibles para lanzar productos sin las debidas verificaciones de seguridad. Sin embargo, Verifiable AI ofrece una poderosa alternativa que empodera a organizaciones e individuos para construir sistemas de IA que sean comprobables, confiables y resistentes al uso indebido.

En un mundo donde la IA está tomando decisiones cada vez más importantes, la solución no es frenar el progreso, sino hacer que la IA sea verificable. Esa es la clave para garantizar que la IA siga siendo una fuerza para la innovación, la confianza y el impacto global a largo plazo.

Mencionado en este artículo
Ver originales
El contenido es solo de referencia, no una solicitud u oferta. No se proporciona asesoramiento fiscal, legal ni de inversión. Consulte el Descargo de responsabilidad para obtener más información sobre los riesgos.
  • Recompensa
  • Comentar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado
Comercie con criptomonedas en cualquier lugar y en cualquier momento
qrCode
Escanee para descargar la aplicación Gate.io
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • ไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)