Gobierno de Singapur: actualmente no tiene la intención de regular la IA y está desarrollando herramientas de prueba de IA con empresas

Fuente: El Papel

Reportero Shao Wen

"Actualmente no estamos pensando en regular la IA. En esta etapa, está claro que queremos poder aprender de la industria. Comprender cómo se usa la IA antes de decidir si necesitamos hacer más desde una perspectiva regulatoria".

El gobierno de Singapur pidió a las empresas que cooperen en el desarrollo del "primer kit de herramientas de prueba de IA del mundo" AI Verify Google, Microsoft e IBM se han unido a la Fundación AI Verify.

Fuente de la imagen: Generada por Unbounded AI‌

Con muchos países explorando la regulación de la inteligencia artificial generativa (IA), el gobierno de Singapur ha declarado que no tiene prisa por formular regulaciones de inteligencia artificial.

El 19 de junio, hora local, Lee Wan Sie, director de inteligencia artificial y datos confiables de la Autoridad de Desarrollo de Medios de Información y Comunicaciones (IMDA) de Singapur, dijo en una entrevista con CNBC: "Actualmente no estamos considerando la regulación de la inteligencia artificial". "

Sin embargo, el gobierno de Singapur también está trabajando para promover el uso responsable de la inteligencia artificial, pidiendo a las empresas que colaboren en AI Verify, el "primer conjunto de herramientas de prueba de IA del mundo". AI Verify, que incluye un marco de prueba de gobernanza de IA y un conjunto de herramientas de software que permite a los usuarios probar técnicamente modelos de IA y documentar verificaciones de procesos, se lanzó como proyecto piloto en 2022, con la participación de los gigantes tecnológicos IBM y Singapore Airlines.

Gobierno y empresas establecen cooperación

Las preocupaciones sobre los riesgos de la IA generativa han aumentado en los últimos meses a medida que el chatbot ChatGPT se ha puesto de moda. "En esta etapa, está claro que queremos aprender de la industria. Necesitamos entender cómo se usa la IA antes de decidir si necesitamos hacer más desde el punto de vista regulatorio", dijo Li Wanshi, presentado en una etapa posterior.

"Reconocemos que, como país pequeño, como gobierno, es posible que no podamos resolver todos los problemas. Por eso, es muy importante que trabajemos en estrecha colaboración con la industria, las instituciones de investigación y otros gobiernos", dijo Li.

Se informa que Google, Microsoft e IBM se han unido a AI Verify Foundation, una comunidad global de código abierto diseñada para discutir los estándares y las mejores prácticas de IA y colaborar en la gobernanza de IA. "Microsoft aplaude al gobierno de Singapur por su liderazgo en esta área”, dijo el presidente de Microsoft, Brad Smith, en un comunicado. "Al crear recursos prácticos como marcos de trabajo y herramientas de prueba de gobernanza de IA, Singapur está ayudando a las organizaciones a establecer procesos sólidos de prueba y gobernanza".

"La industria es mucho más práctica cuando se trata de IA. A veces, cuando se trata de regulaciones, se puede ver una brecha entre lo que los legisladores piensan sobre la IA y lo que las empresas realmente hacen", dijo Haniyeh Mahmoudian, consultora del Comité Asesor Nacional de IA de EE. UU. CNBC, "Entonces, con este tipo de colaboración, específicamente creando este tipo de conjuntos de herramientas, con aportes de la industria. Es beneficioso para ambas partes".

En la cumbre Asia Tech x Singapur en junio, la ministra de Comunicaciones e Información de Singapur, Josephine Teo, dijo que si bien el gobierno reconoce los riesgos potenciales de la IA, no puede promover el uso ético de la IA por sí solo, "con profesionales. El sector privado del conocimiento puede comprometerse significativamente con nosotros en el logro de estos objetivos".

Si bien "existen temores y preocupaciones muy reales sobre el desarrollo de la IA", dijo, la IA debe orientarse activamente hacia usos beneficiosos y alejarse de los malos. "Está en el corazón de cómo Singapur ve la IA".

Mientras tanto, algunos países han tomado medidas para regular la IA. El 14 de junio, el Parlamento Europeo aprobó la "Ley de Inteligencia Artificial" (Ley AI), que impone mayores restricciones a las herramientas de inteligencia artificial generativa como ChatGPT, y los desarrolladores deberán enviar los sistemas para su revisión antes del lanzamiento. El presidente francés, Emmanuel Macron, también dijo la semana pasada que se necesita una regulación de la IA. El Reino Unido está creando el AI Foundation Model Taskforce para estudiar los riesgos de seguridad que conlleva la inteligencia artificial, y se está preparando para la Global AI Security Summit, con miras a convertirlo en el centro geográfico de la regulación mundial de la seguridad de la IA.

El padre de ChatGPT habla en Singapur

Stella Cramer, directora de Asia-Pacífico del grupo de tecnología del bufete de abogados internacional Clifford Chance, dijo que Singapur podría actuar como un "administrador" en la región, permitiendo que la innovación tenga lugar en un entorno seguro. Clifford Chance está trabajando con los reguladores para desarrollar una serie de pautas y marcos de mercado.

"Lo que hemos visto es un enfoque coherente en torno a la apertura y la colaboración. Singapur se considera una jurisdicción segura para probar y desplegar su tecnología en un entorno controlado con el apoyo de los reguladores", dijo Cramer.

Esta idea parece coincidir con la idea del CEO de OpenAI, Sam Altman (Sam Altman). El 13 de junio, Altman asistió al evento "Fireside Dialogue" de la gira mundial de OpenAI en la Universidad de Administración de Singapur (Universidad de Administración de Singapur), donde explicó cómo administrar los riesgos de la IA. Él cree que el enfoque es hacer que el público conozca y experimente los nuevos desarrollos, lo que garantizará que se detecte y aborde cualquier daño potencial antes de que su impacto se generalice.

"Es más eficiente que desarrollar y probar una tecnología a puertas cerradas y lanzarla al público asumiendo que se han identificado y prevenido todos los riesgos posibles”, dijo Altman. Aprenda todo. No importa cuánto se pruebe un producto para minimizar el daño, alguien lo hará. encontrar una manera de explotarlo de formas que sus creadores nunca pensaron que fuera posible”. Esto es cierto para cualquier nueva tecnología, señala.

“Creemos que la implementación iterativa es la única forma de hacer esto.” Altman agregó que la introducción gradual de nuevas versiones también permitiría que la sociedad se adapte a medida que evoluciona la IA, al tiempo que genera comentarios sobre cómo se puede mejorar.

Singapur ha lanzado actualmente varios proyectos piloto, como FinTech Regulatory Sandbox o HealthTech Sandbox, para que los actores de la industria prueben sus productos en un entorno real antes de salir a bolsa. "Estos marcos estructurados y conjuntos de herramientas de prueba ayudarán a guiar las políticas de gobierno de IA para permitir que las empresas desarrollen IA de manera segura", dijo Cramer.

Ver originales
El contenido es solo de referencia, no una solicitud u oferta. No se proporciona asesoramiento fiscal, legal ni de inversión. Consulte el Descargo de responsabilidad para obtener más información sobre los riesgos.
  • Recompensa
  • Comentar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado
Comercie con criptomonedas en cualquier lugar y en cualquier momento
qrCode
Escanee para descargar la aplicación Gate.io
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • ไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)