Gouvernement de Singapour : n'a actuellement pas l'intention de réglementer l'IA et développe des outils de test d'IA avec les entreprises

Source: Le papier

Journaliste Shao Wen

"Nous n'envisageons pas actuellement de réglementer l'IA. À ce stade, il est clair que nous voulons pouvoir apprendre de l'industrie. Comprendre comment l'IA est utilisée avant de décider si nous devons faire plus d'un point de vue réglementaire."

Le gouvernement de Singapour a appelé les entreprises à coopérer au développement de "la première boîte à outils de test d'IA au monde" AI Verify. Google, Microsoft et IBM ont tous rejoint la fondation AI Verify.

Source de l'image : générée par l'IA illimitée‌

Alors que de nombreux pays explorent la réglementation de l'intelligence artificielle générative (IA), le gouvernement de Singapour a déclaré qu'il n'était pas pressé de formuler des réglementations sur l'intelligence artificielle.

Le 19 juin, heure locale, Lee Wan Sie, directeur de l'intelligence artificielle et des données de confiance à l'Information and Communications Media Development Authority (IMDA) de Singapour, a déclaré dans une interview à CNBC : "Nous n'envisageons pas actuellement de réglementation de l'intelligence artificielle". "

Cependant, le gouvernement de Singapour s'efforce également de promouvoir l'utilisation responsable de l'intelligence artificielle, appelant les entreprises à collaborer sur AI Verify, la "première boîte à outils de test d'IA au monde". AI Verify, qui comprend un cadre de test de gouvernance de l'IA et une boîte à outils logicielle qui permet aux utilisateurs de tester techniquement des modèles d'IA et de documenter les vérifications de processus, a été lancé en tant que projet pilote en 2022, avec la participation déjà des géants de la technologie IBM et Singapore Airlines.

Le gouvernement et les entreprises établissent une coopération

Les inquiétudes concernant les risques de l'IA générative se sont accrues ces derniers mois alors que le chatbot ChatGPT est devenu à la mode. "A ce stade, il est clair que nous voulons apprendre de l'industrie. Nous devons comprendre comment l'IA est utilisée avant de décider si nous devons faire plus du côté réglementaire", a déclaré Li Wanshi.

"Nous reconnaissons qu'en tant que petit pays, en tant que gouvernement, nous ne pourrons peut-être pas résoudre tous les problèmes. Il est donc très important que nous travaillions en étroite collaboration avec l'industrie, les instituts de recherche et d'autres gouvernements", a déclaré Li.

Il est rapporté que Google, Microsoft et IBM ont rejoint la Fondation AI Verify, une communauté open source mondiale conçue pour discuter des normes et des meilleures pratiques en matière d'IA et collaborer sur la gouvernance de l'IA. "Microsoft félicite le gouvernement de Singapour pour son leadership dans ce domaine", a déclaré le président de Microsoft, Brad Smith, dans un communiqué. "En créant des ressources pratiques telles que des cadres et des boîtes à outils de test de gouvernance de l'IA, Singapour aide les organisations à établir des processus de gouvernance et de test robustes."

"L'industrie est beaucoup plus pratique en matière d'IA. Parfois, en ce qui concerne les réglementations, vous pouvez voir un écart entre ce que les décideurs politiques pensent de l'IA et ce que les entreprises font réellement", a déclaré Haniyeh Mahmoudian, consultante au Comité consultatif national américain sur l'IA. CNBC, "Ainsi, avec ce type de collaboration, la création spécifique de ces types de boîtes à outils, avec la contribution de l'industrie. C'est bénéfique pour les deux parties."

Lors du sommet Asia Tech x Singapour en juin, la ministre singapourienne des communications et de l'information, Josephine Teo, a déclaré que si le gouvernement reconnaît les risques potentiels de l'IA, il ne peut pas promouvoir l'utilisation éthique de l'IA à lui seul ", avec des professionnels. Le secteur privé de la connaissance peut s'engager de manière significative avec nous dans la réalisation de ces objectifs."

Bien qu'"il existe des craintes et des inquiétudes très réelles concernant le développement de l'IA", a-t-elle déclaré, l'IA doit être activement orientée vers des utilisations bénéfiques et loin des mauvaises. "C'est au cœur de la façon dont Singapour voit l'IA."

Pendant ce temps, certains pays ont pris des mesures pour réglementer l'IA. Le 14 juin, le Parlement européen a adopté la "loi sur l'intelligence artificielle" (loi sur l'IA), imposant de plus grandes restrictions aux outils d'intelligence artificielle générative tels que ChatGPT, et les développeurs seront tenus de soumettre les systèmes pour examen avant leur publication. Le président français Emmanuel Macron a également déclaré la semaine dernière qu'une réglementation de l'IA était nécessaire. Le Royaume-Uni met en place l’AI Foundation Model Taskforce pour étudier les risques de sécurité apportés par l’intelligence artificielle, et se prépare pour le Global AI Security Summit, en vue d’en faire le centre géographique de la régulation mondiale de la sécurité de l’IA.

Le père de ChatGPT parle à Singapour

Stella Cramer, responsable de l'Asie-Pacifique au sein du groupe technologique du cabinet d'avocats international Clifford Chance, a déclaré que Singapour pourrait agir en tant que "intendant" dans la région, permettant à l'innovation de se dérouler dans un environnement sûr. Clifford Chance travaille avec les régulateurs pour développer une série de directives et de cadres de marché.

"Ce que nous avons vu, c'est une approche cohérente autour de l'ouverture et de la collaboration. Singapour est considérée comme une juridiction sûre pour tester et déployer votre technologie dans un environnement contrôlé avec le soutien des régulateurs", a déclaré Cramer.

Cette idée semble coïncider avec l'idée du PDG d'OpenAI, Sam Altman (Sam Altman). Le 13 juin, Altman a assisté à l'événement "Fireside Dialogue" de la tournée mondiale d'OpenAI à la Singapore Management University (Singapore Management University), où il a expliqué comment gérer les risques liés à l'IA. Il pense que l'accent est mis sur l'information du public sur les nouveaux développements et sur leur expérience, ce qui garantira que tout dommage potentiel est détecté et traité avant que son impact ne se généralise.

"C'est plus efficace que de développer et de tester une technologie à huis clos et de la diffuser au public en supposant que tous les risques possibles ont été identifiés et prévenus", a déclaré Altman. Apprenez tout. Peu importe à quel point un produit est testé pour minimiser les dommages, quelqu'un le fera. trouver un moyen de l'exploiter d'une manière que ses créateurs n'auraient jamais cru possible. » Cela est vrai de toute nouvelle technologie, note-t-il.

"Nous pensons que le déploiement itératif est le seul moyen d'y parvenir." Altman a ajouté que l'introduction progressive de nouvelles versions permettrait également à la société de s'adapter à l'évolution de l'IA, tout en générant des commentaires sur la manière dont elle peut être améliorée.

Singapour a actuellement lancé plusieurs projets pilotes, tels que la FinTech Regulatory Sandbox ou la HealthTech Sandbox, pour que les acteurs de l'industrie testent leurs produits dans un environnement réel avant de les rendre publics. "Ces cadres structurés et ces kits d'outils de test aideront à orienter les politiques de gouvernance de l'IA pour permettre aux entreprises de développer l'IA en toute sécurité", a déclaré Cramer.

Voir l'original
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate.io app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • ไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)