Une nation, sous l'intelligence artificielle | Opinion

image

Le déploiement public de l'intelligence artificielle est bien engagé, car les agences fédérales américaines ont déjà commencé à déployer l'IA pour rationaliser leurs opérations, malgré une pauvreté de discussion publique sur ce changement majeur et ses implications sur les droits de l'homme.

Résumé

  • L'adoption de l'intelligence artificielle explose dans le gouvernement : les cas d'utilisation de l'IA fédérale ont presque doublé, passant de 571 en 2023 à plus de 1 100 en 2024, avec des agences comme HHS, DHS et VA en tête.
  • Les applications pratiques sont omniprésentes : de la surveillance des épidémies d'origine alimentaire à la détection des fraudes liées aux prestations des vétérans en passant par l'amélioration de la sécurité aux frontières, l'IA transforme les opérations et la prestation de services.
  • Croissance stable dans les fonctions : Près de la moitié des cas d'utilisation rapportés se concentrent sur des tâches "permettant des missions" telles que la finance, les ressources humaines et la cybersécurité, tandis que d'autres visent la santé, les services publics et l'exploration spatiale.
  • Les droits et les préoccupations en matière de surveillance demeurent : environ 13 % des utilisations de l'IA pourraient avoir un impact sur les droits ou la sécurité du public, ce qui incite à de nouvelles garanties, des audits et une législation au niveau des États---bien que l'adoption dépasse la sensibilisation du public.

Dans un rapport, le Bureau de la responsabilité gouvernementale a constaté une augmentation multipliée par neuf de l'utilisation de l'IA générative entre 2023 et 2024 au sein du gouvernement fédéral. Le GAO a examiné 11 agences et leur utilisation de l'IA, découvrant que le nombre d'utilisations rapportées avait presque doublé, passant de 571 en 2023 à 1 110 en 2024.

De plus, le Conseil des chefs de l'information a publié un rapport intitulé IA en action : Constatations de l'inventaire des cas d'utilisation de l'IA fédérale 2024, dans lequel il démontre que l'utilisation de l'IA a plus que doublé dans les agences fédérales depuis 2023, avec plus de 1 700 cas d'utilisation signalés dans des domaines tels que le soutien interne et les services publics. Les agences ont signalé une amélioration de l'efficacité opérationnelle et de l'exécution des missions comme raisons pour lesquelles elles ont intensifié l'utilisation de l'IA.

Certaines des agences menant le déploiement de l'IA

Le Département de la santé et des services sociaux, le Département des anciens combattants, le Département de la sécurité intérieure et le Département de l'Intérieur représenteraient 50 % des utilisations de l'IA rapportées publiquement.

Le Département de la Sécurité intérieure est un autre leader dans l'intégration de l'IA dans ses opérations. Le DHS a développé plusieurs logiciels d'IA et d'apprentissage automatique (ML) pour améliorer sa cybersécurité, sa sécurité des frontières, sa réponse aux catastrophes et ses services d'immigration. Le DHS a utilisé GenAI pour améliorer les pistes d'enquête, aider les gouvernements locaux avec des plans d'atténuation des risques et pour la formation. Il publie une liste de son inventaire d'IA.

Les Centers for Disease Control and Prevention ont utilisé l'IA pour accélérer les enquêtes sur les épidémies de maladies d'origine alimentaire dans plusieurs États. L'Administration des prestations aux anciens combattants protège les paiements des prestations des anciens combattants grâce à l'IA, qui aide à signaler les changements frauduleux de dépôts directs. Le Département de la santé et des services sociaux a utilisé l'IA pour extraire des informations de publications et identifier les épidémies dans des zones considérées comme exemptes de poliomyélite. L'Administration de la sécurité sociale utilise l'IA pour aider les adjudicateurs du programme d'invalidité.

De plus, la General Services Administration des États-Unis a annoncé l'ajout des produits des principales entreprises américaines d'IA à son inventaire d'IA.

Le GAO a publié Intelligence Artificielle : Les agences ont commencé à mettre en œuvre, qui détaille l'utilisation de l'IA pour analyser des photos de drones et des ensembles de données par les agences fédérales. Vingt des 23 agences détaillées dans le rapport ont environ 1 200 cas d'utilisation actuels et prévus de l'intelligence artificielle. L'utilisation de l'IA comprend l'analyse des données de caméra, y compris celles provenant de drones et de radars, pour identifier les activités à la frontière, ainsi que la détection d'échantillons scientifiques pour les rovers planétaires. La NASA et le Département du Commerce avaient le plus grand nombre de cas d'utilisation pour l'IA.

La Conférence administrative des États-Unis a publié des recommandations pour l'utilisation de l'IA dans le gouvernement. Elles incluent l'utilisation d'outils dans l'application des réglementations, l'arbitrage, l'orientation juridique automatisée, et plus encore.

Cas d'utilisation de l'IA dans le gouvernement fédéral

Les agences rapportent qu'elles bénéficient d'une détection d'anomalies améliorée, de processus rationalisés et d'une prise de décision améliorée. La technologie est principalement utilisée dans les fonctions administratives et informatiques, suivies des cas d'utilisation dans le domaine de la santé et de la médecine.

Environ 13 pour cent des cas d'utilisation sont classés comme santé et médical. Environ 9 pour cent des cas d'utilisation aident les services gouvernementaux ou le traitement des prestations, ce qui implique de traiter et de faciliter l'accès aux prestations gouvernementales, y compris Medicare et Medicaid, la sécurité sociale et le chômage.

Environ 46 pour cent des cas d'utilisation du gouvernement fédéral sont considérés comme "permettant d'accomplir des missions", et sont nécessaires pour améliorer la gestion financière, les ressources humaines, les installations et propriétés, la cybersécurité, l'informatique, les achats et d'autres fonctions administratives au sein des agences.

Il est clair que le gouvernement fédéral applique déjà l'IA au droit et à la justice, à l'éducation et à la main-d'œuvre, aux transports, à la science et à l'espace, à l'énergie et à l'environnement, et dans d'autres secteurs. Ce faisant, il s'appuie à la fois sur des experts internes et sur des partenariats avec des entreprises.

Selon le CIO, les agences ont développé des cas d'utilisation de l'IA en interne dans 50 % des cas. Dans plus de 40 % des cas d'utilisation, les agences ont utilisé du code développé sur mesure, qui est disponible publiquement. Plus de 35 % de l'IA publique est déployée sur des plateformes de données et d'analytique d'entreprise existantes au sein d'une agence ou réutilise du code et/ou des données de niveau production provenant d'un cas d'utilisation différent.

Les gouvernements d'État et locaux déploient l'IA

Les gouvernements étatiques et locaux expérimentent également l'IA dans la gouvernance. Comme le souligne un rapport de Deloitte, les États et les gouvernements locaux sont susceptibles de se tourner vers l'IA pour alléger la pression sur leurs budgets. Une législation en Géorgie a proposé un "AI Accountability Act" qui créerait un Conseil de la Géorgie pour l'Intelligence Artificielle, qui obligerait les entités gouvernementales à développer un plan d'utilisation de l'IA pour détailler des objectifs spécifiques, des mesures de protection des données et définir le rôle de la supervision humaine.

Un projet de loi du Montana, signé par le gouverneur, limiterait l'utilisation de l'IA dans les gouvernements d'État et locaux, exigerait de la transparence concernant l'utilisation de l'IA et garantirait que certaines décisions et recommandations soient examinées par un humain occupant un "poste responsable". Dans le Nevada, un projet de loi exigerait que le département des impôts informe le contribuable lorsqu'il communique avec des systèmes d'IA. Les projets de loi de Géorgie et du Nevada ont tous deux échoué en commission.

Implications des droits

Selon le CIO, environ 13 % des cas d'utilisation de l'IA fédérale pourraient nuire aux droits ou à la sécurité du public, selon la définition dans le mémo OMB M-24-10.

Dans de tels cas d'utilisation, les agences doivent mettre en place des mesures de protection concrètes avant utilisation, y compris des moyens d'évaluer, de tester et de surveiller les impacts de l'IA sur le public et d'atténuer les risques de discrimination algorithmique.

En décembre 2024, les agences avaient réalisé des évaluations d'impact de l'IA pour plus de 80 % des cas d'utilisation de l'IA ayant un impact sur les droits ou la sécurité, et avaient effectué des évaluations indépendantes pour plus de 70 % de ces cas. Près de la moitié des cas d'utilisation de l'IA ayant un impact sur les droits dans le gouvernement impliquent des processus pour faire appel ou contester un résultat du système d'IA ou se désinscrire de la fonctionnalité de l'IA.

Le gouvernement fédéral déploie l'IA tandis que le public est laissé dans l'ignorance des implications pour sa vie quotidienne. L'utilisation de cette technologie dans la gouvernance devrait être un sujet de discussion plus courant pour ceux qui s'intéressent aux débats sur l'éthique de la technologie.

Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)