Public Citizen a publié de nouvelles preuves montrant que Grok cite des sites web néonazis et nationalistes blancs comme sources crédibles.
Le groupe a envoyé des lettres à l’Office of Management and Budget, appelant à une suspension de l’utilisation fédérale, et a indiqué n’avoir reçu aucune réponse.
Des défenseurs ont déclaré que le comportement de Grok et ses données d’entraînement le rendaient inapte à un déploiement fédéral alors que xAI étendait ses contrats gouvernementaux.
Le hub Art, Mode et Divertissement de Decrypt.
Découvrez SCENE
Public Citizen, une organisation à but non lucratif de défense des consommateurs, a intensifié ses avertissements concernant Grok AI d’Elon Musk vendredi après avoir publié de nouvelles preuves montrant que le chatbot citait des sites web néonazis et nationalistes blancs comme sources crédibles.
Le groupe a déclaré que ce comportement devrait disqualifier Grok de toute utilisation fédérale et a renouvelé ses appels à l’Office of Management and Budget des États-Unis pour qu’il intervienne après des mois sans réponse.
Se référant à une étude récente de l’université Cornell, Public Citizen a indiqué que Grokipedia, la nouvelle alternative à Wikipédia alimentée par l’IA lancée par Musk en octobre, mettait à plusieurs reprises en avant des domaines extrémistes, dont Stormfront, renforçant ainsi les inquiétudes soulevées précédemment après que le modèle s’est auto-référencé comme « MechaHitler » sur la plateforme X de Musk en juillet.
Les résultats ont souligné ce que les défenseurs décrivent comme un schéma de comportements racistes, antisémites et conspirationnistes.
« Grok a démontré à plusieurs reprises ce genre de dérapages, qu’il s’agisse de dérapages antisémites, racistes, ou alimentés par des théories du complot », a déclaré J.B. Branch, responsable de la responsabilité des grandes technologies chez Public Citizen, à Decrypt.
Ce nouvel avertissement fait suite à des lettres envoyées par Public Citizen et 24 autres groupes de défense des droits civils, des droits numériques, de l’environnement et de la protection des consommateurs à l’OMB en août et en octobre, exhortant l’agence à suspendre la disponibilité de Grok pour les départements fédéraux via la General Services Administration, qui gère les biens et les achats fédéraux. Le groupe a indiqué qu’aucune réponse n’avait suivi ces démarches.
En dépit d’incidents répétés, la présence de Grok au sein du gouvernement s’est accrue au cours de l’année écoulée. En juillet, xAI a obtenu un contrat de $200 millions de dollars avec le Pentagone, et la General Services Administration a ensuite rendu le modèle disponible dans l’ensemble des agences fédérales, aux côtés de Gemini, Meta AI, ChatGPT et Claude. Cette intégration est intervenue au moment où le président américain Donald Trump ordonnait une interdiction de l’« AI woke » dans les contrats fédéraux.
Les défenseurs ont déclaré que ces mesures rendaient l’examen d’autant plus nécessaire, notamment alors que les questions sur les données d’entraînement et la fiabilité de Grok s’accumulaient.
« Grok était initialement limité au Département de la Défense, ce qui était déjà inquiétant compte tenu de la quantité de données sensibles détenues par le département », a déclaré Branch. « L’étendre au reste du gouvernement fédéral a été encore plus alarmant. »
Branch a indiqué que le comportement de Grok provenait en partie de ses données d’entraînement et des choix de conception faits au sein des entreprises de Musk.
« Il y a une différence de qualité notable entre Grok et les autres modèles de langage, et cela provient en partie de ses données d’entraînement, qui incluent X », a-t-il déclaré. « Musk a dit qu’il voulait que Grok soit une alternative anti-woke, et cela se reflète dans les résultats virulents. »
Branch a également soulevé des inquiétudes quant à l’utilisation potentielle du modèle pour évaluer des dossiers fédéraux ou interagir avec des données personnelles sensibles.
« Il y a un fossé de valeurs entre ce que représente l’Amérique et le type de propos tenus par Grok », a-t-il déclaré. « Si vous êtes une personne juive et que vous demandez un prêt fédéral, souhaitez-vous qu’un chatbot antisémite examine potentiellement votre dossier ? Bien sûr que non. »
Branch a déclaré que l’affaire Grok révélait des failles dans la supervision fédérale des nouveaux systèmes d’IA, ajoutant que les responsables gouvernementaux pourraient agir et retirer Grok du calendrier des contrats de la General Services Administration à tout moment—s’ils le souhaitent.
« S’ils sont capables de déployer des troupes de la Garde nationale dans tout le pays en un instant, ils peuvent certainement désactiver un chatbot fonctionnant via API en une journée », a-t-il déclaré.
xAI n’a pas répondu à la demande de commentaire de Decrypt.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Un groupe demande à une agence fédérale de suspendre l'utilisation de l'IA Grok d'Elon Musk en raison de préoccupations liées au racisme
En bref
Le hub Art, Mode et Divertissement de Decrypt.
Découvrez SCENE
Public Citizen, une organisation à but non lucratif de défense des consommateurs, a intensifié ses avertissements concernant Grok AI d’Elon Musk vendredi après avoir publié de nouvelles preuves montrant que le chatbot citait des sites web néonazis et nationalistes blancs comme sources crédibles.
Le groupe a déclaré que ce comportement devrait disqualifier Grok de toute utilisation fédérale et a renouvelé ses appels à l’Office of Management and Budget des États-Unis pour qu’il intervienne après des mois sans réponse.
Se référant à une étude récente de l’université Cornell, Public Citizen a indiqué que Grokipedia, la nouvelle alternative à Wikipédia alimentée par l’IA lancée par Musk en octobre, mettait à plusieurs reprises en avant des domaines extrémistes, dont Stormfront, renforçant ainsi les inquiétudes soulevées précédemment après que le modèle s’est auto-référencé comme « MechaHitler » sur la plateforme X de Musk en juillet.
Les résultats ont souligné ce que les défenseurs décrivent comme un schéma de comportements racistes, antisémites et conspirationnistes.
« Grok a démontré à plusieurs reprises ce genre de dérapages, qu’il s’agisse de dérapages antisémites, racistes, ou alimentés par des théories du complot », a déclaré J.B. Branch, responsable de la responsabilité des grandes technologies chez Public Citizen, à Decrypt.
Ce nouvel avertissement fait suite à des lettres envoyées par Public Citizen et 24 autres groupes de défense des droits civils, des droits numériques, de l’environnement et de la protection des consommateurs à l’OMB en août et en octobre, exhortant l’agence à suspendre la disponibilité de Grok pour les départements fédéraux via la General Services Administration, qui gère les biens et les achats fédéraux. Le groupe a indiqué qu’aucune réponse n’avait suivi ces démarches.
En dépit d’incidents répétés, la présence de Grok au sein du gouvernement s’est accrue au cours de l’année écoulée. En juillet, xAI a obtenu un contrat de $200 millions de dollars avec le Pentagone, et la General Services Administration a ensuite rendu le modèle disponible dans l’ensemble des agences fédérales, aux côtés de Gemini, Meta AI, ChatGPT et Claude. Cette intégration est intervenue au moment où le président américain Donald Trump ordonnait une interdiction de l’« AI woke » dans les contrats fédéraux.
Les défenseurs ont déclaré que ces mesures rendaient l’examen d’autant plus nécessaire, notamment alors que les questions sur les données d’entraînement et la fiabilité de Grok s’accumulaient.
« Grok était initialement limité au Département de la Défense, ce qui était déjà inquiétant compte tenu de la quantité de données sensibles détenues par le département », a déclaré Branch. « L’étendre au reste du gouvernement fédéral a été encore plus alarmant. »
Branch a indiqué que le comportement de Grok provenait en partie de ses données d’entraînement et des choix de conception faits au sein des entreprises de Musk.
« Il y a une différence de qualité notable entre Grok et les autres modèles de langage, et cela provient en partie de ses données d’entraînement, qui incluent X », a-t-il déclaré. « Musk a dit qu’il voulait que Grok soit une alternative anti-woke, et cela se reflète dans les résultats virulents. »
Branch a également soulevé des inquiétudes quant à l’utilisation potentielle du modèle pour évaluer des dossiers fédéraux ou interagir avec des données personnelles sensibles.
« Il y a un fossé de valeurs entre ce que représente l’Amérique et le type de propos tenus par Grok », a-t-il déclaré. « Si vous êtes une personne juive et que vous demandez un prêt fédéral, souhaitez-vous qu’un chatbot antisémite examine potentiellement votre dossier ? Bien sûr que non. »
Branch a déclaré que l’affaire Grok révélait des failles dans la supervision fédérale des nouveaux systèmes d’IA, ajoutant que les responsables gouvernementaux pourraient agir et retirer Grok du calendrier des contrats de la General Services Administration à tout moment—s’ils le souhaitent.
« S’ils sont capables de déployer des troupes de la Garde nationale dans tout le pays en un instant, ils peuvent certainement désactiver un chatbot fonctionnant via API en une journée », a-t-il déclaré.
xAI n’a pas répondu à la demande de commentaire de Decrypt.