Microsoft a brièvement empêché ses employés d’utiliser ChatGPT, attribuant l’erreur aux tests du système

Un porte-parole a déclaré que l’entreprise avait désactivé par inadvertance l’accès interne pour tous les employés lors du test des contrôles des terminaux.

Comme l’a rapporté CNBC le même jour, Microsoft a brièvement empêché ses employés d’utiliser ChatGPT et d’autres outils d’intelligence artificielle (IA) le 9 novembre.

CNBC affirme avoir vu une capture d’écran montrant que le chatbot ChatGPT alimenté par l’IA était inaccessible sur les appareils d’entreprise de Microsoft à l’époque.

Microsoft a également mis à jour son site Web interne, affirmant que « de nombreux outils d’IA ne sont plus disponibles pour les employés » en raison de problèmes de sécurité et de données. "

L’avis mentionne l’investissement de Microsoft dans la société mère de ChatGPT, OpenAI, ainsi que les propres protections intégrées de ChatGPT. Cependant, il avertit les employés de l’entreprise de ne pas utiliser le service et ses concurrents, et le message continue :

« ChatGPT est... Services externes tiers... Cela signifie que vous devez l’utiliser avec parcimonie en raison des risques pour la vie privée et la sécurité. Cela s’applique également à tous les autres services d’IA externes, tels que Midjourney ou Replika. "

CNBC a déclaré que Microsoft avait également brièvement nommé Canva, un outil de conception graphique alimenté par l’IA, dans l’avis, mais avait ensuite supprimé la phrase du message.

Microsoft a bloqué le service de manière inattendue

CNBC a déclaré que Microsoft avait repris l’accès à ChatGPT après la publication d’un rapport sur l’incident. Un représentant de Microsoft a déclaré à CNBC que la société avait activé par inadvertance des restrictions sur tous les employés lors du test d’un système de contrôle des terminaux conçu pour contenir les menaces de sécurité.

Le représentant a déclaré que Microsoft encourageait ses employés à utiliser ChatGPT Enterprise et son propre Bing Chat Enterprise, notant que les services offrent un haut niveau de confidentialité et de sécurité.

La nouvelle intervient dans un contexte d’inquiétudes généralisées concernant la confidentialité et la sécurité de l’IA aux États-Unis et à l’étranger. Alors que la politique restrictive de Microsoft semblait initialement indiquer le mécontentement de l’entreprise face à l’état actuel de la sécurité de l’IA, en réalité, il semble qu’il s’agisse d’une ressource qui peut être utilisée pour se protéger contre de futurs incidents de sécurité.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)