Un porte-parole a déclaré que l’entreprise avait désactivé par inadvertance l’accès interne pour tous les employés lors du test des contrôles des terminaux.
Comme l’a rapporté CNBC le même jour, Microsoft a brièvement empêché ses employés d’utiliser ChatGPT et d’autres outils d’intelligence artificielle (IA) le 9 novembre.
CNBC affirme avoir vu une capture d’écran montrant que le chatbot ChatGPT alimenté par l’IA était inaccessible sur les appareils d’entreprise de Microsoft à l’époque.
Microsoft a également mis à jour son site Web interne, affirmant que « de nombreux outils d’IA ne sont plus disponibles pour les employés » en raison de problèmes de sécurité et de données. "
L’avis mentionne l’investissement de Microsoft dans la société mère de ChatGPT, OpenAI, ainsi que les propres protections intégrées de ChatGPT. Cependant, il avertit les employés de l’entreprise de ne pas utiliser le service et ses concurrents, et le message continue :
« ChatGPT est... Services externes tiers... Cela signifie que vous devez l’utiliser avec parcimonie en raison des risques pour la vie privée et la sécurité. Cela s’applique également à tous les autres services d’IA externes, tels que Midjourney ou Replika. "
CNBC a déclaré que Microsoft avait également brièvement nommé Canva, un outil de conception graphique alimenté par l’IA, dans l’avis, mais avait ensuite supprimé la phrase du message.
Microsoft a bloqué le service de manière inattendue
CNBC a déclaré que Microsoft avait repris l’accès à ChatGPT après la publication d’un rapport sur l’incident. Un représentant de Microsoft a déclaré à CNBC que la société avait activé par inadvertance des restrictions sur tous les employés lors du test d’un système de contrôle des terminaux conçu pour contenir les menaces de sécurité.
Le représentant a déclaré que Microsoft encourageait ses employés à utiliser ChatGPT Enterprise et son propre Bing Chat Enterprise, notant que les services offrent un haut niveau de confidentialité et de sécurité.
La nouvelle intervient dans un contexte d’inquiétudes généralisées concernant la confidentialité et la sécurité de l’IA aux États-Unis et à l’étranger. Alors que la politique restrictive de Microsoft semblait initialement indiquer le mécontentement de l’entreprise face à l’état actuel de la sécurité de l’IA, en réalité, il semble qu’il s’agisse d’une ressource qui peut être utilisée pour se protéger contre de futurs incidents de sécurité.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Microsoft a brièvement empêché ses employés d’utiliser ChatGPT, attribuant l’erreur aux tests du système
Un porte-parole a déclaré que l’entreprise avait désactivé par inadvertance l’accès interne pour tous les employés lors du test des contrôles des terminaux.
Comme l’a rapporté CNBC le même jour, Microsoft a brièvement empêché ses employés d’utiliser ChatGPT et d’autres outils d’intelligence artificielle (IA) le 9 novembre.
CNBC affirme avoir vu une capture d’écran montrant que le chatbot ChatGPT alimenté par l’IA était inaccessible sur les appareils d’entreprise de Microsoft à l’époque.
Microsoft a également mis à jour son site Web interne, affirmant que « de nombreux outils d’IA ne sont plus disponibles pour les employés » en raison de problèmes de sécurité et de données. "
L’avis mentionne l’investissement de Microsoft dans la société mère de ChatGPT, OpenAI, ainsi que les propres protections intégrées de ChatGPT. Cependant, il avertit les employés de l’entreprise de ne pas utiliser le service et ses concurrents, et le message continue :
« ChatGPT est... Services externes tiers... Cela signifie que vous devez l’utiliser avec parcimonie en raison des risques pour la vie privée et la sécurité. Cela s’applique également à tous les autres services d’IA externes, tels que Midjourney ou Replika. "
CNBC a déclaré que Microsoft avait également brièvement nommé Canva, un outil de conception graphique alimenté par l’IA, dans l’avis, mais avait ensuite supprimé la phrase du message.
Microsoft a bloqué le service de manière inattendue
CNBC a déclaré que Microsoft avait repris l’accès à ChatGPT après la publication d’un rapport sur l’incident. Un représentant de Microsoft a déclaré à CNBC que la société avait activé par inadvertance des restrictions sur tous les employés lors du test d’un système de contrôle des terminaux conçu pour contenir les menaces de sécurité.
Le représentant a déclaré que Microsoft encourageait ses employés à utiliser ChatGPT Enterprise et son propre Bing Chat Enterprise, notant que les services offrent un haut niveau de confidentialité et de sécurité.
La nouvelle intervient dans un contexte d’inquiétudes généralisées concernant la confidentialité et la sécurité de l’IA aux États-Unis et à l’étranger. Alors que la politique restrictive de Microsoft semblait initialement indiquer le mécontentement de l’entreprise face à l’état actuel de la sécurité de l’IA, en réalité, il semble qu’il s’agisse d’une ressource qui peut être utilisée pour se protéger contre de futurs incidents de sécurité.