Microsoft bloqueó brevemente a sus empleados para que no usaran ChatGPT, atribuyendo el error a las pruebas del sistema

Un portavoz dijo que la compañía deshabilitó inadvertidamente el acceso interno para todos los empleados mientras probaba los controles de los puntos finales.

Como informó CNBC el mismo día, Microsoft bloqueó brevemente a sus empleados el uso de ChatGPT y otras herramientas de inteligencia artificial (IA) el 9 de noviembre.

CNBC afirma haber visto una captura de pantalla que muestra que el chatbot ChatGPT impulsado por IA era inaccesible en los dispositivos empresariales de Microsoft en ese momento.

Microsoft también actualizó su sitio web interno, diciendo que "muchas herramientas de IA ya no están disponibles para los empleados" debido a preocupaciones de seguridad y datos. "

El aviso menciona la inversión de Microsoft en la empresa matriz de ChatGPT, OpenAI, así como las propias protecciones integradas de ChatGPT. Sin embargo, advierte a los empleados de la empresa que no utilicen el servicio ni a sus competidores, y el mensaje continúa:

"ChatGPT es... Servicios externos de terceros... Esto significa que debe usarlo con moderación debido a los riesgos de privacidad y seguridad. Esto también se aplica a cualquier otro servicio de IA externo, como Midjourney o Replika. "

CNBC dijo que Microsoft también nombró brevemente a Canva, una herramienta de diseño gráfico impulsada por IA, en el aviso, pero luego eliminó la frase del mensaje.

Microsoft bloqueó inesperadamente el servicio

CNBC dijo que Microsoft reanudó el acceso a ChatGPT después de publicar un informe del incidente. Un representante de Microsoft le dijo a CNBC que la compañía activó inadvertidamente restricciones para todos los empleados mientras probaba un sistema de control de endpoints diseñado para contener amenazas de seguridad.

El representante dijo que Microsoft alienta a sus empleados a usar ChatGPT Enterprise y su propio Bing Chat Enterprise, señalando que los servicios ofrecen un alto nivel de privacidad y seguridad.

La noticia llega en medio de preocupaciones generalizadas sobre la privacidad y la seguridad de la IA en los Estados Unidos y en el extranjero. Si bien la política restrictiva de Microsoft inicialmente parecía indicar la insatisfacción de la compañía con el estado actual de la seguridad de la IA, en realidad parece ser un recurso que se puede usar para protegerse contra futuros incidentes de seguridad.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)