Um porta-voz disse que a empresa inadvertidamente desativou o acesso interno de todos os funcionários enquanto testava os controles de endpoint.
Conforme relatado pela CNBC no mesmo dia, a Microsoft bloqueou brevemente seus funcionários de usar o ChatGPT e outras ferramentas de inteligência artificial (IA) em 9 de novembro.
A CNBC afirma ter visto uma captura de tela mostrando que o chatbot ChatGPT alimentado por IA estava inacessível nos dispositivos corporativos da Microsoft na época.
A Microsoft também atualizou seu site interno, dizendo que "muitas ferramentas de IA não estão mais disponíveis para os funcionários" devido a preocupações com segurança e dados. "
O aviso menciona o investimento da Microsoft na empresa-mãe do ChatGPT, OpenAI, bem como as próprias proteções integradas do ChatGPT. No entanto, avisa os funcionários da empresa para não usarem o serviço e seus concorrentes, e a mensagem continua:
"O ChatGPT é... Serviços externos de terceiros... Isso significa que você tem que usá-lo com moderação devido a riscos de privacidade e segurança. Isso também se aplica a quaisquer outros serviços externos de IA, como Midjourney ou Replika. "
A CNBC disse que a Microsoft também nomeou brevemente o Canva, uma ferramenta de design gráfico alimentada por IA, no aviso, mas depois removeu a frase da mensagem.
A Microsoft bloqueou inesperadamente o serviço
A CNBC disse que a Microsoft retomou o acesso ao ChatGPT depois de publicar um relatório do incidente. Um representante da Microsoft disse à CNBC que a empresa inadvertidamente ativou restrições a todos os funcionários enquanto testava um sistema de controle de endpoint projetado para conter ameaças à segurança.
O representante disse que a Microsoft incentiva seus funcionários a usar o ChatGPT Enterprise e seu próprio Bing Chat Enterprise, observando que os serviços oferecem um alto nível de privacidade e segurança.
A notícia vem em meio a preocupações generalizadas sobre a privacidade e a segurança da IA nos Estados Unidos e no exterior. Embora a política restritiva da Microsoft inicialmente parecesse indicar a insatisfação da empresa com o estado atual da segurança da IA, na realidade parece ser um recurso que pode ser usado para proteger contra futuros incidentes de segurança.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
A Microsoft bloqueou brevemente seus funcionários de usar o ChatGPT, atribuindo o erro ao teste do sistema
Um porta-voz disse que a empresa inadvertidamente desativou o acesso interno de todos os funcionários enquanto testava os controles de endpoint.
Conforme relatado pela CNBC no mesmo dia, a Microsoft bloqueou brevemente seus funcionários de usar o ChatGPT e outras ferramentas de inteligência artificial (IA) em 9 de novembro.
A CNBC afirma ter visto uma captura de tela mostrando que o chatbot ChatGPT alimentado por IA estava inacessível nos dispositivos corporativos da Microsoft na época.
A Microsoft também atualizou seu site interno, dizendo que "muitas ferramentas de IA não estão mais disponíveis para os funcionários" devido a preocupações com segurança e dados. "
O aviso menciona o investimento da Microsoft na empresa-mãe do ChatGPT, OpenAI, bem como as próprias proteções integradas do ChatGPT. No entanto, avisa os funcionários da empresa para não usarem o serviço e seus concorrentes, e a mensagem continua:
"O ChatGPT é... Serviços externos de terceiros... Isso significa que você tem que usá-lo com moderação devido a riscos de privacidade e segurança. Isso também se aplica a quaisquer outros serviços externos de IA, como Midjourney ou Replika. "
A CNBC disse que a Microsoft também nomeou brevemente o Canva, uma ferramenta de design gráfico alimentada por IA, no aviso, mas depois removeu a frase da mensagem.
A Microsoft bloqueou inesperadamente o serviço
A CNBC disse que a Microsoft retomou o acesso ao ChatGPT depois de publicar um relatório do incidente. Um representante da Microsoft disse à CNBC que a empresa inadvertidamente ativou restrições a todos os funcionários enquanto testava um sistema de controle de endpoint projetado para conter ameaças à segurança.
O representante disse que a Microsoft incentiva seus funcionários a usar o ChatGPT Enterprise e seu próprio Bing Chat Enterprise, observando que os serviços oferecem um alto nível de privacidade e segurança.
A notícia vem em meio a preocupações generalizadas sobre a privacidade e a segurança da IA nos Estados Unidos e no exterior. Embora a política restritiva da Microsoft inicialmente parecesse indicar a insatisfação da empresa com o estado atual da segurança da IA, na realidade parece ser um recurso que pode ser usado para proteger contra futuros incidentes de segurança.