Um alto funcionário da Casa Branca disse que o AI deve ser avaliado "como uma droga", no dia seguinte a Casa Branca afirmou que ele foi mal interpretado.

De acordo com o monitoramento Beating, em 4 de maio, o The New York Times relatou que a Casa Branca estava discutindo a criação de um mecanismo de revisão pré-lançamento de modelos de IA, que na altura ainda estava na fase de “consideração”. Dois dias depois, a situação escalou: o diretor do Conselho Econômico Nacional da Casa Branca, Kevin Hassett, foi direto à Fox Business na quarta-feira, dizendo que o governo estava estudando uma ordem executiva que exigiria uma revisão governamental antes do lançamento de modelos de IA, “como a aprovação da FDA para medicamentos”. Trump, ao assumir o cargo, revogou a ordem de segurança de IA de Biden, e agora quer implementar uma pré-revisão mais rigorosa do que a de Biden. Menos de 24 horas depois, a Casa Branca fez uma mudança de tom emergencial: um alto funcionário afirmou na quinta-feira que as palavras de Hassett foram “fora de contexto”, e que o objetivo do governo era estabelecer uma “parceria” com as empresas, não uma “regulação governamental”. A chefe de gabinete da Casa Branca, Susie Wiles, postou na noite de quarta-feira no X para acalmar os ânimos, dizendo que o governo “não escolhe vencedores ou perdedores”, e que a segurança deve ser impulsionada por inovadores, não por burocratas. Este foi o quarto post que ela publicou desde que criou a conta oficial. Apesar de o tom ter ficado mais suave, as ações concretas não pararam. Três fontes familiarizadas disseram ao Politico que a Casa Branca está discutindo permitir que agências de inteligência avaliem previamente os modelos antes de sua divulgação pública, com o objetivo de garantir que os departamentos de inteligência dos EUA possam estudar e usar essas ferramentas antes que a Rússia e a China descubram suas novas capacidades. O vice-ministro da Defesa, Emil Michael, também apoiou publicamente a avaliação prévia em uma conferência de IA em Washington na quinta-feira, afirmando que Mythos é essencialmente uma questão de cibersegurança, “esses modelos virão inevitavelmente”, e que o governo precisa estar preparado. O Centro de Padrões e Inovação em IA, subordinado ao Departamento de Comércio, assinou em 2024 um acordo voluntário de avaliação com OpenAI e Anthropic, e esta semana expandiu o escopo para incluir Google DeepMind, Microsoft e xAI. O gatilho direto para essa mudança de política foi a revelação da Anthropic no mês passado de que a capacidade de exploração de vulnerabilidades do Mythos era tão forte que não poderia ser divulgada publicamente. Mas a situação da Casa Branca é delicada: de um lado, Trump assinou uma ordem executiva proibindo agências federais de usar produtos da Anthropic e chamou seus executivos de “lunáticos de esquerda”; do outro, várias agências federais estão competindo para obter acesso ao Mythos para testar seus próprios sistemas. A resistência da indústria à obrigatoriedade de pré-revisão é significativa. Daniel Castro, presidente da Fundação de Tecnologia da Informação e Inovação, afirmou: “Se a aprovação puder ser bloqueada, isso é um grande problema para qualquer empresa. Uma que obtém aprovação e outra que não consegue, a diferença de acesso ao mercado em semanas ou meses é enorme.”

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar