Exposição do debate sobre o mecanismo de pré-aprovação de IA na Casa Branca; comentários de Hassett desmentidos oficialmente no dia seguinte

白宮AI預審機制討論

O diretor da Comissão Nacional de Economia da Casa Branca (NEC), Kevin Hassett, disse em 7 de maio, em entrevista ao Fox Business, que o governo Trump está avaliando ordenar, por meio de uma ordem executiva, que modelos de IA passem por uma revisão de segurança do governo antes de serem disponibilizados publicamente, e comparou o processo ao da FDA para a aprovação prévia de medicamentos para lançamento no mercado. Mas, segundo o Politico em 8 de maio, autoridades sêniores da Casa Branca afirmaram em seguida que a declaração foi “recortada fora de contexto”.

Linha do tempo do caso: contradições da política da Casa Branca vêm à tona em reportagem do “New York Times”

Em 4 de maio de 2026, o “New York Times” reportou que a Casa Branca estava discutindo criar um mecanismo de revisão antes da publicação de modelos de IA, na época descrito como “em consideração”. Em 7 de maio de 2026, Kevin Hassett, em entrevista ao Fox Business, declarou publicamente: “Estamos analisando se podemos, por meio de uma ordem executiva, exigir que a IA que, no futuro, possa apresentar vulnerabilidades seja colocada em uso somente depois de provar que é segura — como os remédios da FDA”.

Na madrugada de 7 de maio de 2026, a chefe de gabinete Susie Wiles publicou no X que o governo “não é responsável por escolher vencedores e perdedores” e afirmou que implantações de segurança para tecnologias fortes deveriam ser impulsionadas por “inovadores excepcionais dos EUA, e não por agências burocráticas”. Conforme o histórico de posts na conta oficial, a publicação acima foi o 4º conteúdo divulgado desde que Wiles criou sua conta.

O Politico cita três pessoas informadas, sob condição de anonimato, dizendo que a Casa Branca discute fazer com que agências de inteligência realizem avaliações prévias antes da disponibilização pública de modelos de IA. Um oficial do governo dos EUA afirmou na reportagem que um dos objetivos disso é “garantir que o setor de inteligência estude e use essas ferramentas antes que adversários como Rússia e China entendam as novas capacidades”.

Agências envolvidas e marco de políticas

CAISI amplia acordo voluntário de avaliações de segurança

O Centro de Padrões e Inovação de IA (CAISI), ligado ao Departamento de Comércio, anunciou nesta semana que assinou acordos de avaliação de segurança de IA com Google DeepMind, Microsoft e xAI, com a expansão do escopo em relação ao que já havia sido incluído anteriormente, OpenAI e Anthropic. A estrutura de avaliações voluntárias da CAISI está em vigor desde 2024.

Subsecretário de Defesa apoia publicamente mecanismo de pré-avaliação

Em 8 de maio de 2026, em um evento de IA em Washington, o subsecretário de Defesa Emil Michael apoiou publicamente a pré-avaliação do governo antes da disponibilização de modelos de IA e citou o sistema Mythos da Anthropic como exemplo, dizendo que modelos “mais cedo ou mais tarde vão aparecer” e que o governo precisa criar mecanismos de resposta.

Contexto de políticas do governo Trump e da Anthropic

De acordo com o Politico, o secretário de Defesa Pete Hegseth, em março de 2026, incluiu a Anthropic em uma lista de riscos com base em risco da cadeia de suprimentos e proibiu que seus modelos fossem usados em contratos do Departamento de Defesa. Depois disso, o Trump teria solicitado separadamente que agências federais interrompessem o uso de produtos da Anthropic dentro de seis meses. Ao mesmo tempo, no mês passado, a Anthropic revelou que seu sistema de IA Mythos tem capacidade robusta de descoberta de vulnerabilidades de software, além do patamar de segurança exigido para lançamento público, e várias agências federais posteriormente apresentaram pedidos de acesso. Em 8 de maio de 2026, a OpenAI anunciou que fará uma prévia limitada da GPT-5.5-Cyber, uma nova ferramenta capaz de detectar e corrigir vulnerabilidades de rede.

Posições da indústria contra mecanismo de revisão compulsória

Daniel Castro, presidente do Information Technology and Innovation Foundation (ITIF), disse na reportagem do Politico: “Se você consegue negar a aprovação antes do lançamento, isso é um grande problema para qualquer empresa. Se um concorrente recebe aprovação enquanto outro não, a diferença de semanas ou meses na entrada no mercado terá um impacto enorme.” Os financiadores do ITIF incluem Anthropic, Microsoft e Meta.

Um alto funcionário da Casa Branca afirmou na mesma reportagem: “Há, de fato, um ou dois que estão muito entusiasmados com a supervisão do governo, mas eles são minoria.” O funcionário pediu anonimato alegando necessidade de descrever discussões sensíveis de políticas.

Perguntas frequentes

Quando e onde Kevin Hassett fez declarações sobre pré-avaliação de IA?

Conforme reportado pelo Politico, em 7 de maio de 2026, Kevin Hassett, em entrevista ao Fox Business, afirmou publicamente que o governo está avaliando uma ordem executiva para exigir que modelos de IA passem por uma revisão de segurança do governo antes de serem lançados, comparando o processo ao fluxo de aprovação da FDA para medicamentos.

Qual é a base para a Casa Branca negar as declarações de Hassett?

Segundo a reportagem do Politico em 8 de maio de 2026, autoridades sêniores da Casa Branca disseram que a fala de Hassett foi “um pouco recortada fora de contexto”, e que a direção de políticas da Casa Branca é firmar parcerias com empresas, e não impor regulamentação governamental. A chefe de gabinete Susie Wiles também publicou novamente para reiterar que o governo não interfere na escolha do mercado.

Quais novos acordos de avaliação de segurança de IA a CAISI acrescentou nesta semana?

De acordo com o comunicado da CAISI nesta semana, os acordos adicionais abrangem Google DeepMind, Microsoft e xAI, além dos que já estavam cobertos anteriormente, OpenAI e Anthropic. A estrutura de avaliações voluntárias está em vigor desde 2024.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.

Related Articles

O custo dos dados de treinamento de robôs caiu 65% desde 2024, caindo de US$ 340 para US$ 118 por hora

De acordo com a Cointelegraph, os custos dos dados de treinamento de robôs caíram 65% desde 2024, passando de US$ 340 por hora para US$ 118 por hora em 2026.

GateNews43m atrás

A China Mobile anuncia a aliança do ecossistema de aplicação de tokens com 8 parceiros em 8 de maio

De acordo com a PANews, em 8 de maio, a China Mobile anunciou a criação de uma Aliança de Ecossistema de Aplicações de Token com 8 parceiros, incluindo Alibaba Cloud, Volcano Engine e Huawei Cloud. A aliança utiliza a plataforma de agregação MoMA para construir um gateway de serviço unificado para AI doméstica m

GateNews58m atrás

A Anthropic Lança Autoencoders de Linguagem Natural para Decodificar a Raciocínio de Modelos de IA e Abre o Código-Fonte

A Anthropic lançou recentemente Natural Language Autoencoders (NLA), uma ferramenta que traduz ativações internas do modelo em texto legível para humanos, com código e pesos do modelo de código aberto no GitHub. Ao contrário de ferramentas existentes como Sparse Autoencoders que geram recursos obscuros, a NLA gera diretamente

GateNews58m atrás

A China divulga plano de ação de IA e energia com metas para 2027 e 2030 em 8 de maio

De acordo com a PANews, em 8 de maio, a Comissão Nacional de Desenvolvimento e Reforma da China, a Administração Nacional de Energia, o Ministério da Indústria e Tecnologia da Informação e a Administração Nacional de Dados divulgaram conjuntamente uma ação

GateNews1h atrás

Três agências da China divulgam orientações sobre agentes de IA com 19 cenários típicos de aplicação

De acordo com a PANews, a Administração do Ciberespaço da China, a Comissão Nacional de Desenvolvimento e Reforma e o Ministério da Indústria e Tecnologia da Informação divulgaram em conjunto hoje (8 de maio) orientações sobre agentes de IA. O documento define um agente de IA como um sistema de inteligência artificial com autonomia

GateNews1h atrás

FMI: IA Representa Potencial Ameaça à Estabilidade Financeira

Relatório do FMI sobre riscos de estabilidade financeira e IA O Fundo Monetário Internacional publicou um relatório em 7 de maio afirmando que a inteligência artificial (IA) está mudando a forma como os sistemas financeiros respondem a vulnerabilidades cibernéticas e incidentes de segurança, ao mesmo tempo em que amplia os riscos de cibersegurança e

CryptoFrontier2h atrás
Comentário
0/400
Sem comentários