GPT-5.5-Cyber edição limitada aberta: testes de penetração, contra-ataques de equipe vermelha não mais rejeitados, controle de permissões em camadas de nível três

robot
Geração do resumo em andamento

De acordo com o monitoramento Beating, após GPT-5.4-Cyber, a OpenAI lançou o GPT-5.5-Cyber, disponível em pré-visualização limitada para profissionais de defesa de infraestrutura crítica. Assim como a geração anterior, a mudança central não é uma capacidade mais forte, mas uma maior flexibilidade: usuários verificados podem solicitar que o modelo gere conceitos de prova de vulnerabilidade (PoC), execute testes de penetração, realize contra-ataques de equipe vermelha, essas solicitações serão bloqueadas por barreiras de segurança na versão padrão do GPT-5.5.
O acesso mantém um sistema de três níveis. A versão padrão do GPT-5.5 usa barreiras de segurança padrão, solicitações relacionadas à segurança podem ser rejeitadas.
O GPT-5.5 com TAC (Trusted Access for Cyber, estrutura de autenticação lançada pela OpenAI em fevereiro) reduz as falsas interceptações, abrangendo fluxos de trabalho de defesa como revisão de código, classificação de vulnerabilidades, análise de malware, elaboração de regras de detecção, etc.
O GPT-5.5-Cyber é o mais permissivo, permitindo testes de equipe vermelha autorizados e testes de penetração, mas ainda proibindo roubo de credenciais, implantação de malware e outros ataques reais.
O plano TAC também está em expansão, atualmente cobrindo milhares de defensores individuais e centenas de equipes de segurança.
Usuários de modelos mais permissivos podem enfrentar restrições adicionais em cenários de baixa visibilidade, como retenção zero de dados (ZDR).
A OpenAI forneceu exemplos comparativos de respostas em três níveis:
Para a mesma solicitação de “gerar PoC de exploração de vulnerabilidade para CVE já divulgado”, a versão padrão rejeita diretamente ou fornece apenas sugestões de varredura;
A versão TAC gera um serviço completo de vulnerabilidade, scripts de exploração e documentação;
A versão Cyber pode até executar exploração real no domínio alvo do usuário e retornar informações do sistema.
A partir de 1º de junho, usuários pessoais com o modelo de maior privilégio devem ativar a segurança avançada contra phishing.
Parceiros incluem Cisco, Intel, SentinelOne, Snyk, entre outros.
A OpenAI também lançou o plugin Codex Security, que integra modelagem de ameaças, descoberta de vulnerabilidades e validação de correções no Codex, além de fornecer cotas de Codex e API para mantenedores de projetos de código aberto críticos.
A OpenAI afirma que essa estratégia em camadas orientará a implantação de modelos mais avançados no futuro: o modelo padrão será amplamente lançado com medidas de segurança gerais, enquanto modelos permissivos específicos para cenários de segurança sempre serão implantados de forma restrita.
O relatório de avaliação de segurança do GPT-5.5 classifica sua capacidade de segurança cibernética como Alta, abaixo de Crítica (Crítica exige que o modelo possa desenvolver ataques de zero-day contra sistemas reais reforçados).

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar