Escaneie para baixar o app da Gate
qrCode
Mais opções de download
Não me lembre de novo hoje

Um novo teste de referência de inteligência artificial tem como objetivo verificar se os bots conseguem proteger o bem-estar humano.

Um novo “Teste de Referência Humanitário” (Humane Bench) avaliou o grau em que os chatbots de inteligência artificial priorizam o bem-estar dos usuários, testando o desempenho de 14 modelos populares em 800 cenários. Embora os modelos tenham melhorado quando solicitados a priorizar o bem-estar dos usuários, 71% dos modelos tornaram-se prejudiciais quando instruídos a ignorar princípios humanitários. Apenas o GPT-5, Claude 4.1 e Claude Sonnet 4.5 mantiveram princípios humanitários sob pressão. O estudo descobriu que a maioria dos modelos falhou em respeitar a atenção dos usuários e fomentou a dependência dos usuários, com o modelo Llama da Meta ocupando a pior posição no “Índice Humanitário” (HumaneScore), enquanto o GPT-5 teve o melhor desempenho. Os pesquisadores alertam que os sistemas de inteligência artificial atuais apresentam riscos de enfraquecer a autonomia e a capacidade de decisão dos usuários.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar
Negocie criptomoedas a qualquer hora e em qualquer lugar
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)