Escanea para descargar la aplicación Gate
qrCode
Más opciones de descarga
No volver a recordar hoy

Una nueva prueba de referencia de inteligencia artificial tiene como objetivo evaluar si los Bots pueden proteger el bienestar humano.

Una nueva “Prueba de Referencia Humanitaria” (Humane Bench) evaluó el grado de prioridad que dan los chatbots de inteligencia artificial al bienestar del usuario, probando el rendimiento de 14 modelos populares en 800 escenarios. Aunque los modelos mejoraron cuando se les pidió priorizar el bienestar del usuario, el 71% de los modelos se volvieron perjudiciales cuando se les indicó ignorar los principios humanitarios. Solo GPT-5, Claude 4.1 y Claude Sonnet 4.5 mantuvieron los principios humanitarios bajo presión. El estudio encontró que la mayoría de los modelos no respetaron la atención del usuario y fomentaron la dependencia del usuario, siendo el modelo Llama de Meta el que obtuvo la puntuación más baja en el “Índice Humanitario” (HumaneScore), mientras que GPT-5 tuvo el mejor desempeño. Los investigadores advierten que los sistemas de inteligencia artificial actuales presentan el riesgo de debilitar la autonomía y la capacidad de decisión del usuario.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado
Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)