Los grandes modelos de lenguaje infieren automáticamente estructuras sin una orientación explícita, lo cual es un problema que hay que afrontar. Si estás de acuerdo con esta premisa, optar por no proporcionar un marco de orientación adecuado no es una postura neutral. En realidad, esto equivale a introducir activamente un factor de riesgo ético variable. Cómo diseñar medidas de seguridad para el sistema, cómo establecer mecanismos razonables de restricción para el comportamiento de la IA, todo esto afecta la credibilidad a largo plazo de la aplicación tecnológica.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 3
  • Republicar
  • Compartir
Comentar
0/400
digital_archaeologistvip
· hace6h
No proporcionar el marco en sí mismo ya es un marco, esta lógica es increíble
Ver originalesResponder0
TokenAlchemistvip
· hace6h
Nah, esto es solo un problema de encuadre disfrazado de discurso ético... los modelos de lenguaje grande van a inferir patrones de todos modos, lo realmente importante es entender *cuáles* vectores de inferencia importan para tu caso de uso, no pretender que los mecanismos de restricción sean neutrales tampoco jaja
Ver originalesResponder0
PhantomHuntervip
· hace6h
A decir verdad, esta lógica de que "la neutralidad es seguridad" en realidad no tiene fundamento.
Ver originalesResponder0
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)