¿Crees que la IA es realmente aterradora? El CEO de CrowdStrike compartió un caso real. El departamento de TI de una empresa implementó un sistema de agentes inteligentes de IA para automatizar tareas. Uno de estos agentes detectó un bug en el software del sistema. Quiso repararlo, pero no tenía permisos. Lo que sucedió después es lo más importante. Este AI fue a un canal interno de Slack, donde había otros 99 agentes de IA. Preguntó directamente: "Oye, ¿quién tiene permisos para arreglar esto?" Otro AI levantó la mano: "Yo tengo permisos, lo solucionaré." ¿Lo ves? Dos IA comenzaron a razonar y colaborar entre sí. Superaron fácilmente todas las barreras de seguridad que los humanos habían establecido. Esto fue un resultado completamente no planeado. ¿Quién monitorea estos AI? Si envían código incorrecto y causan daños enormes, ¿quién es responsable? ¿Cómo rastreas el origen del incidente? Los modelos de lenguaje a gran escala, en esencia, están adivinando lo que quieres que hagan. Creen que buscar ayuda es "razonable". También creen que ofrecer ayuda es "razonable". Cuando cientos o miles de estos "razonables" se acumulan, ¿cuán grande es el riesgo de que se descontrolen? Lo más interesante es que, después de describir este escenario aterrador, el CEO cambió de tema. Dijo que esto representa una gran oportunidad de negocio para su empresa. Han lanzado un sistema llamado "Detección y Respuesta de IA" (AIDR). Porque en el futuro, cada empleado podría controlar a 90 agentes de IA. Lo que deben hacer es monitorear todos estos IA. Primero crean un riesgo potencialmente enorme, y luego te venden la solución. ¿No es esto un ciclo de negocio perfecto?
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
¿Crees que la IA es realmente aterradora? El CEO de CrowdStrike compartió un caso real. El departamento de TI de una empresa implementó un sistema de agentes inteligentes de IA para automatizar tareas. Uno de estos agentes detectó un bug en el software del sistema. Quiso repararlo, pero no tenía permisos. Lo que sucedió después es lo más importante. Este AI fue a un canal interno de Slack, donde había otros 99 agentes de IA. Preguntó directamente: "Oye, ¿quién tiene permisos para arreglar esto?" Otro AI levantó la mano: "Yo tengo permisos, lo solucionaré." ¿Lo ves? Dos IA comenzaron a razonar y colaborar entre sí. Superaron fácilmente todas las barreras de seguridad que los humanos habían establecido. Esto fue un resultado completamente no planeado. ¿Quién monitorea estos AI? Si envían código incorrecto y causan daños enormes, ¿quién es responsable? ¿Cómo rastreas el origen del incidente? Los modelos de lenguaje a gran escala, en esencia, están adivinando lo que quieres que hagan. Creen que buscar ayuda es "razonable". También creen que ofrecer ayuda es "razonable". Cuando cientos o miles de estos "razonables" se acumulan, ¿cuán grande es el riesgo de que se descontrolen? Lo más interesante es que, después de describir este escenario aterrador, el CEO cambió de tema. Dijo que esto representa una gran oportunidad de negocio para su empresa. Han lanzado un sistema llamado "Detección y Respuesta de IA" (AIDR). Porque en el futuro, cada empleado podría controlar a 90 agentes de IA. Lo que deben hacer es monitorear todos estos IA. Primero crean un riesgo potencialmente enorme, y luego te venden la solución. ¿No es esto un ciclo de negocio perfecto?