xAI, la iniciativa de inteligencia artificial de Elon Musk, ha implementado nuevas restricciones en su plataforma de chatbot Grok. La medida se centra en las capacidades de edición de imágenes, una respuesta directa a la generación de imágenes sexualizadas que levantaron alertas con los reguladores de todo el mundo.
La compañía confirmó que está reforzando los controles en todas las cuentas de usuario para prevenir el uso indebido de las funciones de manipulación de imágenes. Este cambio en la política refleja la creciente vigilancia en torno al contenido generado por IA y cómo las plataformas manejan salidas potencialmente dañinas.
Es un ejemplo notable de cómo los proyectos de IA están adaptando sus protocolos de seguridad bajo presión regulatoria. Ya sea mediante filtrado de contenido, restricciones en funciones o controles para usuarios, las principales plataformas de IA se ven cada vez más obligadas a equilibrar innovación con responsabilidad. La ofensiva indica que las preocupaciones de gobernanza sobre los medios sintéticos no se desacelerarán en el corto plazo.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
xAI, la iniciativa de inteligencia artificial de Elon Musk, ha implementado nuevas restricciones en su plataforma de chatbot Grok. La medida se centra en las capacidades de edición de imágenes, una respuesta directa a la generación de imágenes sexualizadas que levantaron alertas con los reguladores de todo el mundo.
La compañía confirmó que está reforzando los controles en todas las cuentas de usuario para prevenir el uso indebido de las funciones de manipulación de imágenes. Este cambio en la política refleja la creciente vigilancia en torno al contenido generado por IA y cómo las plataformas manejan salidas potencialmente dañinas.
Es un ejemplo notable de cómo los proyectos de IA están adaptando sus protocolos de seguridad bajo presión regulatoria. Ya sea mediante filtrado de contenido, restricciones en funciones o controles para usuarios, las principales plataformas de IA se ven cada vez más obligadas a equilibrar innovación con responsabilidad. La ofensiva indica que las preocupaciones de gobernanza sobre los medios sintéticos no se desacelerarán en el corto plazo.