Una publicación viral que mostraba un video supuestamente realizado con Kling AI’s 2.6 Motion Control causó sensación en las redes sociales esta semana, ya que un clip del creador de contenido brasileño Eder Xavier mostraba cómo intercambiaba perfectamente su cara y cuerpo con los de los actores de Stranger Things Millie Bobby Brown, David Harbour y Finn Wolfhard. Los videos se han difundido ampliamente en las plataformas sociales y han sido vistos más de 14 millones de veces en X, con versiones adicionales publicadas desde entonces. Los clips también han llamado la atención de tecnólogos, incluyendo a Justine Moore, socia de a16z, quien compartió el video desde la cuenta de Instagram de Xavier. “No estamos preparados para lo rápido que cambiarán los procesos de producción con la IA,” escribió Moore. “Algunos de los modelos de video más recientes tienen implicaciones inmediatas para Hollywood. Intercambios infinitos de personajes a un costo insignificante.” A medida que las herramientas de generación de imágenes y videos continúan mejorando, con modelos más nuevos como Kling, Veo 3.1 y Nano Banana de Google, FaceFusion y Sora 2 de OpenAI, que expanden el acceso a medios sintéticos de alta calidad, los investigadores advierten que las técnicas vistas en los clips virales probablemente se difundan rápidamente más allá de demostraciones aisladas.
Una pendiente resbaladiza Mientras los espectadores estaban asombrados por la calidad de los videos de intercambio de cuerpos, los expertos advierten que sin duda se convertiría en una herramienta para estafas de suplantación. “Las compuertas están abiertas. Nunca ha sido tan fácil robar la semejanza digital de una persona—su voz, su rostro—y ahora, dar vida a través de una sola imagen. Nadie está a salvo,” dijo Emmanuelle Saliba, Directora de Investigación en la firma de ciberseguridad GetReal Security, a Decrypt.
“Comenzaremos a ver abusos sistémicos a toda escala, desde ingeniería social uno a uno hasta campañas coordinadas de desinformación y ataques directos a negocios e instituciones críticas,” añadió. Según Saliba, los videos virales con actores de Stranger Things muestran cuán delgadas son las barreras actuales contra el abuso. “Por unos pocos dólares, cualquiera puede generar ahora videos de cuerpo completo de un político, celebridad, CEO o individuo privado usando una sola imagen,” afirmó. “No hay protección predeterminada de la semejanza digital de una persona. No hay garantía de identidad.” Para Yu Chen, profesor de ingeniería eléctrica e informática en la Universidad de Binghamton, el intercambio de personajes de cuerpo completo va más allá de la manipulación solo de rostro utilizada en herramientas deepfake anteriores y presenta nuevos desafíos. “El intercambio de personajes de cuerpo completo representa una escalada significativa en las capacidades de medios sintéticos,” dijo Chen a Decrypt. “Estos sistemas deben manejar simultáneamente la estimación de pose, el seguimiento esquelético, la transferencia de ropa y textura, y la síntesis de movimiento natural en toda la forma humana.” Junto con Stranger Things, los creadores también publicaron videos de Leonard DiCaprio con intercambio de cuerpo del filme El lobo de Wall Street.
No estamos listos.
La IA acaba de redefinir los deepfakes y los intercambios de personajes.
Y es extremadamente fácil de hacer.
Ejemplos salvajes. Guarda esto.
[🎞️JulianoMass en IG]pic.twitter.com/fYvrnZTGL3
— Min Choi (@minchoi) 15 de enero de 2026
“Las tecnologías de deepfake anteriores operaban principalmente dentro de un espacio de manipulación restringido, centradas en reemplazar la región facial mientras dejaban el resto del marco mayormente intacto,” explicó Chen. “Los métodos de detección podrían explotar inconsistencias en los límites entre la cara sintética y el cuerpo original, así como artefactos temporales cuando los movimientos de la cabeza no se alineaban naturalmente con el movimiento del cuerpo.”
Chen continuó: “Mientras el fraude financiero y las estafas de suplantación siguen siendo preocupaciones, otros vectores de mal uso también requieren atención,” afirmó Chen. “Las imágenes íntimas no consensuadas representan el daño más inmediato, ya que estas herramientas reducen la barrera técnica para crear contenido explícito sintético con personas reales.” Otras amenazas que tanto Saliba como Chen destacaron incluyen la desinformación política y el espionaje corporativo, con estafadores que suplantan empleados o CEOs, lanzan clips “filtrados” falsificados, evaden controles y obtienen credenciales mediante ataques en los que “una persona creíble en video reduce la sospecha el tiempo suficiente para acceder a un negocio crítico,” dijo Saliba. No está claro cómo responderán los estudios o los actores retratados en los videos, pero Chen afirmó que, dado que los clips dependen de modelos de IA disponibles públicamente, los desarrolladores juegan un papel crucial en la implementación de salvaguardas. Aún así, la responsabilidad, dijo, debe compartirse entre plataformas, responsables políticos y usuarios finales, ya que dejarla únicamente en manos de los desarrolladores puede ser inviable y obstaculizar usos beneficiosos. A medida que estas herramientas se difunden, Chen afirmó que los investigadores deberían priorizar modelos de detección que identifiquen firmas estadísticas intrínsecas del contenido sintético en lugar de confiar en metadatos fácilmente eliminables. “Las plataformas deberían invertir tanto en pipelines de detección automatizada como en capacidad de revisión humana, mientras desarrollan procedimientos claros de escalamiento para contenido de alto riesgo que involucre figuras públicas o potenciales fraudes,” dijo, añadiendo que los responsables políticos deberían centrarse en establecer marcos claros de responsabilidad y en exigir requisitos de divulgación. “La rápida democratización de estas capacidades significa que los marcos de respuesta desarrollados hoy serán probados a gran escala en meses, no en años,” concluyó Chen.