Fuente de la imagen: Generada por la herramienta de IA Unbounded
En los últimos días, los "cantantes impopulares" nacionales se han vuelto populares nuevamente con versiones de canciones de AI.
Los internautas de la Estación B utilizaron el modelo de IA para generar el clon de IA de la cantante Stefanie Sun, que en realidad es similar a "Lin Chiling" y "Guo Degang" en la navegación del automóvil. Tome el audio del propio cantante para entrenar y genere un "Sun Yanzi" con exactamente el mismo timbre.
Luego, el deseo de dejar que los ídolos cantaran sus canciones favoritas se realizó de una manera tan extraña.
Fuente: Estación B
El juego en el extranjero es aún más escandaloso.
Una celebridad de Internet de 23 años en los Estados Unidos con 1,8 millones de fanáticos reprodujo su clon de IA con GPT-4 y luego se enamoró de más de 1000 internautas al mismo tiempo, cobrando $ 1 por minuto.
En solo una semana, recaudó $71,600.
**Y es mucho más que eso, ahora sus "novios" siguen aumentando rápidamente, y han aumentado a casi 10,000 personas, y han estado esperando en fila para "enamorarse" de ella durante 96 horas. . **
Algunos analistas creen que según la tendencia, no es difícil para ella ganar 5 millones de dólares al mes, si no fuera por las limitaciones técnicas, el dinero que gana puede ser una cifra astronómica.
Estos fenómenos ya pueden demostrar plenamente que se acerca rápidamente una era de nuevos dividendos tecnológicos provocados por AI+.
01El ejército humano digital entra en la sala de transmisión en vivo
La entrega en vivo con bienes es el escenario más potencial para la realización de IP virtual.
El uso de herramientas como redes sociales, videos y compras en línea por parte de la Generación Z está muy por encima del nivel promedio de toda la red. El nuevo juego que combina humanos digitales y espacios virtuales les ha brindado una sensación de experiencia e interactividad. los fanáticos de la IP virtual son un grupo de jóvenes de 18 a 24 años.
Esta tendencia permite que las marcas vean la oportunidad de hacer que los productos rompan círculos.
En 2020, los cantantes virtuales Luo Tianyi y Le Zhengling vendrán a la sala de transmisión en vivo de Taobao para traer productos para Bausch & Lomb, Midea, L'Occitane y otras marcas. El número de espectadores de esta transmisión en vivo llegó a 2,7 millones, y casi 2 millones de personas dieron recompensas e interacciones.
Esto provocó una gran discusión en ese momento, y ha llegado la era de la transmisión en vivo por **seres humanos digitales virtuales. **
Y con el auge de los modelos a gran escala de inteligencia artificial provocados por chatGPT este año, el campo de los humanos digitales virtuales ha dado paso a otra ronda de explosiones más majestuosas.
Una gran cantidad de personas digitales virtuales comenzaron a aglomerarse en la sala de transmisión en vivo.
En abril de este año, el humano digital virtual "朏朏" de Tianyu Digital completó el acceso al modelo ChatGPT y completó el debut de la transmisión en vivo. No solo puede responder a las preguntas de los clientes en tiempo real, sino que también puede responder diferentes preguntas de forma independiente.
Fuente: Douyin
En el breve video, ha habido muchas escenas como esta: Toda la oficina de una empresa está vacía, solo las filas de escritorios con docenas de bellezas de IA en las pantallas de las computadoras están transmitiendo en vivo.... ..
Fuente: video corto
Esta empresa puede transmitir en vivo durante un día solo con avatares, guiones y fondos súper realistas en 2D preparados con anticipación. **Aunque los efectos individuales no son tan buenos como las transmisiones en vivo, el costo es ridículamente bajo y también puede ser copiado a un costo ultra bajo, la victoria radica en ganar por cantidad, y no es imposible realmente acostarse y dejar que la IA gane dinero. **
Todo esto demuestra que se está produciendo una revolución en la eficiencia de los contenidos basada en "AI+" en el campo de los humanos digitales.
Los humanos digitales virtuales se dividen en muchos tipos según la tecnología de producción, los escenarios de aplicación y las características de la imagen.
A diferencia de los ídolos populares en 3D, la mayoría de las personas digitales realistas en 2D que hablan en la sala de transmisión en vivo se basan en prototipos de la vida real, y sus voces y expresiones se reproducen.
Un presentador virtual puede realizar trabajos de transmisión en vivo los 7*24, de guardia, sin preocuparse por el problema de volcar configuraciones humanas, lo que reduce el costo de mano de obra en las operaciones de transmisión en vivo.
Detrás de esto, AIGC está remodelando el proceso de producción de humanos digitales.
La producción de seres humanos digitales en 2D utiliza el aprendizaje profundo. Solo necesita determinar el diseño de la imagen. Después de recopilar y preprocesar los datos gráficos y de audio, se cargan en el modelo para el entrenamiento. En comparación con el 3D, el método de producción es más simple y más estandarizado, y la eficiencia de producción se mejora continuamente.
Este método de línea de ensamblaje de fábrica ha acortado en gran medida el umbral de producción, el costo y el ciclo de los humanos digitales.
**Al mismo tiempo, con la iteración tecnológica y la reducción de costos al final de la producción de la industria, también han comenzado a surgir soluciones digitales humanas para pequeños clientes. **
En abril, Tencent Cloud lanzó la plataforma de producción humana digital. Los avatares digitales que necesitan generar imágenes de la vida real pueden comprar servicios en la plataforma. Simplemente cargue imágenes, audio y video para realizar la personalización y cargue de acuerdo con diferentes timbres y duraciones de video.
Además de crear humanos digitales, también puede proporcionar un conjunto completo de soluciones de transmisión en vivo de humanos digitales. Las funciones incluyen audio de persona real que se hace cargo de la sala de transmisión en vivo y obtiene respuestas inteligentes a los comentarios de los usuarios. El precio solo necesita mil yuanes. .
**Y algunos operadores de canales incluso venden anclas de IA en paquetes por menos de 200 yuanes. **
La mayoría de estas imágenes de anclaje provienen de la autorización de agencias de modelos, aunque la calidad de la transmisión es áspera, hay rastros evidentes de recortes y la voz no tiene características.
Pero para las pequeñas y medianas empresas ordinarias, no hay una gran V para traer bienes, y no pueden darse el lujo de gastar millones para personalizar IP de alta gama.Si quieren reducir los costos operativos y comenzar el volumen rápidamente, unos pocos miles persona digital yuan es suficiente.
Estudio humano digital, Siji
Si una empresa quiere modificar el código por sí misma y producir diferentes humanos digitales, también puede comprar el código fuente a un proveedor de tecnología.Las personas digitales transmiten en vivo y ganan dinero.
Pero la historia de la IA humana digital aún no ha terminado.
02 Alma imbuida de IA
En el informe "Estado del mercado humano digital de IA de China y análisis de oportunidades", IDC dividió a los humanos digitales en cinco niveles. En la actualidad, el desarrollo de los humanos digitales ha pasado por etapas desde la producción manual hasta el modelado de IA. Inicialmente tienen una apariencia humana, pero solo pueden tomar decisiones interactivas simples.
Cuando el nivel de inteligencia alcanza L4 y L5, los humanos digitales impulsados por IA pueden tomar el control de la mayoría de las decisiones de la escena y admitir más interacciones modales en tiempo real, similar al mayordomo personal de IA de Iron Man, "Jarvis".
**El desarrollo de humanos digitales virtuales en los últimos 30 años, el desarrollo tecnológico y la demanda del mercado han evolucionado básicamente en torno a dos puntos, uno son los efectos visuales y el otro es la experiencia interactiva. **
Los humanos digitales virtuales aparecieron por primera vez en juegos, animaciones y películas, haciéndose eco de la conexión emocional con las cosas de moda y la extensión del valor de la propiedad intelectual.
Las primeras IP de tipo personaje se pintaban a mano y las acciones tenían que dibujarse una por una. En 1982, Hayashi Minmi, la heroína de la animación japonesa "Macros", se convirtió en la primera cantante virtual en lanzar un álbum de música.
El cantante de primera generación Lin Mingmei
En las películas, la imagen puede ser modelada por computadora, pero la acción debe ser realizada por humanos. La tecnología CG y la captura de movimiento y otras tecnologías se están volviendo populares gradualmente. Con base en pantallas verdes y equipos de captura, los actores pueden desempeñar cualquier papel.
Después del milenio, desde "El Señor de los Anillos" en 2002 hasta "Avatar 2" del año pasado, el efecto de representación de los personajes ha sido minucioso, lo que ha brindado una gran comodidad a la creación artística.
Imagen de 'Gollum' de El Señor de los Anillos capturada por personas reales
Hasta ahora, el desarrollo de la tecnología humana digital se ha ido acercando al límite de parecerse más a un "humano" paso a paso. No solo requiere que la apariencia y los efectos visuales en la ropa se acerquen a la realidad, sino que también incluye la conducción (presentación de y delicadas expresiones y movimientos) y renderizado (hacer que la imagen sea más detallada y en tiempo real).
Sin embargo, todavía siento que falta algo.
En 1970, Masahiro Mori, un experto japonés en robótica, presentó la teoría del "Valle Inquietante". Debido a que los robots son similares a los humanos en apariencia y acciones, los humanos tendrán emociones positivas hacia los robots.
Cuando los robots y los humanos alcanzan un cierto nivel de similitud, incluso la más mínima diferencia se magnifica y genera negatividad y resentimiento. Y cuando la similitud entre los robots y los humanos continúe aumentando, los humanos volverán a tener sentimientos positivos hacia ellos.
A diferencia de las películas, los escenarios de aplicaciones con atributos sociales más fuertes tienen mayores requisitos para la interacción en tiempo real de los humanos digitales, y no solo están satisfechos con hacer un "jarrón" atractivo.
**En términos de interacción, los modelos de lenguaje natural llenan el vacío. **
GPT, cuya capacidad de generación de texto ha asombrado a todos, ha añadido dos barras al "coeficiente intelectual" de los humanos digitales.
El gran modelo de PNL es la piedra angular técnica de los humanos virtuales impulsados por IA. En pocas palabras, permite que los humanos digitales virtuales hablen con elocuencia, reduzcan el costo de producción de contenido estandarizado y se capaciten para desempeñar roles como servicio al cliente inteligente, moderador y asistente. guía turístico. A la larga, con la mejora de la personalización y la comprensión emocional, también se logrará brindar compañía y cuidado a los ancianos y convertirse en un "maestro personal" para los niños.
Además, la IA también puede impulsar los movimientos de la boca para establecer una relación de mapeo con el texto. A medida que aumenta el nivel de realismo, las microexpresiones serán más abundantes. Al hablar, las expresiones y los movimientos de la boca pueden coincidir. en forma" y "humano en espíritu".
Agencia de noticias Xinhua: El primer astronauta digital del mundo: Xiao Zheng
Midjourney es un producto explosivo basado en el modelo de difusión. Fue lanzado en julio del año pasado. Entrena la pintura de IA a través de instrucciones de entrada de texto.
Una pareja, ilustración de Midjourney
** Algunas organizaciones han calculado que sus ingresos anuales actuales han alcanzado una escala de 100 millones de dólares estadounidenses. **
Hay un maestro de la estación B que usó Midjourney para restaurar la imagen realista de la abuela. Desde la apariencia, las líneas de la piel envejecidas y el cabello blanco están llenos de detalles, además del audio pasado para reproducir la voz de la abuela, y finalmente generó la imagen de la abuela a través de D-ID Digital doble.
Para compensar el pequeño arrepentimiento de no despedirse de la abuela, el nieto inició un diálogo con la "abuela" digital frente a él, y la "abuela" respondió cordialmente, que en realidad era el material de respuesta proporcionado por ChatGPT.
Fuente: Estación B
Es a través de estos cada vez más intentos en el extremo del cliente que, a su vez, se agrega continuamente una gran cantidad de materiales de capacitación a la "personificación" de la IA, lo que acelera el enriquecimiento de los datos del modelo de IA y finalmente permite que la IA inyecte alma en humanos digitales y traer mayores posibilidades.
03 ** Epílogo **
La exploración de avatares virtuales ha continuado durante más de 30 años. Desde pintados a mano hasta impulsados por humanos, y luego impulsados por IA, el avance de la experiencia realista e interactiva ha abierto una amplia gama de escenarios de aplicación, llegando al océano. .
AIGC ayuda a digitalizar completamente la apariencia, la voz y otras características de la gente común, y el umbral de producción más bajo abre el espacio de imaginación del mercado.
IDC predice que para 2026, el tamaño del mercado del ser humano digital con IA de China alcanzará los 10,240 millones de yuanes, pero cuán buena sea la experiencia que nos pueda brindar determinará el destino final del ser humano digital.
Al mismo tiempo, AI digital human tiene el potencial del portal de interacción humano-computadora de próxima generación. En el futuro, es posible que lo que enfrentemos ya no sea una pantalla fría, sino un humano digital vivo. participantes.
Tal vez como dijo el padrino de la IA, los seres humanos son solo una etapa de transición en la evolución de la inteligencia para crear inteligencia digital. Ahora finalmente tenemos un clon digital que se parece a un ser humano, habla como nosotros y puede pensar como nosotros. en el futuro. (texto completo)
Ver originales
El contenido es solo de referencia, no una solicitud u oferta. No se proporciona asesoramiento fiscal, legal ni de inversión. Consulte el Descargo de responsabilidad para obtener más información sobre los riesgos.
La IA comienza a inyectar alma en las personas digitales
Autor: Freddy
Soporte de datos: big data pitagórico (
Fuente: Gelonghui
En los últimos días, los "cantantes impopulares" nacionales se han vuelto populares nuevamente con versiones de canciones de AI.
Los internautas de la Estación B utilizaron el modelo de IA para generar el clon de IA de la cantante Stefanie Sun, que en realidad es similar a "Lin Chiling" y "Guo Degang" en la navegación del automóvil. Tome el audio del propio cantante para entrenar y genere un "Sun Yanzi" con exactamente el mismo timbre.
Luego, el deseo de dejar que los ídolos cantaran sus canciones favoritas se realizó de una manera tan extraña.
El juego en el extranjero es aún más escandaloso.
Una celebridad de Internet de 23 años en los Estados Unidos con 1,8 millones de fanáticos reprodujo su clon de IA con GPT-4 y luego se enamoró de más de 1000 internautas al mismo tiempo, cobrando $ 1 por minuto.
En solo una semana, recaudó $71,600.
Algunos analistas creen que según la tendencia, no es difícil para ella ganar 5 millones de dólares al mes, si no fuera por las limitaciones técnicas, el dinero que gana puede ser una cifra astronómica.
Estos fenómenos ya pueden demostrar plenamente que se acerca rápidamente una era de nuevos dividendos tecnológicos provocados por AI+.
01El ejército humano digital entra en la sala de transmisión en vivo
La entrega en vivo con bienes es el escenario más potencial para la realización de IP virtual.
El uso de herramientas como redes sociales, videos y compras en línea por parte de la Generación Z está muy por encima del nivel promedio de toda la red. El nuevo juego que combina humanos digitales y espacios virtuales les ha brindado una sensación de experiencia e interactividad. los fanáticos de la IP virtual son un grupo de jóvenes de 18 a 24 años.
Esta tendencia permite que las marcas vean la oportunidad de hacer que los productos rompan círculos.
En 2020, los cantantes virtuales Luo Tianyi y Le Zhengling vendrán a la sala de transmisión en vivo de Taobao para traer productos para Bausch & Lomb, Midea, L'Occitane y otras marcas. El número de espectadores de esta transmisión en vivo llegó a 2,7 millones, y casi 2 millones de personas dieron recompensas e interacciones.
Esto provocó una gran discusión en ese momento, y ha llegado la era de la transmisión en vivo por **seres humanos digitales virtuales. **
Y con el auge de los modelos a gran escala de inteligencia artificial provocados por chatGPT este año, el campo de los humanos digitales virtuales ha dado paso a otra ronda de explosiones más majestuosas.
Una gran cantidad de personas digitales virtuales comenzaron a aglomerarse en la sala de transmisión en vivo.
En abril de este año, el humano digital virtual "朏朏" de Tianyu Digital completó el acceso al modelo ChatGPT y completó el debut de la transmisión en vivo. No solo puede responder a las preguntas de los clientes en tiempo real, sino que también puede responder diferentes preguntas de forma independiente.
En el breve video, ha habido muchas escenas como esta: Toda la oficina de una empresa está vacía, solo las filas de escritorios con docenas de bellezas de IA en las pantallas de las computadoras están transmitiendo en vivo.... ..
Esta empresa puede transmitir en vivo durante un día solo con avatares, guiones y fondos súper realistas en 2D preparados con anticipación. **Aunque los efectos individuales no son tan buenos como las transmisiones en vivo, el costo es ridículamente bajo y también puede ser copiado a un costo ultra bajo, la victoria radica en ganar por cantidad, y no es imposible realmente acostarse y dejar que la IA gane dinero. **
Todo esto demuestra que se está produciendo una revolución en la eficiencia de los contenidos basada en "AI+" en el campo de los humanos digitales.
Los humanos digitales virtuales se dividen en muchos tipos según la tecnología de producción, los escenarios de aplicación y las características de la imagen.
A diferencia de los ídolos populares en 3D, la mayoría de las personas digitales realistas en 2D que hablan en la sala de transmisión en vivo se basan en prototipos de la vida real, y sus voces y expresiones se reproducen.
Un presentador virtual puede realizar trabajos de transmisión en vivo los 7*24, de guardia, sin preocuparse por el problema de volcar configuraciones humanas, lo que reduce el costo de mano de obra en las operaciones de transmisión en vivo.
Detrás de esto, AIGC está remodelando el proceso de producción de humanos digitales.
La producción de seres humanos digitales en 2D utiliza el aprendizaje profundo. Solo necesita determinar el diseño de la imagen. Después de recopilar y preprocesar los datos gráficos y de audio, se cargan en el modelo para el entrenamiento. En comparación con el 3D, el método de producción es más simple y más estandarizado, y la eficiencia de producción se mejora continuamente.
Este método de línea de ensamblaje de fábrica ha acortado en gran medida el umbral de producción, el costo y el ciclo de los humanos digitales.
**Al mismo tiempo, con la iteración tecnológica y la reducción de costos al final de la producción de la industria, también han comenzado a surgir soluciones digitales humanas para pequeños clientes. **
En abril, Tencent Cloud lanzó la plataforma de producción humana digital. Los avatares digitales que necesitan generar imágenes de la vida real pueden comprar servicios en la plataforma. Simplemente cargue imágenes, audio y video para realizar la personalización y cargue de acuerdo con diferentes timbres y duraciones de video.
Además de crear humanos digitales, también puede proporcionar un conjunto completo de soluciones de transmisión en vivo de humanos digitales. Las funciones incluyen audio de persona real que se hace cargo de la sala de transmisión en vivo y obtiene respuestas inteligentes a los comentarios de los usuarios. El precio solo necesita mil yuanes. .
**Y algunos operadores de canales incluso venden anclas de IA en paquetes por menos de 200 yuanes. **
La mayoría de estas imágenes de anclaje provienen de la autorización de agencias de modelos, aunque la calidad de la transmisión es áspera, hay rastros evidentes de recortes y la voz no tiene características.
Pero para las pequeñas y medianas empresas ordinarias, no hay una gran V para traer bienes, y no pueden darse el lujo de gastar millones para personalizar IP de alta gama.Si quieren reducir los costos operativos y comenzar el volumen rápidamente, unos pocos miles persona digital yuan es suficiente.
Si una empresa quiere modificar el código por sí misma y producir diferentes humanos digitales, también puede comprar el código fuente a un proveedor de tecnología.Las personas digitales transmiten en vivo y ganan dinero.
Pero la historia de la IA humana digital aún no ha terminado.
02 Alma imbuida de IA
En el informe "Estado del mercado humano digital de IA de China y análisis de oportunidades", IDC dividió a los humanos digitales en cinco niveles. En la actualidad, el desarrollo de los humanos digitales ha pasado por etapas desde la producción manual hasta el modelado de IA. Inicialmente tienen una apariencia humana, pero solo pueden tomar decisiones interactivas simples.
Cuando el nivel de inteligencia alcanza L4 y L5, los humanos digitales impulsados por IA pueden tomar el control de la mayoría de las decisiones de la escena y admitir más interacciones modales en tiempo real, similar al mayordomo personal de IA de Iron Man, "Jarvis".
Los humanos digitales virtuales aparecieron por primera vez en juegos, animaciones y películas, haciéndose eco de la conexión emocional con las cosas de moda y la extensión del valor de la propiedad intelectual.
Las primeras IP de tipo personaje se pintaban a mano y las acciones tenían que dibujarse una por una. En 1982, Hayashi Minmi, la heroína de la animación japonesa "Macros", se convirtió en la primera cantante virtual en lanzar un álbum de música.
En las películas, la imagen puede ser modelada por computadora, pero la acción debe ser realizada por humanos. La tecnología CG y la captura de movimiento y otras tecnologías se están volviendo populares gradualmente. Con base en pantallas verdes y equipos de captura, los actores pueden desempeñar cualquier papel.
Después del milenio, desde "El Señor de los Anillos" en 2002 hasta "Avatar 2" del año pasado, el efecto de representación de los personajes ha sido minucioso, lo que ha brindado una gran comodidad a la creación artística.
Hasta ahora, el desarrollo de la tecnología humana digital se ha ido acercando al límite de parecerse más a un "humano" paso a paso. No solo requiere que la apariencia y los efectos visuales en la ropa se acerquen a la realidad, sino que también incluye la conducción (presentación de y delicadas expresiones y movimientos) y renderizado (hacer que la imagen sea más detallada y en tiempo real).
Sin embargo, todavía siento que falta algo.
En 1970, Masahiro Mori, un experto japonés en robótica, presentó la teoría del "Valle Inquietante". Debido a que los robots son similares a los humanos en apariencia y acciones, los humanos tendrán emociones positivas hacia los robots.
Cuando los robots y los humanos alcanzan un cierto nivel de similitud, incluso la más mínima diferencia se magnifica y genera negatividad y resentimiento. Y cuando la similitud entre los robots y los humanos continúe aumentando, los humanos volverán a tener sentimientos positivos hacia ellos.
**En términos de interacción, los modelos de lenguaje natural llenan el vacío. **
GPT, cuya capacidad de generación de texto ha asombrado a todos, ha añadido dos barras al "coeficiente intelectual" de los humanos digitales.
El gran modelo de PNL es la piedra angular técnica de los humanos virtuales impulsados por IA. En pocas palabras, permite que los humanos digitales virtuales hablen con elocuencia, reduzcan el costo de producción de contenido estandarizado y se capaciten para desempeñar roles como servicio al cliente inteligente, moderador y asistente. guía turístico. A la larga, con la mejora de la personalización y la comprensión emocional, también se logrará brindar compañía y cuidado a los ancianos y convertirse en un "maestro personal" para los niños.
Además, la IA también puede impulsar los movimientos de la boca para establecer una relación de mapeo con el texto. A medida que aumenta el nivel de realismo, las microexpresiones serán más abundantes. Al hablar, las expresiones y los movimientos de la boca pueden coincidir. en forma" y "humano en espíritu".
Midjourney es un producto explosivo basado en el modelo de difusión. Fue lanzado en julio del año pasado. Entrena la pintura de IA a través de instrucciones de entrada de texto.
** Algunas organizaciones han calculado que sus ingresos anuales actuales han alcanzado una escala de 100 millones de dólares estadounidenses. **
Hay un maestro de la estación B que usó Midjourney para restaurar la imagen realista de la abuela. Desde la apariencia, las líneas de la piel envejecidas y el cabello blanco están llenos de detalles, además del audio pasado para reproducir la voz de la abuela, y finalmente generó la imagen de la abuela a través de D-ID Digital doble.
Para compensar el pequeño arrepentimiento de no despedirse de la abuela, el nieto inició un diálogo con la "abuela" digital frente a él, y la "abuela" respondió cordialmente, que en realidad era el material de respuesta proporcionado por ChatGPT.
Es a través de estos cada vez más intentos en el extremo del cliente que, a su vez, se agrega continuamente una gran cantidad de materiales de capacitación a la "personificación" de la IA, lo que acelera el enriquecimiento de los datos del modelo de IA y finalmente permite que la IA inyecte alma en humanos digitales y traer mayores posibilidades.
03 ** Epílogo **
La exploración de avatares virtuales ha continuado durante más de 30 años. Desde pintados a mano hasta impulsados por humanos, y luego impulsados por IA, el avance de la experiencia realista e interactiva ha abierto una amplia gama de escenarios de aplicación, llegando al océano. .
AIGC ayuda a digitalizar completamente la apariencia, la voz y otras características de la gente común, y el umbral de producción más bajo abre el espacio de imaginación del mercado.
IDC predice que para 2026, el tamaño del mercado del ser humano digital con IA de China alcanzará los 10,240 millones de yuanes, pero cuán buena sea la experiencia que nos pueda brindar determinará el destino final del ser humano digital.
Al mismo tiempo, AI digital human tiene el potencial del portal de interacción humano-computadora de próxima generación. En el futuro, es posible que lo que enfrentemos ya no sea una pantalla fría, sino un humano digital vivo. participantes.
Tal vez como dijo el padrino de la IA, los seres humanos son solo una etapa de transición en la evolución de la inteligencia para crear inteligencia digital. Ahora finalmente tenemos un clon digital que se parece a un ser humano, habla como nosotros y puede pensar como nosotros. en el futuro. (texto completo)