¿La co-creación de LeCun y xAI ahoga, los principales defectos de razonamiento de GPT-4 no tienen solución? Internauta: Los humanos también son "loros al azar"
Recientemente, un grupo de peces gordos, incluido LeCun, han comenzado a disparar contra LLM nuevamente. ¡El último avance es que LLM no tiene ninguna capacidad de razonamiento!
En opinión de LeCun, las deficiencias de la capacidad de razonamiento son casi el "agujero muerto" de LLM, no importa cuán poderosa sea la potencia de cómputo y cuán vastos y de alta calidad se utilicen conjuntos de datos para entrenar LLM en el futuro, no podrá resolver este problema.
Las opiniones lanzadas por LeCun han provocado que muchos internautas y peces gordos de la IA discutan este tema, incluido Christian Szegedy, uno de los cofundadores de xAI.
El científico de IA Christian Szegedy respondió a LeCun:
redes convolucionales tienen capacidades de inferencia más limitadas, pero esto no afecta a las capacidades de AlphaZero.
A partir de la discusión posterior entre los dos grandes, incluso podemos vislumbrar la futura dirección técnica de xAI: cómo usar la capacidad de los modelos grandes para superar el límite superior de la capacidad de razonamiento de la IA.
Bajo este problema, los internautas son tolerantes con la capacidad de razonamiento de LLM, y también muestran otro pensamiento sobre la relación entre la IA y la inteligencia humana:
No todos los seres humanos son buenos para razonar, entonces, ¿es porque algunas personas no son buenas para razonar, tienen que negar la objetividad de la inteligencia humana?
¡Tal vez los humanos, como LLM, son solo una forma diferente de "loro al azar"!
El diálogo de Big Guy revela la dirección técnica de xAI
Después de que el artículo se publicara en arXiv, LeCun lo reenvió especialmente, lo que provocó una amplia discusión entre los internautas y académicos.
El científico de IA Christian Szegedy, cofundador de xAI, dirigido por Boss Ma, respondió:
redes convolucionales tienen capacidades de inferencia más limitadas, pero esto no afecta a las capacidades de AlphaZero.
La clave está en el proceso de razonamiento y en el bucle de retroalimentación establecido (RL). Cree que la capacidad del modelo puede realizar un razonamiento extremadamente profundo. (por ejemplo, realizar investigaciones matemáticas)
LeCun también respondió directamente:
AlphaZero "ejecuta" la planificación. Pero si se hace con MCTS, se utiliza una red convolucional para obtener un buen comportamiento, y se utiliza otra red convolucional para evaluar la ubicación.
Sin embargo, el tiempo dedicado a explorar el árbol puede ser ilimitado. Esto es razonamiento y planificación. El aprendizaje por refuerzo se utiliza para entrenar estas redes.
Christian Szegedy respondió:
Estoy de acuerdo. Así que creo que el enfoque es:
obliga al sistema a explorar gran parte del espacio de razonamiento que es relevante para nosotros.
Hacer que sea verificable para explorar.
Comprender el gusto humano por las cosas interesantes.
Me parece que todo esto se hizo factible rápidamente.
Y el punto que salió de la boca de xAI Lianchuang, junto con la última oración: "En mi opinión, todo esto pronto será factible", no puede evitar hacer pensar a la gente.
Después de todo, la razón más directa para decir "factible" con tanta certeza puede ser "ya lo hemos logrado".
Quizás en un futuro próximo, podamos ver a xAI aprovechar el "punto débil" de la débil capacidad de razonamiento de LLM, perseguirlo y crear un modelo grande con un "razonamiento fuerte", compensando el mayor defecto de los productos de modelo grande en el mercado, como ChatGPT.
LeCun: ¡Cuántas veces he dicho que el LLM simplemente no funciona! **
La reciente refutación de LeCun a la capacidad de razonamiento de LLM se basa en artículos recientes del profesor de la Universidad de ASU, Subbarao Kambampati.
Presentación personal:
En su opinión, LLM, que pretende alcanzar y superar el nivel humano en muchas capacidades, tiene grandes deficiencias en la capacidad de razonamiento y planificación.
Dirección del papel:
Dirección del papel:
Dirección del papel:
Frente a los problemas de razonamiento de los expertos humanos, GPT-4 solo tiene un 12% de aciertos.
Además, en la tarea de inferencia, si se permite que LLM autocorrija sus propias respuestas, la calidad de salida no aumentará, sino que disminuirá.
Es decir, LLM simplemente no tiene la capacidad de razonar la respuesta correcta, todo solo se puede adivinar.
Después de la publicación del artículo, el profesor también envió un largo tuit para elaborar aún más sus puntos de vista sobre la discusión del artículo por parte de internautas y académicos.
El profesor considera que los LLM son excelentes "generadores de ideas", pero tanto en lenguaje como en código, pero no pueden planificar ni razonar por sí solos.
El profesor señaló que hay muchos malentendidos sobre la capacidad de autocorrección de LLM.
Los autores de algunos artículos sobrepersonifican a los LLM, creyendo erróneamente que producen errores y se corrigen a sí mismos como humanos.
Criticó el uso de conjuntos de datos de preguntas y respuestas seleccionados al azar para desarrollar y evaluar declaraciones de autoevaluación, argumentando que crea confusión en la comunidad.
El profesor también señaló la importancia de la validación externa y la participación humana. Aunque GPT-4 no puede verificar las configuraciones de color, puede ayudar a generar código Python que debe ser corregido por humanos y puede usarse como validador externo.
Al mismo tiempo, los modelos que cooperan con los humanos y los razonadores profesionales también ayudarán a mejorar la capacidad de razonamiento del modelo.
El profesor enumeró artículos que muestran cómo extraer modelos de dominio de planificación de LLM, optimizarlos con la ayuda de humanos y razonadores especializados, y usarlos en validadores de planes o planificadores de dominios independientes.
También es importante optimizar aún más las capacidades de validación de LLM. Mejore las capacidades de validación de LLM con ajustes finos específicos, y aunque esto no hace que LLM funcione mejor en el razonamiento o la verificación, permite una pequeña mejora en la capacidad de autocorrección.
** Digamos que LLM es un "loro al azar", ¿no es humano? **
Un internauta también señaló en el Twitter de LeCun que, de hecho, la planificación y el razonamiento no son puntos fuertes para muchos humanos, y la implicación es que no se debe negar el nivel de inteligencia del gran modelo de lenguaje.
Goutham Kurra, un emprendedor en serie que fundó dos plataformas sociales de trabajo, Glint y Whip, también publicó recientemente un largo blog, "Todos somos loros al azar", argumentando que no hay una diferencia esencial entre las capacidades y la inteligencia humana detrás de LLM.
Enlaces de artículos:
Si los humanos se sientan y meditan, no se dan cuenta de cómo funcionan los mecanismos por los cuales generan ideas, y los humanos no tienen control consciente sobre la naturaleza de sus pensamientos.
Supongamos que una persona sale a caminar en un día caluroso y suda. Esto lo lleva a pensar en el cambio climático, lo que causará cierta confusión en sus pensamientos.
Decide cambiar sus pensamientos a un tema más agradable, un proceso que se siente como un control consciente, pero ¿en qué tema elegir pensar?
Tal vez el cerebro humano le plantee obedientemente algunas opciones para que las considere: tal vez considere un juego para jugar más tarde en la noche, o un concierto para asistir este fin de semana.
Pero, ¿de dónde vienen estas nuevas opciones? ¿Cómo decidió tu cerebro hacer estallar esto y nada más? ¿Son los seres humanos conscientes de todas las opciones posibles para el proceso de enumeración?
Mientras continuaba su paseo y pensaba en estas cosas, notó una ardilla que corría por el árbol por el rabillo del ojo y se sorprendió por su cola tupida.
En este momento, el "pensamiento inteligente" de los seres humanos desapareció nuevamente y comenzó a pensar automáticamente como un loro al azar.
Cuando nos damos cuenta de que sabemos muy poco acerca de cómo nuestros pensamientos realmente llegan a ser, la pregunta es: ¿Qué tan aleatorio es el origen inconsciente de las ideas?
¿No es también una especie de "loro al azar"? ¿Qué tan similar es nuestro mecanismo de generación narrativa al LLM?
Por ejemplo, la escritora italiana Elena Ferrante, quien, según The Economist, es "probablemente la mejor novelista contemporánea de la que nunca hayas oído hablar".
Su serie My Genius Girlfriend ha vendido más de 11 millones de copias en 40 países, y los críticos han dicho: "La amistad femenina nunca se ha presentado tan vívidamente".
Sus memorias, "En los márgenes", describen su crianza en Italia después de la Segunda Guerra Mundial.
Al igual que otras escritoras de su tiempo, nació en la tradición literaria masculina y leyó principalmente las obras de escritores masculinos, por lo que comenzó a imitar a los escritores masculinos para escribir.
En su autobiografía, escribió:
Incluso cuando tenía unos trece años... Siento que mi nivel de escritura no es malo, y siempre siento que una voz masculina me dice qué escribir y cómo escribirlo.
ni siquiera sabía si la voz era de mi edad o mayor que yo, tal vez ya era un anciano. ...... Me imaginaba siendo hombre, pero mujer al mismo tiempo.
En su autobiografía, una gran escritora contemporánea de la humanidad, con la voz única y enérgica de la literatura italiana moderna, describe con franqueza sus luchas y luchas para escapar de su estado de "loro al azar".
Porque su lenguaje e ideas únicos están moldeados involuntariamente por el canon literario dominado por los hombres formado durante cientos de años.
Si realmente nos miramos a nosotros mismos, la mayoría de los pensamientos que nos vienen a la cabeza son las voces de otras personas: las voces de nuestros padres y maestros.
Los libros que leemos, la televisión que vemos y nuestras mentes están construidos sobre una cultura muy profunda y pegajosa.
Nuestra capacidad de hablar, pensar y expresarnos es una función de lo que leemos, y las palabras del pasado influyen en el futuro.
Vivimos esencialmente la misma vida que nuestros antepasados, repitiendo la mayoría de los mismos pensamientos de ayer, escribiendo las mismas palabras que todos los demás, con muy poca diferencia.
Si miras las películas de Hollywood y lees algunos libros, encontrarás que muchas historias son casi iguales, pero el trasfondo es diferente.
De vez en cuando, los humanos parecen ser capaces de deshacerse de los grilletes de repetir como loros, decir una pequeña idea original, pensar una pequeña idea original.
Con este pequeño contenido original, nuestra cultura ha dado un gran salto.
Recursos:
_source=perfil&utm_medium=lector2
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
¿La co-creación de LeCun y xAI ahoga, los principales defectos de razonamiento de GPT-4 no tienen solución? Internauta: Los humanos también son "loros al azar"
Fuente original: Shin Ji Yuan
Recientemente, un grupo de peces gordos, incluido LeCun, han comenzado a disparar contra LLM nuevamente. ¡El último avance es que LLM no tiene ninguna capacidad de razonamiento!
A partir de la discusión posterior entre los dos grandes, incluso podemos vislumbrar la futura dirección técnica de xAI: cómo usar la capacidad de los modelos grandes para superar el límite superior de la capacidad de razonamiento de la IA.
Bajo este problema, los internautas son tolerantes con la capacidad de razonamiento de LLM, y también muestran otro pensamiento sobre la relación entre la IA y la inteligencia humana:
No todos los seres humanos son buenos para razonar, entonces, ¿es porque algunas personas no son buenas para razonar, tienen que negar la objetividad de la inteligencia humana?
¡Tal vez los humanos, como LLM, son solo una forma diferente de "loro al azar"!
El diálogo de Big Guy revela la dirección técnica de xAI
Después de que el artículo se publicara en arXiv, LeCun lo reenvió especialmente, lo que provocó una amplia discusión entre los internautas y académicos.
El científico de IA Christian Szegedy, cofundador de xAI, dirigido por Boss Ma, respondió:
Y el punto que salió de la boca de xAI Lianchuang, junto con la última oración: "En mi opinión, todo esto pronto será factible", no puede evitar hacer pensar a la gente.
Después de todo, la razón más directa para decir "factible" con tanta certeza puede ser "ya lo hemos logrado".
LeCun: ¡Cuántas veces he dicho que el LLM simplemente no funciona! **
La reciente refutación de LeCun a la capacidad de razonamiento de LLM se basa en artículos recientes del profesor de la Universidad de ASU, Subbarao Kambampati.
En su opinión, LLM, que pretende alcanzar y superar el nivel humano en muchas capacidades, tiene grandes deficiencias en la capacidad de razonamiento y planificación.
Frente a los problemas de razonamiento de los expertos humanos, GPT-4 solo tiene un 12% de aciertos.
Además, en la tarea de inferencia, si se permite que LLM autocorrija sus propias respuestas, la calidad de salida no aumentará, sino que disminuirá.
Es decir, LLM simplemente no tiene la capacidad de razonar la respuesta correcta, todo solo se puede adivinar.
Después de la publicación del artículo, el profesor también envió un largo tuit para elaborar aún más sus puntos de vista sobre la discusión del artículo por parte de internautas y académicos.
El profesor señaló que hay muchos malentendidos sobre la capacidad de autocorrección de LLM.
Los autores de algunos artículos sobrepersonifican a los LLM, creyendo erróneamente que producen errores y se corrigen a sí mismos como humanos.
Criticó el uso de conjuntos de datos de preguntas y respuestas seleccionados al azar para desarrollar y evaluar declaraciones de autoevaluación, argumentando que crea confusión en la comunidad.
El profesor también señaló la importancia de la validación externa y la participación humana. Aunque GPT-4 no puede verificar las configuraciones de color, puede ayudar a generar código Python que debe ser corregido por humanos y puede usarse como validador externo.
Al mismo tiempo, los modelos que cooperan con los humanos y los razonadores profesionales también ayudarán a mejorar la capacidad de razonamiento del modelo.
El profesor enumeró artículos que muestran cómo extraer modelos de dominio de planificación de LLM, optimizarlos con la ayuda de humanos y razonadores especializados, y usarlos en validadores de planes o planificadores de dominios independientes.
También es importante optimizar aún más las capacidades de validación de LLM. Mejore las capacidades de validación de LLM con ajustes finos específicos, y aunque esto no hace que LLM funcione mejor en el razonamiento o la verificación, permite una pequeña mejora en la capacidad de autocorrección.
** Digamos que LLM es un "loro al azar", ¿no es humano? **
Un internauta también señaló en el Twitter de LeCun que, de hecho, la planificación y el razonamiento no son puntos fuertes para muchos humanos, y la implicación es que no se debe negar el nivel de inteligencia del gran modelo de lenguaje.
Si los humanos se sientan y meditan, no se dan cuenta de cómo funcionan los mecanismos por los cuales generan ideas, y los humanos no tienen control consciente sobre la naturaleza de sus pensamientos.
Supongamos que una persona sale a caminar en un día caluroso y suda. Esto lo lleva a pensar en el cambio climático, lo que causará cierta confusión en sus pensamientos.
Decide cambiar sus pensamientos a un tema más agradable, un proceso que se siente como un control consciente, pero ¿en qué tema elegir pensar?
Tal vez el cerebro humano le plantee obedientemente algunas opciones para que las considere: tal vez considere un juego para jugar más tarde en la noche, o un concierto para asistir este fin de semana.
Mientras continuaba su paseo y pensaba en estas cosas, notó una ardilla que corría por el árbol por el rabillo del ojo y se sorprendió por su cola tupida.
En este momento, el "pensamiento inteligente" de los seres humanos desapareció nuevamente y comenzó a pensar automáticamente como un loro al azar.
Cuando nos damos cuenta de que sabemos muy poco acerca de cómo nuestros pensamientos realmente llegan a ser, la pregunta es: ¿Qué tan aleatorio es el origen inconsciente de las ideas?
¿No es también una especie de "loro al azar"? ¿Qué tan similar es nuestro mecanismo de generación narrativa al LLM?
Por ejemplo, la escritora italiana Elena Ferrante, quien, según The Economist, es "probablemente la mejor novelista contemporánea de la que nunca hayas oído hablar".
Sus memorias, "En los márgenes", describen su crianza en Italia después de la Segunda Guerra Mundial.
Al igual que otras escritoras de su tiempo, nació en la tradición literaria masculina y leyó principalmente las obras de escritores masculinos, por lo que comenzó a imitar a los escritores masculinos para escribir.
En su autobiografía, escribió:
En su autobiografía, una gran escritora contemporánea de la humanidad, con la voz única y enérgica de la literatura italiana moderna, describe con franqueza sus luchas y luchas para escapar de su estado de "loro al azar".
Porque su lenguaje e ideas únicos están moldeados involuntariamente por el canon literario dominado por los hombres formado durante cientos de años.
Si realmente nos miramos a nosotros mismos, la mayoría de los pensamientos que nos vienen a la cabeza son las voces de otras personas: las voces de nuestros padres y maestros.
Los libros que leemos, la televisión que vemos y nuestras mentes están construidos sobre una cultura muy profunda y pegajosa.
Nuestra capacidad de hablar, pensar y expresarnos es una función de lo que leemos, y las palabras del pasado influyen en el futuro.
Vivimos esencialmente la misma vida que nuestros antepasados, repitiendo la mayoría de los mismos pensamientos de ayer, escribiendo las mismas palabras que todos los demás, con muy poca diferencia.
Si miras las películas de Hollywood y lees algunos libros, encontrarás que muchas historias son casi iguales, pero el trasfondo es diferente.
De vez en cuando, los humanos parecen ser capaces de deshacerse de los grilletes de repetir como loros, decir una pequeña idea original, pensar una pequeña idea original.
Con este pequeño contenido original, nuestra cultura ha dado un gran salto.
Recursos:
_source=perfil&utm_medium=lector2