LeCun et l’étranglement de co-création xAI, les failles majeures de raisonnement de GPT-4 n’ont pas de solution ? Internaute : Les humains sont aussi des « perroquets aléatoires »
Récemment, un groupe de gros bonnets, dont LeCun, a recommencé à tirer sur LLM. La dernière percée en date est que le LLM n’a aucune capacité de raisonnement !
De l’avis de LeCun, les lacunes de la capacité de raisonnement sont presque le « trou mort » de la LLM, quelle que soit la puissance de calcul et la taille et la qualité des ensembles de données utilisés pour former la LLM à l’avenir, elle ne sera pas en mesure de résoudre ce problème.
Les opinions exprimées par LeCun ont incité de nombreux internautes et gros bonnets de l’IA à discuter de cette question, y compris Christian Szegedy, l’un des cofondateurs de xAI.
Christian Szegedy, spécialiste de l’intelligence artificielle, a répondu à LeCun :
réseaux convolutifs ont des capacités d’inférence plus limitées, mais cela n’affecte pas les capacités d’AlphaZero.
À partir de la discussion ultérieure entre les deux grands joueurs, nous pouvons même avoir un aperçu de l’orientation technique future de xAI - comment utiliser la capacité des grands modèles à dépasser la limite supérieure de la capacité de raisonnement de l’IA.
Dans ce contexte, les internautes sont tolérants à l’égard de la capacité de raisonnement du LLM, et montrent également une autre réflexion sur la relation entre l’IA et l’intelligence humaine :
Tous les êtres humains ne sont pas doués pour le raisonnement, alors est-ce parce que certaines personnes ne sont pas douées pour le raisonnement, doivent-elles nier l’objectivité de l’intelligence humaine ?
Peut-être que les humains, comme LLM, ne sont qu’une forme différente de « perroquet aléatoire » !
Un dialogue de grand gars révèle la direction technique de xAI
Après la publication de l’article sur arXiv, il a été spécialement transmis par LeCun, ce qui a suscité de nombreuses discussions parmi les internautes et les universitaires.
Christian Szegedy, cofondateur de xAI, dirigé par Boss Ma, a répondu :
réseaux convolutifs ont des capacités d’inférence plus limitées, mais cela n’affecte pas les capacités d’AlphaZero.
La clé réside dans le processus de raisonnement et la boucle de rétroaction établie (RL). Il croit que la capacité du modèle peut effectuer un raisonnement extrêmement profond. (p. ex., effectuer des recherches mathématiques)
LeCun a également répondu directement :
AlphaZero « exécute » la planification. Mais dans le cas des SCTM, un réseau convolutif est utilisé pour obtenir un bon comportement, et un autre réseau convolutif est utilisé pour évaluer l’emplacement.
Cependant, le temps passé à explorer l’arbre peut être illimité. C’est le raisonnement et la planification. L’apprentissage par renforcement est utilisé pour entraîner ces réseaux.
Christian Szegedy a poursuivi en répondant :
je suis d’accord. Je pense donc que l’approche est la suivante :
oblige le système à explorer une grande partie de l’espace de raisonnement qui est pertinent pour nous.
Faites en sorte qu’il soit vérifiable d’explorer.
Comprendre le goût humain pour les choses intéressantes.
Il me semble que tout cela est rapidement devenu faisable.
Et le point qui est sorti de la bouche de xAI Lianchuang, couplé à la dernière phrase : « À mon avis, tout cela deviendra bientôt réalisable », ne peut s’empêcher de faire réfléchir.
Après tout, la raison la plus directe de dire « faisable » avec une telle certitude est peut-être « nous l’avons déjà fait ».
Peut-être que dans un avenir proche, nous serons en mesure de voir xAI saisir le « point douloureux » de la faible capacité de raisonnement de LLM, le poursuivre et créer un grand modèle avec un « raisonnement fort », compensant le plus gros défaut des produits de grands modèles sur le marché tels que ChatGPT.
LeCun : Combien de fois ai-je dit que le LLM ne fonctionnait tout simplement pas ! **
La récente réfutation par LeCun de la capacité de raisonnement de LLM est basée sur des articles récents du professeur Subbarao Kambampati de l’Université ASU.
Présentation personnelle :
À son avis, le LLM, qui prétend atteindre et dépasser le niveau humain dans de nombreuses capacités, présente des lacunes majeures en matière de capacité de raisonnement et de planification.
Adresse papier :
Adresse papier :
Adresse papier :
Face aux problèmes de raisonnement de planification des experts humains, GPT-4 n’a que 12% de raisonnement.
De plus, dans la tâche d’inférence, si LLM est autorisé à auto-corriger ses propres réponses, la qualité de sortie n’augmentera pas mais diminuera.
C’est-à-dire que LLM n’a tout simplement pas la capacité de raisonner la bonne réponse, tout ne peut être que deviné.
Après la publication de l’article, le professeur a également envoyé un long tweet pour développer davantage son point de vue sur la discussion de l’article par les internautes et les universitaires.
Le professeur considère que les LLM sont d’excellents « générateurs d’idées », mais à la fois dans le langage et le code, mais ils ne peuvent pas planifier ou raisonner par eux-mêmes.
Le professeur a souligné qu’il existe de nombreux malentendus sur la capacité d’autocorrection de la LLM.
Les auteurs de certains articles se font passer pour des LLM, croyant à tort qu’ils produisent des erreurs et se corrigent comme des humains.
Il a critiqué l’utilisation d’ensembles de données de questions-réponses organisées au hasard pour élaborer et évaluer des énoncés d’auto-évaluation, arguant que cela crée de la confusion dans la communauté.
Le professeur a également souligné l’importance de la validation externe et de l’implication humaine. Bien que GPT-4 ne puisse pas vérifier les configurations de couleurs, il peut aider à générer du code Python qui doit être corrigé par des humains et peut être utilisé comme validateur externe.
Dans le même temps, les modèles qui coopèrent avec les humains et les raisonneurs professionnels contribueront également à améliorer la capacité de raisonnement du modèle.
Le professeur a répertorié des articles montrant comment extraire des modèles de domaine de planification à partir de LLM, les optimiser avec l’aide d’humains et de raisonneurs spécialisés, et les utiliser dans des validateurs de plans ou des planificateurs de domaines indépendants.
Il est également important d’optimiser davantage les capacités de validation du LLM. Améliorez les capacités de validation de la LLM avec un réglage fin spécifique, et bien que cela ne rende pas soudainement la LLM plus performante dans le raisonnement ou la vérification, cela permet une légère amélioration de la capacité d’autocorrection.
** Disons que LLM est un « perroquet aléatoire », n’est-ce pas humain ? **
Un internaute a également souligné sous le Twitter de LeCun qu’en fait, la planification et le raisonnement ne sont pas des points forts pour de nombreux humains, et l’implication est que le niveau d’intelligence du grand modèle de langage ne devrait pas être nié.
Goutham Kurra, un entrepreneur en série qui a fondé deux plateformes sociales fonctionnelles, Glint et Whip, a également récemment publié un long blog, « Nous sommes tous des perroquets aléatoires », affirmant qu’il n’y a pas de différence essentielle entre les capacités et l’intelligence humaine derrière le LLM.
Liens vers les articles :
Si les humains s’assoient et méditent, ils ne réalisent pas comment fonctionnent les mécanismes par lesquels ils génèrent des idées, et les humains n’ont pas de contrôle conscient sur la nature de leurs pensées.
Supposons qu’une personne se promène par une journée chaude et transpire. Cela l’amène à réfléchir au changement climatique, ce qui causera une certaine confusion dans ses pensées.
Il décide de déplacer ses pensées vers un sujet plus agréable, un processus qui ressemble à un contrôle conscient, mais quel sujet choisir de penser ?
Peut-être que le cerveau humain lui proposera consciencieusement quelques options à considérer : peut-être envisager un jeu à jouer plus tard dans la soirée, ou un concert à assister ce week-end.
Mais d’où viennent ces nouvelles options ? Comment votre cerveau a-t-il décidé de les faire éclater et rien d’autre ? Les humains sont-ils conscients de toutes les options possibles pour le processus de dénombrement ?
Alors qu’il continuait sa marche et réfléchissait à ces choses, il remarqua un écureuil qui courait du coin de l’œil vers l’arbre et fut surpris par sa queue touffue.
À ce moment-là, la « pensée intelligente » des êtres humains a disparu à nouveau et a commencé à penser automatiquement comme un perroquet au hasard ?
Lorsque nous nous rendons compte que nous savons très peu de choses sur la façon dont nos pensées naissent réellement, la question est : à quel point l’origine inconsciente des idées est-elle aléatoire ?
N’est-ce pas aussi une sorte de « perroquet aléatoire » ? Dans quelle mesure notre mécanisme de génération narrative est-il similaire à celui du LLM ?
Prenez l’écrivaine italienne Elena Ferrante, qui, selon The Economist, est « probablement la meilleure romancière contemporaine dont vous n’avez jamais entendu parler ».
Sa série My Genius Girlfriend s’est vendue à plus de 11 millions d’exemplaires dans 40 pays, et les critiques ont déclaré : « L’amitié féminine n’a jamais été présentée de manière aussi vivante. »
Ses mémoires, « In the Margins », décrivent son éducation en Italie après la Seconde Guerre mondiale.
Comme d’autres écrivaines de son temps, elle est née dans la tradition littéraire masculine et a lu principalement les œuvres d’écrivains masculins, elle a donc commencé à imiter les écrivains masculins pour l’écriture.
Dans son autobiographie, elle écrit :
Même quand j’avais environ treize ans... J’ai l’impression que mon niveau d’écriture n’est pas mauvais, et j’ai toujours l’impression qu’une voix masculine me dit quoi écrire et comment l’écrire.
je ne savais même pas si la voix avait mon âge ou plus âgée que moi, peut-être déjà un vieil homme. ...... Je m’imaginais être un homme, mais toujours une femme en même temps.
Dans son autobiographie, une grande écrivaine contemporaine de l’humanité, avec la voix unique et énergique de la littérature italienne moderne, décrit candidement ses luttes et ses luttes pour échapper à son état de « perroquet aléatoire ».
Parce que son langage et ses idées uniques sont involontairement façonnés par le canon littéraire dominé par les hommes formé pendant des centaines d’années.
Si nous nous regardons vraiment nous-mêmes, la plupart des pensées qui nous viennent à l’esprit sont les voix des autres : les voix de nos parents et de nos enseignants.
Les livres que nous lisons, la télévision que nous regardons et nos esprits sont construits sur une culture très profonde et collante.
Notre capacité à parler, à penser et à nous exprimer est fonction de ce que nous lisons, et les mots du passé influencent l’avenir.
Nous vivons essentiellement la même vie que nos ancêtres, répétant la plupart des mêmes pensées d’hier, écrivant les mêmes mots que tout le monde, avec très peu de différences.
Si vous regardez des films hollywoodiens et lisez quelques livres, vous constaterez que de nombreuses histoires sont presque les mêmes, mais que le contexte est différent.
De temps en temps, les humains semblent être capables de se débarrasser des chaînes du perroquet, de dire une petite idée originale, de penser une petite idée originale.
Avec ce petit contenu original, notre culture a fait un énorme bond en avant.
Ressources:
_source=profil&utm_medium=lecteur2
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
LeCun et l’étranglement de co-création xAI, les failles majeures de raisonnement de GPT-4 n’ont pas de solution ? Internaute : Les humains sont aussi des « perroquets aléatoires »
Source originale : Shin Ji Yuan
Récemment, un groupe de gros bonnets, dont LeCun, a recommencé à tirer sur LLM. La dernière percée en date est que le LLM n’a aucune capacité de raisonnement !
À partir de la discussion ultérieure entre les deux grands joueurs, nous pouvons même avoir un aperçu de l’orientation technique future de xAI - comment utiliser la capacité des grands modèles à dépasser la limite supérieure de la capacité de raisonnement de l’IA.
Dans ce contexte, les internautes sont tolérants à l’égard de la capacité de raisonnement du LLM, et montrent également une autre réflexion sur la relation entre l’IA et l’intelligence humaine :
Tous les êtres humains ne sont pas doués pour le raisonnement, alors est-ce parce que certaines personnes ne sont pas douées pour le raisonnement, doivent-elles nier l’objectivité de l’intelligence humaine ?
Peut-être que les humains, comme LLM, ne sont qu’une forme différente de « perroquet aléatoire » !
Un dialogue de grand gars révèle la direction technique de xAI
Après la publication de l’article sur arXiv, il a été spécialement transmis par LeCun, ce qui a suscité de nombreuses discussions parmi les internautes et les universitaires.
Christian Szegedy, cofondateur de xAI, dirigé par Boss Ma, a répondu :
Et le point qui est sorti de la bouche de xAI Lianchuang, couplé à la dernière phrase : « À mon avis, tout cela deviendra bientôt réalisable », ne peut s’empêcher de faire réfléchir.
Après tout, la raison la plus directe de dire « faisable » avec une telle certitude est peut-être « nous l’avons déjà fait ».
LeCun : Combien de fois ai-je dit que le LLM ne fonctionnait tout simplement pas ! **
La récente réfutation par LeCun de la capacité de raisonnement de LLM est basée sur des articles récents du professeur Subbarao Kambampati de l’Université ASU.
À son avis, le LLM, qui prétend atteindre et dépasser le niveau humain dans de nombreuses capacités, présente des lacunes majeures en matière de capacité de raisonnement et de planification.
Face aux problèmes de raisonnement de planification des experts humains, GPT-4 n’a que 12% de raisonnement.
De plus, dans la tâche d’inférence, si LLM est autorisé à auto-corriger ses propres réponses, la qualité de sortie n’augmentera pas mais diminuera.
C’est-à-dire que LLM n’a tout simplement pas la capacité de raisonner la bonne réponse, tout ne peut être que deviné.
Après la publication de l’article, le professeur a également envoyé un long tweet pour développer davantage son point de vue sur la discussion de l’article par les internautes et les universitaires.
Le professeur a souligné qu’il existe de nombreux malentendus sur la capacité d’autocorrection de la LLM.
Les auteurs de certains articles se font passer pour des LLM, croyant à tort qu’ils produisent des erreurs et se corrigent comme des humains.
Il a critiqué l’utilisation d’ensembles de données de questions-réponses organisées au hasard pour élaborer et évaluer des énoncés d’auto-évaluation, arguant que cela crée de la confusion dans la communauté.
Le professeur a également souligné l’importance de la validation externe et de l’implication humaine. Bien que GPT-4 ne puisse pas vérifier les configurations de couleurs, il peut aider à générer du code Python qui doit être corrigé par des humains et peut être utilisé comme validateur externe.
Dans le même temps, les modèles qui coopèrent avec les humains et les raisonneurs professionnels contribueront également à améliorer la capacité de raisonnement du modèle.
Le professeur a répertorié des articles montrant comment extraire des modèles de domaine de planification à partir de LLM, les optimiser avec l’aide d’humains et de raisonneurs spécialisés, et les utiliser dans des validateurs de plans ou des planificateurs de domaines indépendants.
Il est également important d’optimiser davantage les capacités de validation du LLM. Améliorez les capacités de validation de la LLM avec un réglage fin spécifique, et bien que cela ne rende pas soudainement la LLM plus performante dans le raisonnement ou la vérification, cela permet une légère amélioration de la capacité d’autocorrection.
** Disons que LLM est un « perroquet aléatoire », n’est-ce pas humain ? **
Un internaute a également souligné sous le Twitter de LeCun qu’en fait, la planification et le raisonnement ne sont pas des points forts pour de nombreux humains, et l’implication est que le niveau d’intelligence du grand modèle de langage ne devrait pas être nié.
Si les humains s’assoient et méditent, ils ne réalisent pas comment fonctionnent les mécanismes par lesquels ils génèrent des idées, et les humains n’ont pas de contrôle conscient sur la nature de leurs pensées.
Supposons qu’une personne se promène par une journée chaude et transpire. Cela l’amène à réfléchir au changement climatique, ce qui causera une certaine confusion dans ses pensées.
Il décide de déplacer ses pensées vers un sujet plus agréable, un processus qui ressemble à un contrôle conscient, mais quel sujet choisir de penser ?
Peut-être que le cerveau humain lui proposera consciencieusement quelques options à considérer : peut-être envisager un jeu à jouer plus tard dans la soirée, ou un concert à assister ce week-end.
Alors qu’il continuait sa marche et réfléchissait à ces choses, il remarqua un écureuil qui courait du coin de l’œil vers l’arbre et fut surpris par sa queue touffue.
À ce moment-là, la « pensée intelligente » des êtres humains a disparu à nouveau et a commencé à penser automatiquement comme un perroquet au hasard ?
Lorsque nous nous rendons compte que nous savons très peu de choses sur la façon dont nos pensées naissent réellement, la question est : à quel point l’origine inconsciente des idées est-elle aléatoire ?
N’est-ce pas aussi une sorte de « perroquet aléatoire » ? Dans quelle mesure notre mécanisme de génération narrative est-il similaire à celui du LLM ?
Prenez l’écrivaine italienne Elena Ferrante, qui, selon The Economist, est « probablement la meilleure romancière contemporaine dont vous n’avez jamais entendu parler ».
Ses mémoires, « In the Margins », décrivent son éducation en Italie après la Seconde Guerre mondiale.
Comme d’autres écrivaines de son temps, elle est née dans la tradition littéraire masculine et a lu principalement les œuvres d’écrivains masculins, elle a donc commencé à imiter les écrivains masculins pour l’écriture.
Dans son autobiographie, elle écrit :
Dans son autobiographie, une grande écrivaine contemporaine de l’humanité, avec la voix unique et énergique de la littérature italienne moderne, décrit candidement ses luttes et ses luttes pour échapper à son état de « perroquet aléatoire ».
Parce que son langage et ses idées uniques sont involontairement façonnés par le canon littéraire dominé par les hommes formé pendant des centaines d’années.
Si nous nous regardons vraiment nous-mêmes, la plupart des pensées qui nous viennent à l’esprit sont les voix des autres : les voix de nos parents et de nos enseignants.
Les livres que nous lisons, la télévision que nous regardons et nos esprits sont construits sur une culture très profonde et collante.
Notre capacité à parler, à penser et à nous exprimer est fonction de ce que nous lisons, et les mots du passé influencent l’avenir.
Nous vivons essentiellement la même vie que nos ancêtres, répétant la plupart des mêmes pensées d’hier, écrivant les mêmes mots que tout le monde, avec très peu de différences.
Si vous regardez des films hollywoodiens et lisez quelques livres, vous constaterez que de nombreuses histoires sont presque les mêmes, mais que le contexte est différent.
De temps en temps, les humains semblent être capables de se débarrasser des chaînes du perroquet, de dire une petite idée originale, de penser une petite idée originale.
Avec ce petit contenu original, notre culture a fait un énorme bond en avant.
Ressources:
_source=profil&utm_medium=lecteur2