En interagissant avec les grands modèles de langage (LLM), nous avons toujours le vague sentiment qu’ils peuvent en fait être conscients. Cependant, du point de vue des neuroscientifiques, ce point de vue semble difficile à tenir.
Dans un article récent publié dans Trends in Neurosciences, une sous-revue de Cell, trois chercheurs en informatique, en biologie et en neurosciences se sont penchés sur la question suivante : « L’intelligence artificielle peut-elle générer de la conscience ? »
En conclusion, ils s’accordent à dire que les LLM ne peuvent pas être conscients dans leur forme actuelle. Comment en est-on arrivé à un point de vue aussi catégorique ?
▷Source : Cellule
LLM & Conscience
On s’est longtemps demandé quels animaux sont conscients et quelles entités sont conscientes en dehors des animaux. L’avènement récent des LLM a apporté une toute nouvelle perspective au problème. Il nous montre notre capacité à converser (une manifestation de la conscience humaine) et nous fait redéfinir et repenser les trois concepts de « compréhension », « intelligence » et « conscience ».
Les LLM sont des réseaux neuronaux artificiels complexes et multicouches avec des milliards de poids de connexion entraînés sur des dizaines de milliards de mots de données textuelles, y compris des conversations en langage naturel entre humains. En posant des questions par le biais d’un texte, l’utilisateur est entraîné dans un contexte simulé fascinant. Si vous êtes prêt à prendre le temps d’utiliser ces systèmes, il est difficile de ne pas être époustouflé par la profondeur et la qualité du réseau. Posez-lui une question, et sa réponse est souvent subtilement similaire à celle qu’un individu conscient peut produire. Par conséquent, en tant qu’individu perspicace et conscient, il est facile de conclure que les réponses que je reçois sont générées par un individu qui est également « conscient » et capable de penser, de ressentir, de raisonner et d’expérimenter. **
Sur la base des résultats de ces « tests de Turing », nous ne pouvons nous empêcher de nous demander si les LLM sont déjà conscients, ou s’ils le seront bientôt ? Cependant, cette question, à son tour, conduira à une série de dilemmes éthiques, tels que la question de savoir s’il est éthique de continuer à développer des LLM qui sont à plusieurs reprises sur le point de s’éveiller à la « conscience » ? L’idée que les LLM sont « conscients » n’est pas universellement acceptée dans la communauté des neurosciences aujourd’hui, mais à mesure que les capacités des systèmes d’IA continuent de s’améliorer, la discussion sur cette idée est inévitablement revenue sur le devant de la scène. En outre, les principaux médias d’information discutent également largement de cette question, ce qui incite les neuroscientifiques à interpréter la question objectivement de leur propre point de vue professionnel.
L’idée que les LLM sont potentiellement conscients est souvent étayée par un argument important selon lequel l’architecture des LLM est largement inspirée par les caractéristiques du cerveau (Figure 1), et que le cerveau est le seul objet que nous pouvons attribuer avec confiance à la « conscience » pour le moment. Alors que les premiers réseaux de neurones artificiels ont été conçus sur la base de versions simplifiées du cortex cérébral, les LLM modernes sont hautement conçus et adaptés à des fins spécifiques et ne conservent plus d’homologie profonde avec les structures cérébrales connues. En fait, bon nombre des caractéristiques des voies qui rendent les LLM puissants en termes de calcul (Figure 1) ont des architectures très différentes des systèmes dont nous pensons actuellement qu’ils ont un pouvoir causal dans la génération et la formation de la conscience chez les mammifères. Par exemple, de nombreuses théories des neurosciences liées à la génération de la conscience suggèrent que le système thalamico-cortical et le système d’éveil jouent un rôle central dans le traitement de la conscience, ce qui n’est pas disponible dans les LLM modernes.
Figure 1 : Différences topologiques macroscopiques entre le cerveau des mammifères et les grands modèles de langage Source : Tendances en neurosciences
À ce stade, on pourrait se demander s’il est si important que l’architecture du LLM imite les caractéristiques du cerveau ?
À notre avis, la raison principale est que nous ne pouvons être sûrs que de l’existence d’une seule conscience pour le moment, qui provient du cerveau intégré dans le corps complexe. On pourrait faire valoir que, strictement parlant, cet argument pourrait être réduit aux seuls humains, bien que de nombreux traits au niveau du système censés jouer un rôle important dans la conscience subjective soient répandus dans tout le spectre biologique, s’étendant jusqu’aux mammifères, même aux invertébrés.
Cela dit, commençons d’abord par la signification exacte du mot « conscience ». Nous présenterons ensuite trois arguments contre l’idée que les systèmes d’IA actuels ont, ou auront bientôt une conscience dans le futur, :
1. La conscience est associée à un flux de sensations qui sont significatives pour l’organisme ;
**2. Dans le cerveau des mammifères, la conscience est soutenue par un système thalamico-cortical hautement interconnecté.
**3. La conscience peut être inséparable de l’organisation biologique complexe des systèmes biologiques. **
Qu’est-ce que la conscience ?
La conscience est un concept complexe, et sa définition a fait l’objet de débats. Dans le contexte de la capacité des êtres humains à communiquer et à interagir les uns avec les autres, la capacité de communiquer et de dialoguer est un élément instinctif pour évaluer si une personne a une conscience.
Les conversations interactives basées sur le langage avec les LLM développent souvent un sentiment intuitif, qui est le point de départ pour juger si un LLM est susceptible d’être conscient. Cependant, bien que les LLM soient excellents pour les conversations interactives, cela ne répond pas à la mesure objective formelle de la conscience, mais n’est qu’une preuve préliminaire de l’intelligence. **
L’avènement des LLM nous a amenés à réévaluer si une personne est capable de générer de la conscience directement à partir d’interactions verbales avec les autres. Par conséquent, un nouveau point de vue est que nous devons reformuler les critères pour juger des capacités et des caractéristiques humaines semblables à celles de l’homme.
Le mot « conscience » a souvent des significations différentes. Par exemple, les neurologues se réfèrent souvent au « niveau de conscience », qui est la première évaluation de la conscience d’une personne, puis du niveau ou de l’état de conscience spécifique de manière plus granulaire. Les psychologues, quant à eux, sont plus préoccupés par le contenu de la conscience : les expériences, les souvenirs et les pensées spécifiques du monde intérieur d’un individu. De plus, il existe des différences entre les différents contenus de la conscience. Notre expérience peut être décrite comme phénoménale ou expérientielle (par exemple, voir ou sentir une pomme, ou toucher son bras) ou sous une forme plus abstraite (par exemple, comment nous imaginons, envisageons ou manipulons la mémoire conceptuelle).
La question de savoir si un système d’IA est conscient peut être résolue de plusieurs manières : il peut se concentrer sur certaines des significations de la conscience, ou il peut se concentrer sur toutes les significations de la conscience en même temps. Dans ce qui suit, nous nous concentrons principalement sur la conscience phénoménale et explorons si les machines sont capables de faire l’expérience du monde de manière phénoménale.
À propos de l’environnement
La partie d’un organisme qui peut être utilisée dans le processus de perception du monde extérieur s’appelle son environnement. Par exemple, la rétine humaine réagit à la lumière avec des longueurs d’onde de 380 nm à 740 nm, c’est-à-dire que la rétine est capable de percevoir le spectre du bleu au rouge. Sans l’aide d’une technologie externe, les humains ne peuvent pas détecter la lumière infrarouge (>740 nm) ou la lumière ultraviolette (< 380 nm) en dehors de cette gamme de longueurs d’onde. Nous avons également des environnements similaires en termes d’audition, de sens somatosensoriel et vestibulaire, à savoir les domaines auditifs correspondants (l’oreille humaine peut entendre des sons de 20 Hz à 20 000 Hz), les domaines somatosensoriels (les humains peuvent distinguer les stimuli à environ 1 mm de certaines parties du corps) et le domaine vestibulaire (les structures 3D interconnectées des canaux semi-circulaires humains nous fournissent un sens intérieur de l’équilibre). Dans le même temps, d’autres espèces dans la nature sont capables de détecter des signaux dans d’autres bandes du spectre électromagnétique. Par exemple, les abeilles peuvent voir la lumière dans la gamme ultraviolette, et les serpents peuvent détecter des signaux de rayonnement infrarouge en plus des signaux visuels plus traditionnels.
C’est-à-dire que différents animaux ont des sensibilités différentes avec lesquelles leur corps et leur cerveau sont capables de percevoir leur environnement. Gibson, un psychologue américain, se réfère à la possibilité qu’un organisme agisse dans un environnement particulier comme « affordance » (avec la pénétration de la technologie Internet, l’affordance a commencé à être utilisée pour expliquer l’utilisation de la technologie numérique dans les pratiques médiatiques et les interactions quotidiennes humaines). **
Selon la nature de la conception de son algorithme, les LLM n’ont que des modèles de codage binaires, ne peuvent recevoir que des entrées d’informations binaires et exécutent en outre des algorithmes de réseau inhérents à des structures de transformateurs complexes, qui constituent l’architecture de travail des LLM d’aujourd’hui. Alors que les pointes neuronales sont également capables d’encoder des signaux analogiques entrants en signaux numériques (c’est-à-dire des signaux binaires), le flux d’informations délivré au LLM est très abstrait et n’a pas de lien fort avec le monde extérieur lui-même. Le texte et la parole codés sous forme de chaîne de lettres ne peuvent tout simplement pas correspondre à la complexité dynamique du monde naturel, c’est-à-dire que l’environnement d’un LLM (l’information binaire qui lui est fournie) est fondamentalement différent de l’information qui entre dans notre cerveau lorsque nous ouvrons les yeux ou communiquons des conversations, et des expériences qui l’accompagnent. Le discours philosophique traditionnel met l’accent sur le caractère unique du flux d’informations entre les différentes espèces (par exemple, la différence entre les humains et les chauves-souris) et sur les caractéristiques phénoménologiques de ces expériences. Nous pensons que les informations obtenues par les LLM peuvent présenter des différences plus significatives, bien qu’il n’y ait pas de moyen définitif de quantifier cette différence pour le moment.
Cela étant dit, l’apport des systèmes d’IA deviendra inexorablement plus riche à l’avenir. Les futurs LLM peuvent être équipés de différents types d’entrées qui peuvent mieux correspondre aux types de signaux auxquels les agents conscients peuvent accéder quotidiennement (c’est-à-dire les statistiques du monde naturel). Alors, l’environnement disponible des systèmes d’IA à l’avenir sera-t-il plus large que l’environnement humain ?
En répondant à cette question, nous devons reconnaître que l’expérience subconsciente et consciente humaine n’est pas uniquement déterminée par l’entrée sensorielle. Par exemple, imaginez que lorsque nous sommes allongés dans un ponton, nous sommes toujours conscients malgré notre manque d’expérience sensorielle normale. Le concept ici est mis en évidence que l’environnement présuppose une perspective subjective inhérente, c’est-à-dire de partir d’un sujet. De même, l’expertise dépend de la nature interne du sujet, en particulier de ses motivations et de ses objectifs. Cela signifie que la conscience ne peut pas être générée par l’environnement seul (les données d’entrée du LLM). Par conséquent, le simple fait d’introduire un grand flux de données dans un système d’IA ne rend pas le système d’IA lui-même conscient. **
Cette perspective peut nous inciter à repenser certaines des hypothèses de base de la science de la conscience. Plus précisément, à mesure que les systèmes d’IA présentent progressivement des capacités de plus en plus sophistiquées, les chercheurs devront réévaluer la nécessité des processus plus fondamentaux liés au soi et aux agents proposés par certaines théories de la conscience pour l’émergence de la conscience.
**"Intégration » de la Conscience **
À l’heure actuelle, il existe de nombreuses études sur la corrélation neuronale de la conscience, parmi lesquelles il existe de nombreuses théories différentes sur les circuits neuronaux du traitement de la conscience. Certains soulignent que la conscience est sous-tendue par un réseau thalamo-cortical dense et hautement connecté. **Le réseau thalamique-cortical comprend des régions corticales, des jonctions corticales-corticales et des projections divergentes des noyaux thalamiques supérieurs vers les régions corticales. Cette structure spécifique du système thalamo-cortical soutient le traitement circulatoire et complexe de la pensée qui sous-tend la conscience et l’intégration consciente (c’est-à-dire que la conscience est unifiée malgré le fait que la conscience provient de différentes régions du cerveau). Cependant, différentes théories ont des points de vue différents sur la manière de réaliser l’intégration de la conscience.
Selon la théorie de l’espace de travail neuronal global (GNW), la conscience repose sur un espace de travail central constitué d’un système de cortex fronto-pariétal distribué. Cet espace de travail intègre les informations provenant des processeurs corticaux locaux, puis les transmet à tous les processeurs corticaux locaux à l’échelle mondiale, avec une livraison globale séparant les processus conscients et inconscients. D’autres théories de la conscience soutiennent que l’intégration consciente est réalisée par d’autres processus neuronaux. Par exemple, la théorie de l’intégration dendritique neuronale (DIT) suggère que l’intégration consciente se produit par un phénomène de synchronisation à haute fréquence entre différentes régions corticales, qui peut impliquer différentes fonctions, notamment la perception, la cognition ou la planification motrice, selon la région corticale impliquée.
Figure 2 : Structure neuronale de l’intégration de la conscience basée sur la théorie de l’intégration dendritique des neurones (DIT) Source : Tendances en neurosciences
*Légende : Dans la théorie DIT (Figure 2), les chercheurs pensent que l’intégration consciente globale dépend également de l’intégration locale des neurones pyramidaux dans la cinquième couche du cortex, un grand neurone excitateur qui est central dans les circuits thalamo-corticaux et corticaux. Il existe deux structures principales dans ce type de neurone (Figure 2, cylindres orange et rouge) qui traitent des types d’informations complètement différents : la structure basale (rouge) traite l’information de base externe, tandis que la structure apicale (orange) traite l’information générée en interne. Selon la théorie DIT, dans l’état de conscience, ces deux structures sont couplées l’une à l’autre, permettant à l’information de circuler à travers les circuits thalamiques-corticaux et cortico-corticaux, permettant ainsi l’intégration à l’échelle du système de l’information et de la génération de conscience. *
Il est important de noter que les architectures des LLM d’aujourd’hui et d’autres systèmes d’IA manquent des caractéristiques que ces théories mettent en évidence : les LLM existants n’ont ni neurones pyramidaux bistructuraux équivalents, ni architectures thalamiques centralisées, ni espaces de travail globaux, ni multiples caractéristiques de systèmes d’excitation ascendante. En d’autres termes, les systèmes d’IA existants n’ont pas les caractéristiques cérébrales qui, selon la communauté des neurosciences, sous-tendent actuellement la génération de conscience. Bien que le cerveau des mammifères ne soit pas la seule structure capable de soutenir la production de la conscience, les preuves de la neurobiologie suggèrent que la formation de la conscience des mammifères est déterminée par des principes structurels très spécifiques (c’est-à-dire des connexions simples entre les neurones intégrés et excités). Topologiquement, la structure des systèmes d’IA existants est extrêmement simple, ce qui est l’une des raisons pour lesquelles nous ne considérons pas les systèmes d’IA existants comme étant conscients des phénomènes.
Alors, les futurs modèles d’IA seront-ils enfin capables d’intégrer le processus d'« intégration » que de nombreuses théories de la conscience considèrent comme le noyau ? En réponse à ce problème, le concept d'« intégration » proposé par la théorie GNW fournit un moyen relativement simple de le mettre en œuvre. En fait, certains systèmes d’IA récents ont été incorporés dans quelque chose comme un espace de travail global partagé par un processeur local. Étant donné que le processus informatique de transmission globale peut être mis en œuvre dans un système d’IA, selon cette théorie, un système d’IA qui adopte cette méthode de calcul contiendra les composants de base de la conscience latente.
Cependant, comme mentionné précédemment, toutes les théories de la conscience ne s’accordent pas à dire que ce mode d’intégration est la clé de la génération de la conscience. Par exemple, la théorie de l’information intégrée de la conscience soutient que les systèmes d’IA basés sur des logiciels mis en œuvre sur un ordinateur moderne typique ne peuvent pas être conscients parce que les ordinateurs modernes n’ont pas l’architecture appropriée pour atteindre les capacités de raisonnement causal nécessaires pour intégrer pleinement l’information. Par conséquent, nous examinerons la troisième possibilité, qui est que la conscience est réalisable en principe, mais qu’elle devra peut-être aller au-delà du niveau actuel (et peut-être futur) de spécificité computationnelle des systèmes d’IA. **
La conscience est un processus biologique complexe
La génération de la conscience ne dépend pas seulement de l’architecture du système. Par exemple, lorsque nous sommes en sommeil profond ou sous anesthésie, la structure du système thalamo-cortical ne change pas, mais la conscience disparaît. Même dans le sommeil profond, les réponses neuronales locales et l’activité de la ceinture gamma dans les principales zones sensorielles sont similaires à celles de l’état conscient. Cela suggère que la conscience repose sur des processus neuronaux spécifiques, mais ces processus neuronaux sont différents dans les cerveaux conscients et inconscients. **
Pour faire la lumière sur les différences détaillées entre le traitement conscient et inconscient, revenons d’abord à la théorie de l’intégration dendritique des neurones (DIT). La théorie DIT contient un certain nombre de nuances neurobiologiques liées aux processus neuronaux qui sont traités consciemment et inconsciemment. La théorie DIT propose que la principale différence entre le traitement conscient et inconscient réside dans l’intégration des structures à deux compartiments des cellules pyramidales (Figure 2). Comme mentionné précédemment, lors du traitement conscient, ces deux structures interagissent l’une avec l’autre, permettant à l’ensemble du système thalamico-cortical de traiter et d’intégrer des informations complexes. Cependant, à l’état anesthésique, divers anesthésiques entraînent un découplage fonctionnel entre les deux structures des neurones vertébraux. En d’autres termes, bien que ces neurones vertébraux soient anatomiquement intacts et puissent exciter des potentiels d’action, leur capacité d’intégration dendritique est sévèrement limitée physiologiquement, c’est-à-dire que la rétroaction descendante ne peut pas influencer le traitement. Des études ont montré que ce couplage dendritique est contrôlé par des récepteurs métabotropes, mais cette structure est souvent négligée dans les modèles informatiques et les réseaux de neurones artificiels. De plus, des études ont montré que dans ce cas, les noyaux thalamiques supérieurs contrôlent l’activité de ce récepteur métabotrope. Ainsi, des processus neurobiologiques spécifiques peuvent être responsables de l’activation et de l’extinction de la conscience dans le cerveau. Cela suggère que la qualité de l’expérience dans le cerveau des mammifères a une relation complexe avec les processus sous-jacents qui produisent la conscience. **
Bien que ces théories soient assez convaincantes, il est presque certain que cette connaissance pâlit par rapport à la complexité des processus neuronaux qui découlent d’une compréhension complète de la conscience. Nos explications actuelles de la conscience reposent sur des théories telles que les espaces de travail globaux, l’information intégrée, le traitement circulaire, l’intégration dendritique, etc., mais les processus biologiques par lesquels la vraie conscience surgit peuvent être beaucoup plus complexes que ce que ces théories comprennent actuellement. Il est même tout à fait possible que les idées abstraites au niveau computationnel actuellement utilisées pour construire la discussion sur la recherche sur la conscience aient complètement échoué à prendre en compte les détails informatiques nécessaires pour expliquer la conscience.
En d’autres termes, la biologie est complexe et notre compréhension actuelle de la bio-informatique est limitée (Figure 3), alors peut-être que nous manquons des bons outils mathématiques et expérimentaux pour comprendre la conscience. **
Figure 2 : Structure neuronale de l’intégration de la conscience basée sur la théorie de l’intégration dendritique des neurones (DIT) Source : Tendances en neurosciences
*Légende : Dans la théorie DIT (Figure 2), les chercheurs pensent que l’intégration consciente globale dépend également de l’intégration locale des neurones pyramidaux dans la cinquième couche du cortex, un grand neurone excitateur qui est central dans les circuits thalamo-corticaux et corticaux. Il existe deux structures principales dans ce type de neurone (Figure 2, cylindres orange et rouge) qui traitent des types d’informations complètement différents : la structure basale (rouge) traite l’information de base externe, tandis que la structure apicale (orange) traite l’information générée en interne. Selon la théorie DIT, dans l’état de conscience, ces deux structures sont couplées l’une à l’autre, permettant à l’information de circuler à travers les circuits thalamiques-corticaux et cortico-corticaux, permettant ainsi l’intégration à l’échelle du système de l’information et de la génération de conscience. *
Afin de mieux comprendre la complexité biologique, il est important de souligner que les processus biologiques décrits ci-dessus aux niveaux cellulaire et systémique doivent se produire dans un organisme vivant et sont indissociables. Les organismes vivants diffèrent des machines et des algorithmes d’IA d’aujourd’hui en ce qu’ils sont capables de se maintenir constamment à différents niveaux de traitement. De plus, les systèmes vivants ont une histoire multiforme d’évolution et de développement, et leur existence dépend de leurs activités à de multiples niveaux organisationnels. La conscience est intimement liée à l’organisation des systèmes vivants. Il convient toutefois de noter que les ordinateurs d’aujourd’hui ne sont pas capables d’incarner cette complexité organisationnelle des systèmes vivants (c’est-à-dire l’interaction entre les différents niveaux du système). Cela suggère que les algorithmes d’IA modernes n’ont aucune contrainte au niveau organisationnel et ne peuvent pas fonctionner aussi efficacement qu’un système vivant. Cela signifie que tant que l’IA est basée sur un logiciel, elle peut ne pas être adaptée à la conscience et à l’intelligence. **
Le concept de complexité biologique peut également s’exprimer au niveau cellulaire. Un neurone biologique n’est pas seulement une entité abstraite qui peut être entièrement capturée avec quelques lignes de code. En revanche, les neurones biologiques ont une organisation multicouche et dépendent d’autres cascades de processus biophysiques complexes à l’intérieur des neurones. Prenons l’exemple du « cycle de Krebs », qui est à la base de la respiration cellulaire et qui est un processus clé dans le maintien de l’homéostasie cellulaire. La respiration cellulaire est un processus biologique essentiel qui permet aux cellules de convertir l’énergie stockée dans les molécules organiques en une forme d’énergie que les cellules peuvent utiliser. Cependant, ce processus ne peut pas être « compressé » dans un logiciel, car les processus biophysiques comme la respiration cellulaire doivent être basés sur de vraies molécules physiques. Bien sûr, cela ne signifie pas que la conscience a besoin d’un « cycle de Krebs », mais souligne plutôt que des défis similaires peuvent être impliqués dans le processus de compréhension de la conscience, c’est-à-dire que la conscience ne peut peut-être pas être détachée du mécanisme sous-jacent. **
Cependant, nous ne sommes pas entièrement d’accord avec l’affirmation selon laquelle la conscience ne peut pas du tout être générée par des systèmes intelligents, mais nous devons considérer la corrélation entre la conscience et l’organisation biologique complexe derrière la vie, et les types de calculs qui capturent la nature de la conscience peuvent être beaucoup plus complexes que nos théories actuelles ne le comprennent (Figure 3). Il est presque impossible d’effectuer une « biopsie » de la conscience et de l’enlever du tissu. Ce point de vue contredit de nombreuses théories actuelles sur la conscience, qui soutiennent que la conscience peut surgir à un niveau informatique abstrait. Maintenant, cette hypothèse doit être mise à jour à la lumière des systèmes d’IA modernes : pour bien comprendre la conscience, nous ne pouvons pas ignorer l’interdépendance inter-échelle et la complexité organisationnelle observées dans les systèmes vivants. **
Bien que les systèmes d’IA imitent leurs homologues biologiques au niveau de l’informatique en réseau, dans ces systèmes, tous les autres niveaux de processus biologiques ont été abstraits des processus qui ont une relation causale étroite avec la conscience dans le cerveau, de sorte que les systèmes d’IA existants peuvent avoir abstrait la conscience elle-même. En conséquence, les LLM et les futurs systèmes d’IA peuvent être piégés dans un flux sans fin de caractéristiques de conscience simulées, mais sans aucune conscience phénoménale à proprement parler. Si la conscience est effectivement liée à ces autres niveaux de traitement, ou à leur interaction entre différentes échelles, alors nous sommes loin de la possibilité qu’une machine génère de la conscience.
Résumé
Ici, nous explorons la possibilité de la conscience dans les LLM et les futurs systèmes d’IA d’un point de vue neuroscientifique. Aussi attrayants que soient les LLM, ils ne sont pas conscients et ne le seront pas pendant une période plus courte à l’avenir.
Tout d’abord, nous illustrons la grande différence entre l’environnement des mammifères (une « petite fraction » du monde extérieur qu’ils peuvent percevoir) et l’environnement très appauvri et limité des LLM. Deuxièmement, nous soutenons que la topologie des LLM, bien que très complexe, est empiriquement très différente des détails neurobiologiques des circuits liés à la conscience des mammifères, et qu’il n’y a donc aucune bonne raison de penser que les LLM sont capables de générer une conscience phénoménale (Figure 1). Il n’est pas encore possible d’abstraire la conscience de la complexité de l’organisation biologique, qui est inhérente aux systèmes vivants, mais qui n’existe évidemment pas dans les systèmes d’IA. Dans l’ensemble, les trois points clés ci-dessus font qu’il est impossible pour les LLM d’être conscients dans leur forme actuelle. Ils n’imitent que les caractéristiques de la communication humaine en langage naturel utilisées pour décrire la richesse de l’expérience consciente.
À travers cet article, nous espérons que les arguments présentés auront un impact positif et une réflexion (voir Questions non résolues) et ne représenteront pas seulement une objection. Premièrement, les préoccupations éthiques potentielles actuelles concernant la capacité perçue des LLM sont plus hypothétiques que réelles. De plus, nous pensons qu’une meilleure compréhension des similitudes et des différences entre les LLM et les topologies cérébrales des mammifères peut faire progresser les progrès de l’apprentissage automatique et des neurosciences. Nous espérons également faire progresser la communauté de l’apprentissage automatique et des neurosciences en imitant les caractéristiques des tissus cérébraux et en apprenant comment des systèmes distribués simples traitent des flux d’informations complexes. Pour ces raisons, nous sommes optimistes quant au fait que les futures collaborations entre les chercheurs en IA et les neuroscientifiques pourront conduire à une compréhension plus profonde de la conscience.
Suivi non résolu :
L’évaluation de la conscience dans les LLM et l’IA repose souvent sur des tests basés sur le langage pour détecter la conscience. Est-il possible d’évaluer la conscience en se basant uniquement sur le langage (c’est-à-dire le texte), et existe-t-il d’autres caractéristiques évaluatives qui peuvent aider à déterminer si un système artificiel est conscient ?
La base neuronale de la conscience des mammifères est liée au système thalamico-cortical. Comment le système thalamico-cortical peut-il être implémenté dans l’IA ? Quelles fonctions et tâches spécifiques bénéficieraient d’un système thalamico-cortical ?
Le système ascendant-éveil joue également un rôle crucial dans la génération de la conscience dans les organismes, et il joue un rôle complexe et multiforme dans la formation de la neurodynamique. Dans quelle mesure l’IA a-t-elle besoin d’imiter ces différents processus afin de tirer parti de l’avantage informatique du système d’éveil ascendant ?
En plus du système thalamico-cortical, les dendrites jouent un rôle clé dans certaines des théories de la conscience discutées dans cet article. Les dendrites ne sont-elles qu’un facteur qui augmente la complexité/l’efficacité de calcul des réseaux neuronaux biologiques, ou y a-t-il plus que cela ?
La complexité organisationnelle des systèmes vivants est-elle liée à la conscience ? Les systèmes vivants sont constitués de différents niveaux de processus de traitement qui interagissent les uns avec les autres. La complexité organisationnelle des systèmes vivants peut-elle être expliquée plus en détail ? De nouveaux cadres mathématiques sont-ils nécessaires pour traiter de tels systèmes afin de mieux comprendre les processus biologiques par lesquels la conscience surgit ?
Certaines théories suggèrent que la conscience et l’agentivité sont inextricablement liées. Pour comprendre comment la conscience surgit de l’activité biologique, a-t-elle d’abord besoin de comprendre l’agentivité ?
Lien d’origine
Aru, J., Larkum, M.E. et Shine, J.M. (2023b) 'La faisabilité de la conscience artificielle à travers le prisme des neurosciences', Trends in Neurosciences [Preprint] . doi :10.1016/j.tins.2023.09.009.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Une sous-revue de Cell a publié de manière critique qu’il est peu probable que l’IA génère de la conscience à court terme
Source originale : NextQuestion
En interagissant avec les grands modèles de langage (LLM), nous avons toujours le vague sentiment qu’ils peuvent en fait être conscients. Cependant, du point de vue des neuroscientifiques, ce point de vue semble difficile à tenir.
Dans un article récent publié dans Trends in Neurosciences, une sous-revue de Cell, trois chercheurs en informatique, en biologie et en neurosciences se sont penchés sur la question suivante : « L’intelligence artificielle peut-elle générer de la conscience ? »
En conclusion, ils s’accordent à dire que les LLM ne peuvent pas être conscients dans leur forme actuelle. Comment en est-on arrivé à un point de vue aussi catégorique ?
LLM & Conscience
On s’est longtemps demandé quels animaux sont conscients et quelles entités sont conscientes en dehors des animaux. L’avènement récent des LLM a apporté une toute nouvelle perspective au problème. Il nous montre notre capacité à converser (une manifestation de la conscience humaine) et nous fait redéfinir et repenser les trois concepts de « compréhension », « intelligence » et « conscience ».
Les LLM sont des réseaux neuronaux artificiels complexes et multicouches avec des milliards de poids de connexion entraînés sur des dizaines de milliards de mots de données textuelles, y compris des conversations en langage naturel entre humains. En posant des questions par le biais d’un texte, l’utilisateur est entraîné dans un contexte simulé fascinant. Si vous êtes prêt à prendre le temps d’utiliser ces systèmes, il est difficile de ne pas être époustouflé par la profondeur et la qualité du réseau. Posez-lui une question, et sa réponse est souvent subtilement similaire à celle qu’un individu conscient peut produire. Par conséquent, en tant qu’individu perspicace et conscient, il est facile de conclure que les réponses que je reçois sont générées par un individu qui est également « conscient » et capable de penser, de ressentir, de raisonner et d’expérimenter. **
Sur la base des résultats de ces « tests de Turing », nous ne pouvons nous empêcher de nous demander si les LLM sont déjà conscients, ou s’ils le seront bientôt ? Cependant, cette question, à son tour, conduira à une série de dilemmes éthiques, tels que la question de savoir s’il est éthique de continuer à développer des LLM qui sont à plusieurs reprises sur le point de s’éveiller à la « conscience » ? L’idée que les LLM sont « conscients » n’est pas universellement acceptée dans la communauté des neurosciences aujourd’hui, mais à mesure que les capacités des systèmes d’IA continuent de s’améliorer, la discussion sur cette idée est inévitablement revenue sur le devant de la scène. En outre, les principaux médias d’information discutent également largement de cette question, ce qui incite les neuroscientifiques à interpréter la question objectivement de leur propre point de vue professionnel.
L’idée que les LLM sont potentiellement conscients est souvent étayée par un argument important selon lequel l’architecture des LLM est largement inspirée par les caractéristiques du cerveau (Figure 1), et que le cerveau est le seul objet que nous pouvons attribuer avec confiance à la « conscience » pour le moment. Alors que les premiers réseaux de neurones artificiels ont été conçus sur la base de versions simplifiées du cortex cérébral, les LLM modernes sont hautement conçus et adaptés à des fins spécifiques et ne conservent plus d’homologie profonde avec les structures cérébrales connues. En fait, bon nombre des caractéristiques des voies qui rendent les LLM puissants en termes de calcul (Figure 1) ont des architectures très différentes des systèmes dont nous pensons actuellement qu’ils ont un pouvoir causal dans la génération et la formation de la conscience chez les mammifères. Par exemple, de nombreuses théories des neurosciences liées à la génération de la conscience suggèrent que le système thalamico-cortical et le système d’éveil jouent un rôle central dans le traitement de la conscience, ce qui n’est pas disponible dans les LLM modernes.
À ce stade, on pourrait se demander s’il est si important que l’architecture du LLM imite les caractéristiques du cerveau ?
À notre avis, la raison principale est que nous ne pouvons être sûrs que de l’existence d’une seule conscience pour le moment, qui provient du cerveau intégré dans le corps complexe. On pourrait faire valoir que, strictement parlant, cet argument pourrait être réduit aux seuls humains, bien que de nombreux traits au niveau du système censés jouer un rôle important dans la conscience subjective soient répandus dans tout le spectre biologique, s’étendant jusqu’aux mammifères, même aux invertébrés.
Cela dit, commençons d’abord par la signification exacte du mot « conscience ». Nous présenterons ensuite trois arguments contre l’idée que les systèmes d’IA actuels ont, ou auront bientôt une conscience dans le futur, :
Qu’est-ce que la conscience ?
La conscience est un concept complexe, et sa définition a fait l’objet de débats. Dans le contexte de la capacité des êtres humains à communiquer et à interagir les uns avec les autres, la capacité de communiquer et de dialoguer est un élément instinctif pour évaluer si une personne a une conscience.
Les conversations interactives basées sur le langage avec les LLM développent souvent un sentiment intuitif, qui est le point de départ pour juger si un LLM est susceptible d’être conscient. Cependant, bien que les LLM soient excellents pour les conversations interactives, cela ne répond pas à la mesure objective formelle de la conscience, mais n’est qu’une preuve préliminaire de l’intelligence. **
L’avènement des LLM nous a amenés à réévaluer si une personne est capable de générer de la conscience directement à partir d’interactions verbales avec les autres. Par conséquent, un nouveau point de vue est que nous devons reformuler les critères pour juger des capacités et des caractéristiques humaines semblables à celles de l’homme.
Le mot « conscience » a souvent des significations différentes. Par exemple, les neurologues se réfèrent souvent au « niveau de conscience », qui est la première évaluation de la conscience d’une personne, puis du niveau ou de l’état de conscience spécifique de manière plus granulaire. Les psychologues, quant à eux, sont plus préoccupés par le contenu de la conscience : les expériences, les souvenirs et les pensées spécifiques du monde intérieur d’un individu. De plus, il existe des différences entre les différents contenus de la conscience. Notre expérience peut être décrite comme phénoménale ou expérientielle (par exemple, voir ou sentir une pomme, ou toucher son bras) ou sous une forme plus abstraite (par exemple, comment nous imaginons, envisageons ou manipulons la mémoire conceptuelle).
La question de savoir si un système d’IA est conscient peut être résolue de plusieurs manières : il peut se concentrer sur certaines des significations de la conscience, ou il peut se concentrer sur toutes les significations de la conscience en même temps. Dans ce qui suit, nous nous concentrons principalement sur la conscience phénoménale et explorons si les machines sont capables de faire l’expérience du monde de manière phénoménale.
À propos de l’environnement
La partie d’un organisme qui peut être utilisée dans le processus de perception du monde extérieur s’appelle son environnement. Par exemple, la rétine humaine réagit à la lumière avec des longueurs d’onde de 380 nm à 740 nm, c’est-à-dire que la rétine est capable de percevoir le spectre du bleu au rouge. Sans l’aide d’une technologie externe, les humains ne peuvent pas détecter la lumière infrarouge (>740 nm) ou la lumière ultraviolette (< 380 nm) en dehors de cette gamme de longueurs d’onde. Nous avons également des environnements similaires en termes d’audition, de sens somatosensoriel et vestibulaire, à savoir les domaines auditifs correspondants (l’oreille humaine peut entendre des sons de 20 Hz à 20 000 Hz), les domaines somatosensoriels (les humains peuvent distinguer les stimuli à environ 1 mm de certaines parties du corps) et le domaine vestibulaire (les structures 3D interconnectées des canaux semi-circulaires humains nous fournissent un sens intérieur de l’équilibre). Dans le même temps, d’autres espèces dans la nature sont capables de détecter des signaux dans d’autres bandes du spectre électromagnétique. Par exemple, les abeilles peuvent voir la lumière dans la gamme ultraviolette, et les serpents peuvent détecter des signaux de rayonnement infrarouge en plus des signaux visuels plus traditionnels.
C’est-à-dire que différents animaux ont des sensibilités différentes avec lesquelles leur corps et leur cerveau sont capables de percevoir leur environnement. Gibson, un psychologue américain, se réfère à la possibilité qu’un organisme agisse dans un environnement particulier comme « affordance » (avec la pénétration de la technologie Internet, l’affordance a commencé à être utilisée pour expliquer l’utilisation de la technologie numérique dans les pratiques médiatiques et les interactions quotidiennes humaines). **
Selon la nature de la conception de son algorithme, les LLM n’ont que des modèles de codage binaires, ne peuvent recevoir que des entrées d’informations binaires et exécutent en outre des algorithmes de réseau inhérents à des structures de transformateurs complexes, qui constituent l’architecture de travail des LLM d’aujourd’hui. Alors que les pointes neuronales sont également capables d’encoder des signaux analogiques entrants en signaux numériques (c’est-à-dire des signaux binaires), le flux d’informations délivré au LLM est très abstrait et n’a pas de lien fort avec le monde extérieur lui-même. Le texte et la parole codés sous forme de chaîne de lettres ne peuvent tout simplement pas correspondre à la complexité dynamique du monde naturel, c’est-à-dire que l’environnement d’un LLM (l’information binaire qui lui est fournie) est fondamentalement différent de l’information qui entre dans notre cerveau lorsque nous ouvrons les yeux ou communiquons des conversations, et des expériences qui l’accompagnent. Le discours philosophique traditionnel met l’accent sur le caractère unique du flux d’informations entre les différentes espèces (par exemple, la différence entre les humains et les chauves-souris) et sur les caractéristiques phénoménologiques de ces expériences. Nous pensons que les informations obtenues par les LLM peuvent présenter des différences plus significatives, bien qu’il n’y ait pas de moyen définitif de quantifier cette différence pour le moment.
Cela étant dit, l’apport des systèmes d’IA deviendra inexorablement plus riche à l’avenir. Les futurs LLM peuvent être équipés de différents types d’entrées qui peuvent mieux correspondre aux types de signaux auxquels les agents conscients peuvent accéder quotidiennement (c’est-à-dire les statistiques du monde naturel). Alors, l’environnement disponible des systèmes d’IA à l’avenir sera-t-il plus large que l’environnement humain ?
En répondant à cette question, nous devons reconnaître que l’expérience subconsciente et consciente humaine n’est pas uniquement déterminée par l’entrée sensorielle. Par exemple, imaginez que lorsque nous sommes allongés dans un ponton, nous sommes toujours conscients malgré notre manque d’expérience sensorielle normale. Le concept ici est mis en évidence que l’environnement présuppose une perspective subjective inhérente, c’est-à-dire de partir d’un sujet. De même, l’expertise dépend de la nature interne du sujet, en particulier de ses motivations et de ses objectifs. Cela signifie que la conscience ne peut pas être générée par l’environnement seul (les données d’entrée du LLM). Par conséquent, le simple fait d’introduire un grand flux de données dans un système d’IA ne rend pas le système d’IA lui-même conscient. **
Cette perspective peut nous inciter à repenser certaines des hypothèses de base de la science de la conscience. Plus précisément, à mesure que les systèmes d’IA présentent progressivement des capacités de plus en plus sophistiquées, les chercheurs devront réévaluer la nécessité des processus plus fondamentaux liés au soi et aux agents proposés par certaines théories de la conscience pour l’émergence de la conscience.
**"Intégration » de la Conscience **
À l’heure actuelle, il existe de nombreuses études sur la corrélation neuronale de la conscience, parmi lesquelles il existe de nombreuses théories différentes sur les circuits neuronaux du traitement de la conscience. Certains soulignent que la conscience est sous-tendue par un réseau thalamo-cortical dense et hautement connecté. **Le réseau thalamique-cortical comprend des régions corticales, des jonctions corticales-corticales et des projections divergentes des noyaux thalamiques supérieurs vers les régions corticales. Cette structure spécifique du système thalamo-cortical soutient le traitement circulatoire et complexe de la pensée qui sous-tend la conscience et l’intégration consciente (c’est-à-dire que la conscience est unifiée malgré le fait que la conscience provient de différentes régions du cerveau). Cependant, différentes théories ont des points de vue différents sur la manière de réaliser l’intégration de la conscience.
Selon la théorie de l’espace de travail neuronal global (GNW), la conscience repose sur un espace de travail central constitué d’un système de cortex fronto-pariétal distribué. Cet espace de travail intègre les informations provenant des processeurs corticaux locaux, puis les transmet à tous les processeurs corticaux locaux à l’échelle mondiale, avec une livraison globale séparant les processus conscients et inconscients. D’autres théories de la conscience soutiennent que l’intégration consciente est réalisée par d’autres processus neuronaux. Par exemple, la théorie de l’intégration dendritique neuronale (DIT) suggère que l’intégration consciente se produit par un phénomène de synchronisation à haute fréquence entre différentes régions corticales, qui peut impliquer différentes fonctions, notamment la perception, la cognition ou la planification motrice, selon la région corticale impliquée.
*Légende : Dans la théorie DIT (Figure 2), les chercheurs pensent que l’intégration consciente globale dépend également de l’intégration locale des neurones pyramidaux dans la cinquième couche du cortex, un grand neurone excitateur qui est central dans les circuits thalamo-corticaux et corticaux. Il existe deux structures principales dans ce type de neurone (Figure 2, cylindres orange et rouge) qui traitent des types d’informations complètement différents : la structure basale (rouge) traite l’information de base externe, tandis que la structure apicale (orange) traite l’information générée en interne. Selon la théorie DIT, dans l’état de conscience, ces deux structures sont couplées l’une à l’autre, permettant à l’information de circuler à travers les circuits thalamiques-corticaux et cortico-corticaux, permettant ainsi l’intégration à l’échelle du système de l’information et de la génération de conscience. *
Il est important de noter que les architectures des LLM d’aujourd’hui et d’autres systèmes d’IA manquent des caractéristiques que ces théories mettent en évidence : les LLM existants n’ont ni neurones pyramidaux bistructuraux équivalents, ni architectures thalamiques centralisées, ni espaces de travail globaux, ni multiples caractéristiques de systèmes d’excitation ascendante. En d’autres termes, les systèmes d’IA existants n’ont pas les caractéristiques cérébrales qui, selon la communauté des neurosciences, sous-tendent actuellement la génération de conscience. Bien que le cerveau des mammifères ne soit pas la seule structure capable de soutenir la production de la conscience, les preuves de la neurobiologie suggèrent que la formation de la conscience des mammifères est déterminée par des principes structurels très spécifiques (c’est-à-dire des connexions simples entre les neurones intégrés et excités). Topologiquement, la structure des systèmes d’IA existants est extrêmement simple, ce qui est l’une des raisons pour lesquelles nous ne considérons pas les systèmes d’IA existants comme étant conscients des phénomènes.
Alors, les futurs modèles d’IA seront-ils enfin capables d’intégrer le processus d'« intégration » que de nombreuses théories de la conscience considèrent comme le noyau ? En réponse à ce problème, le concept d'« intégration » proposé par la théorie GNW fournit un moyen relativement simple de le mettre en œuvre. En fait, certains systèmes d’IA récents ont été incorporés dans quelque chose comme un espace de travail global partagé par un processeur local. Étant donné que le processus informatique de transmission globale peut être mis en œuvre dans un système d’IA, selon cette théorie, un système d’IA qui adopte cette méthode de calcul contiendra les composants de base de la conscience latente.
Cependant, comme mentionné précédemment, toutes les théories de la conscience ne s’accordent pas à dire que ce mode d’intégration est la clé de la génération de la conscience. Par exemple, la théorie de l’information intégrée de la conscience soutient que les systèmes d’IA basés sur des logiciels mis en œuvre sur un ordinateur moderne typique ne peuvent pas être conscients parce que les ordinateurs modernes n’ont pas l’architecture appropriée pour atteindre les capacités de raisonnement causal nécessaires pour intégrer pleinement l’information. Par conséquent, nous examinerons la troisième possibilité, qui est que la conscience est réalisable en principe, mais qu’elle devra peut-être aller au-delà du niveau actuel (et peut-être futur) de spécificité computationnelle des systèmes d’IA. **
La conscience est un processus biologique complexe
La génération de la conscience ne dépend pas seulement de l’architecture du système. Par exemple, lorsque nous sommes en sommeil profond ou sous anesthésie, la structure du système thalamo-cortical ne change pas, mais la conscience disparaît. Même dans le sommeil profond, les réponses neuronales locales et l’activité de la ceinture gamma dans les principales zones sensorielles sont similaires à celles de l’état conscient. Cela suggère que la conscience repose sur des processus neuronaux spécifiques, mais ces processus neuronaux sont différents dans les cerveaux conscients et inconscients. **
Pour faire la lumière sur les différences détaillées entre le traitement conscient et inconscient, revenons d’abord à la théorie de l’intégration dendritique des neurones (DIT). La théorie DIT contient un certain nombre de nuances neurobiologiques liées aux processus neuronaux qui sont traités consciemment et inconsciemment. La théorie DIT propose que la principale différence entre le traitement conscient et inconscient réside dans l’intégration des structures à deux compartiments des cellules pyramidales (Figure 2). Comme mentionné précédemment, lors du traitement conscient, ces deux structures interagissent l’une avec l’autre, permettant à l’ensemble du système thalamico-cortical de traiter et d’intégrer des informations complexes. Cependant, à l’état anesthésique, divers anesthésiques entraînent un découplage fonctionnel entre les deux structures des neurones vertébraux. En d’autres termes, bien que ces neurones vertébraux soient anatomiquement intacts et puissent exciter des potentiels d’action, leur capacité d’intégration dendritique est sévèrement limitée physiologiquement, c’est-à-dire que la rétroaction descendante ne peut pas influencer le traitement. Des études ont montré que ce couplage dendritique est contrôlé par des récepteurs métabotropes, mais cette structure est souvent négligée dans les modèles informatiques et les réseaux de neurones artificiels. De plus, des études ont montré que dans ce cas, les noyaux thalamiques supérieurs contrôlent l’activité de ce récepteur métabotrope. Ainsi, des processus neurobiologiques spécifiques peuvent être responsables de l’activation et de l’extinction de la conscience dans le cerveau. Cela suggère que la qualité de l’expérience dans le cerveau des mammifères a une relation complexe avec les processus sous-jacents qui produisent la conscience. **
Bien que ces théories soient assez convaincantes, il est presque certain que cette connaissance pâlit par rapport à la complexité des processus neuronaux qui découlent d’une compréhension complète de la conscience. Nos explications actuelles de la conscience reposent sur des théories telles que les espaces de travail globaux, l’information intégrée, le traitement circulaire, l’intégration dendritique, etc., mais les processus biologiques par lesquels la vraie conscience surgit peuvent être beaucoup plus complexes que ce que ces théories comprennent actuellement. Il est même tout à fait possible que les idées abstraites au niveau computationnel actuellement utilisées pour construire la discussion sur la recherche sur la conscience aient complètement échoué à prendre en compte les détails informatiques nécessaires pour expliquer la conscience.
En d’autres termes, la biologie est complexe et notre compréhension actuelle de la bio-informatique est limitée (Figure 3), alors peut-être que nous manquons des bons outils mathématiques et expérimentaux pour comprendre la conscience. **
*Légende : Dans la théorie DIT (Figure 2), les chercheurs pensent que l’intégration consciente globale dépend également de l’intégration locale des neurones pyramidaux dans la cinquième couche du cortex, un grand neurone excitateur qui est central dans les circuits thalamo-corticaux et corticaux. Il existe deux structures principales dans ce type de neurone (Figure 2, cylindres orange et rouge) qui traitent des types d’informations complètement différents : la structure basale (rouge) traite l’information de base externe, tandis que la structure apicale (orange) traite l’information générée en interne. Selon la théorie DIT, dans l’état de conscience, ces deux structures sont couplées l’une à l’autre, permettant à l’information de circuler à travers les circuits thalamiques-corticaux et cortico-corticaux, permettant ainsi l’intégration à l’échelle du système de l’information et de la génération de conscience. *
Afin de mieux comprendre la complexité biologique, il est important de souligner que les processus biologiques décrits ci-dessus aux niveaux cellulaire et systémique doivent se produire dans un organisme vivant et sont indissociables. Les organismes vivants diffèrent des machines et des algorithmes d’IA d’aujourd’hui en ce qu’ils sont capables de se maintenir constamment à différents niveaux de traitement. De plus, les systèmes vivants ont une histoire multiforme d’évolution et de développement, et leur existence dépend de leurs activités à de multiples niveaux organisationnels. La conscience est intimement liée à l’organisation des systèmes vivants. Il convient toutefois de noter que les ordinateurs d’aujourd’hui ne sont pas capables d’incarner cette complexité organisationnelle des systèmes vivants (c’est-à-dire l’interaction entre les différents niveaux du système). Cela suggère que les algorithmes d’IA modernes n’ont aucune contrainte au niveau organisationnel et ne peuvent pas fonctionner aussi efficacement qu’un système vivant. Cela signifie que tant que l’IA est basée sur un logiciel, elle peut ne pas être adaptée à la conscience et à l’intelligence. **
Le concept de complexité biologique peut également s’exprimer au niveau cellulaire. Un neurone biologique n’est pas seulement une entité abstraite qui peut être entièrement capturée avec quelques lignes de code. En revanche, les neurones biologiques ont une organisation multicouche et dépendent d’autres cascades de processus biophysiques complexes à l’intérieur des neurones. Prenons l’exemple du « cycle de Krebs », qui est à la base de la respiration cellulaire et qui est un processus clé dans le maintien de l’homéostasie cellulaire. La respiration cellulaire est un processus biologique essentiel qui permet aux cellules de convertir l’énergie stockée dans les molécules organiques en une forme d’énergie que les cellules peuvent utiliser. Cependant, ce processus ne peut pas être « compressé » dans un logiciel, car les processus biophysiques comme la respiration cellulaire doivent être basés sur de vraies molécules physiques. Bien sûr, cela ne signifie pas que la conscience a besoin d’un « cycle de Krebs », mais souligne plutôt que des défis similaires peuvent être impliqués dans le processus de compréhension de la conscience, c’est-à-dire que la conscience ne peut peut-être pas être détachée du mécanisme sous-jacent. **
Cependant, nous ne sommes pas entièrement d’accord avec l’affirmation selon laquelle la conscience ne peut pas du tout être générée par des systèmes intelligents, mais nous devons considérer la corrélation entre la conscience et l’organisation biologique complexe derrière la vie, et les types de calculs qui capturent la nature de la conscience peuvent être beaucoup plus complexes que nos théories actuelles ne le comprennent (Figure 3). Il est presque impossible d’effectuer une « biopsie » de la conscience et de l’enlever du tissu. Ce point de vue contredit de nombreuses théories actuelles sur la conscience, qui soutiennent que la conscience peut surgir à un niveau informatique abstrait. Maintenant, cette hypothèse doit être mise à jour à la lumière des systèmes d’IA modernes : pour bien comprendre la conscience, nous ne pouvons pas ignorer l’interdépendance inter-échelle et la complexité organisationnelle observées dans les systèmes vivants. **
Bien que les systèmes d’IA imitent leurs homologues biologiques au niveau de l’informatique en réseau, dans ces systèmes, tous les autres niveaux de processus biologiques ont été abstraits des processus qui ont une relation causale étroite avec la conscience dans le cerveau, de sorte que les systèmes d’IA existants peuvent avoir abstrait la conscience elle-même. En conséquence, les LLM et les futurs systèmes d’IA peuvent être piégés dans un flux sans fin de caractéristiques de conscience simulées, mais sans aucune conscience phénoménale à proprement parler. Si la conscience est effectivement liée à ces autres niveaux de traitement, ou à leur interaction entre différentes échelles, alors nous sommes loin de la possibilité qu’une machine génère de la conscience.
Résumé
Ici, nous explorons la possibilité de la conscience dans les LLM et les futurs systèmes d’IA d’un point de vue neuroscientifique. Aussi attrayants que soient les LLM, ils ne sont pas conscients et ne le seront pas pendant une période plus courte à l’avenir.
Tout d’abord, nous illustrons la grande différence entre l’environnement des mammifères (une « petite fraction » du monde extérieur qu’ils peuvent percevoir) et l’environnement très appauvri et limité des LLM. Deuxièmement, nous soutenons que la topologie des LLM, bien que très complexe, est empiriquement très différente des détails neurobiologiques des circuits liés à la conscience des mammifères, et qu’il n’y a donc aucune bonne raison de penser que les LLM sont capables de générer une conscience phénoménale (Figure 1). Il n’est pas encore possible d’abstraire la conscience de la complexité de l’organisation biologique, qui est inhérente aux systèmes vivants, mais qui n’existe évidemment pas dans les systèmes d’IA. Dans l’ensemble, les trois points clés ci-dessus font qu’il est impossible pour les LLM d’être conscients dans leur forme actuelle. Ils n’imitent que les caractéristiques de la communication humaine en langage naturel utilisées pour décrire la richesse de l’expérience consciente.
À travers cet article, nous espérons que les arguments présentés auront un impact positif et une réflexion (voir Questions non résolues) et ne représenteront pas seulement une objection. Premièrement, les préoccupations éthiques potentielles actuelles concernant la capacité perçue des LLM sont plus hypothétiques que réelles. De plus, nous pensons qu’une meilleure compréhension des similitudes et des différences entre les LLM et les topologies cérébrales des mammifères peut faire progresser les progrès de l’apprentissage automatique et des neurosciences. Nous espérons également faire progresser la communauté de l’apprentissage automatique et des neurosciences en imitant les caractéristiques des tissus cérébraux et en apprenant comment des systèmes distribués simples traitent des flux d’informations complexes. Pour ces raisons, nous sommes optimistes quant au fait que les futures collaborations entre les chercheurs en IA et les neuroscientifiques pourront conduire à une compréhension plus profonde de la conscience.
Suivi non résolu :
Lien d’origine