Source de l'image : générée par l'outil d'IA illimitée
L'intelligence artificielle (IA) semble être dans tous les coins de la vie moderne, de la musique et des médias aux affaires et à la productivité, et même aux rencontres. Il y a tellement de choses qu'il est difficile de suivre. Cet article couvrira tout, des derniers grands développements de l'IA aux termes et entreprises que vous devez connaître pour rester à jour sur l'état des choses dans ce domaine en évolution rapide.
Tout d'abord, qu'est-ce que l'intelligence artificielle ?
L'intelligence artificielle, également connue sous le nom d'apprentissage automatique, est un système logiciel basé sur des réseaux de neurones, une technique qui a en fait été lancée il y a des décennies mais qui a récemment prospéré grâce à de nouvelles ressources informatiques puissantes. Actuellement, l'IA a atteint une reconnaissance efficace de la parole et des images, ainsi que la capacité de générer des images et de la parole synthétiques. Les chercheurs s'efforcent de rendre l'intelligence artificielle capable de naviguer sur le Web, de commander des billets, de peaufiner des recettes et plus encore.
Mais si vous vous inquiétez d'une augmentation des machines à la Matrix, ne vous inquiétez pas. Nous en reparlerons plus tard !
Ce guide de l'IA se compose de deux parties principales :
Tout d'abord, les concepts les plus élémentaires que vous devez comprendre et les concepts importants les plus récents.
Ensuite, décrivez les principaux acteurs de l'IA et pourquoi ils sont importants.
IA 101
Crédit image : Andrii Shyp/Getty Images
L'une des choses folles à propos de l'IA est que, bien que ses concepts de base remontent à plus de 50 ans, jusqu'à récemment, peu de personnes, même férus de technologie, connaissaient ses concepts. Alors ne vous inquiétez pas si vous vous sentez perdu, tout le monde l'est.
Soyons clairs sur une chose dès le départ : bien que cela s'appelle "intelligence artificielle", le terme est un peu trompeur. Il n'existe actuellement aucune définition unifiée de l'intelligence, mais ce que font ces systèmes est nettement plus proche d'une calculatrice que d'un cerveau, sauf que l'entrée et la sortie de cette calculatrice sont plus flexibles. L'IA pourrait être comme une "noix de coco artificielle" - c'est une intelligence d'imitation.
Voici les termes de base que vous trouverez dans toute discussion sur l'IA.
Les réseaux de neurones
Notre cerveau est en grande partie composé de cellules interconnectées appelées neurones qui s'entremêlent pour former des réseaux complexes qui effectuent des tâches et stockent des informations. Les gens essaient de recréer cet incroyable système dans les logiciels depuis les années 1960, mais la puissance de traitement requise n'était pas largement disponible jusqu'à il y a 15 à 20 ans, lorsque les GPU ont permis aux réseaux de neurones définis numériquement de prospérer.
Essentiellement, ce ne sont que de nombreux points et lignes : les points sont les données et les lignes sont les relations statistiques entre ces valeurs. Comme dans le cerveau, cela peut créer un système multifonctionnel qui reçoit rapidement une entrée, la transmet à travers le réseau et produit une sortie. Ce système s'appelle un modèle.
Modèle
Un modèle est la collection réelle de code qui prend une entrée et renvoie une sortie. La similitude de la terminologie avec les modèles statistiques ou les systèmes de modélisation qui simulent des processus naturels complexes n'est pas fortuite. Dans l'IA, un modèle peut faire référence à un système complet comme ChatGPT, ou à presque n'importe quelle construction d'IA ou d'apprentissage automatique, peu importe ce qu'il fait ou produit. Les modèles sont disponibles en différentes tailles, ce qui signifie l'espace de stockage qu'ils occupent et la puissance de calcul dont ils ont besoin pour fonctionner. Et tout dépend de la façon dont le modèle a été formé.
former
Pour créer un modèle d'IA, les réseaux de neurones qui constituent la base du système sont exposés à un ensemble d'informations appelées ensemble de données ou corpus. Ce faisant, ces vastes réseaux créent une représentation statistique de ces données. Ce processus de formation est le plus intensif en termes de calcul, ce qui signifie qu'il faut des semaines ou des mois sur d'énormes ordinateurs très puissants. La raison en est non seulement que les réseaux sont complexes, mais que les ensembles de données peuvent être très volumineux : des milliards de mots ou d'images doivent être analysés et représentés dans d'énormes modèles statistiques. D'autre part, une fois qu'un modèle est formé, il peut être utilisé beaucoup plus petit et moins exigeant, un processus appelé inférence.
Crédit image : Google
Inférence
Lorsque le modèle fonctionne réellement, nous l'appelons inférence, et le sens traditionnel du mot est très fort : énoncer une conclusion en raisonnant sur les preuves disponibles. Bien sûr, ce n'est pas exactement une "inférence", mais relie statistiquement des points dans les données qu'il ingère, prédisant en fait le point suivant. Par exemple, dites "complète la séquence suivante : rouge, orange, jaune..." il trouvera que ces mots correspondent au début de la liste qu'il ingère, c'est-à-dire les couleurs de l'arc-en-ciel, et extrapolera l'élément suivant jusqu'à ce qu'il ait produit le reste de la partie liste.
L'inférence est généralement beaucoup moins coûteuse en termes de calcul que la formation : c'est comme parcourir un catalogue de fiches plutôt que de l'assembler. Les grands modèles doivent toujours fonctionner sur des superordinateurs et des GPU, mais les modèles plus petits peuvent fonctionner sur des smartphones ou des appareils plus simples.
Intelligence Artificielle Générative
Tout le monde parle d'IA générative, un terme général qui fait simplement référence aux modèles d'IA qui génèrent une sortie brute comme des images ou du texte. Certaines IA résument, certaines réorganisent, certaines reconnaissent, etc., mais les IA qui génèrent réellement quelque chose (qu'elles "créent" ou non sont discutables) sont particulièrement populaires en ce moment. N'oubliez pas que ce n'est pas parce que l'IA a généré quelque chose que c'est correct, ou même que cela reflète la réalité ! C'est juste qu'il n'existe pas tant que vous ne le demandez pas, comme une histoire ou une peinture.
Mots chauds en ce moment
Au-delà des bases, voici les termes d'IA les plus pertinents pour la mi-2023.
Grand modèle de langage (LLM)
Les modèles linguistiques à grande échelle sont la forme d'intelligence artificielle la plus influente et la plus largement utilisée aujourd'hui. Les modèles linguistiques à grande échelle sont formés sur presque tous les textes qui composent le Web et la plupart de la littérature en anglais. L'ingestion de tout cela donne un énorme modèle de base (lisez la suite). Les LLM sont capables de converser et de répondre aux questions en langage naturel et d'imiter des documents écrits de différents styles et types, comme en témoignent des outils tels que ChatGPT, Claude et LLaMa.
Bien que ces modèles soient sans aucun doute impressionnants, il faut garder à l'esprit qu'ils sont toujours des moteurs de reconnaissance de formes, et lorsqu'ils répondent à une question, ils essaient de compléter le modèle qu'ils ont identifié, que ce modèle reflète ou non la réalité. Les LLM hallucinent souvent dans leurs réponses, comme nous y reviendrons bientôt.
Si vous voulez en savoir plus sur LLM et ChatGPT, cliquez ici.
Modèle de fondation
L'entraînement d'un énorme modèle à partir de zéro sur un énorme jeu de données est coûteux et complexe, vous ne voulez donc pas en faire plus que nécessaire. Les modèles de base sont de grands modèles à partir de zéro qui nécessitent des superordinateurs pour fonctionner, mais souvent en réduisant le nombre de paramètres, ils peuvent être réduits à des conteneurs plus petits. Vous pouvez les considérer comme le nombre total de points que le modèle doit gérer, qui peut atteindre des millions, des milliards, voire des billions de nos jours.
réglage fin
Un modèle de base comme GPT-4 est intelligent, mais c'est aussi un généraliste de par sa conception - il absorbe tout, de Dickens à Wittgenstein en passant par les règles de Donjons et Dragons, mais si vous voulez qu'il soit basé sur votre CV, écrivez une lettre de motivation, ces sont inutiles. Heureusement, il est possible d'affiner le modèle en effectuant une formation supplémentaire sur le modèle à l'aide d'un ensemble de données spécialisé. Par exemple, il arrive qu'il y ait plusieurs milliers de demandes d'emploi. Cela donne au modèle une meilleure compréhension de la façon d'aider l'utilisateur dans ce domaine sans écarter les connaissances générales qu'il a glanées dans le reste des données de formation.
L'apprentissage par renforcement à partir de la rétroaction humaine (RLHF) est un type particulier de réglage fin dont vous entendrez beaucoup parler - il utilise les données des humains interagissant avec les LLM pour améliorer leurs compétences en communication.
La diffusion
*À partir d'un article sur les techniques avancées de post-diffusion, vous pouvez voir comment reproduire des images à partir de données très bruitées. *
La génération d'images peut se faire de plusieurs façons, mais la plus réussie est de loin la diffusion, la technique au cœur de Stable Diffusion, Midjourney et d'autres IA génératives populaires. Le modèle de diffusion est formé en lui montrant des images qui sont progressivement dégradées en ajoutant du bruit numérique jusqu'à ce qu'il ne reste plus rien de l'image d'origine. En observant cela, le modèle de diffusion apprend également à effectuer le processus en sens inverse, ajoutant progressivement des détails au bruit pur pour former une image arbitrairement définie. Nous avons commencé à aller au-delà de cela dans les graphismes, mais la technologie est solide et relativement facile à comprendre, donc elle va s'éteindre assez rapidement.
Hallucinations
Au départ, il s'agissait d'un problème de certaines images dans la formation glissant vers une sortie non pertinente, par exemple des bâtiments semblant être faits de chiens en raison de la surprévalence des images de chiens dans l'ensemble de formation. On dit maintenant que l'IA est hallucinante parce qu'elle n'a pas assez de données ou des données contradictoires dans son ensemble d'entraînement, elle invente simplement les choses.
Une IA chargée de créer de l'art original ou même dérivé est hallucinante. Par exemple, on pourrait dire à un LLM d'écrire un poème d'amour dans le style de Yogi Berra, et il le ferait avec plaisir, même si une telle chose n'existe pas dans son ensemble de données. Mais cela peut être un problème lorsqu'une réponse factuelle est requise ; le modèle présentera avec confiance une réponse mi-réelle, mi-illusionnée. Actuellement, il n'y a pas de moyen facile de savoir lequel est lequel autre que de le vérifier vous-même, puisque le modèle lui-même ne sait pas réellement ce qui est "vrai" ou "faux", il essaie simplement de compléter un modèle du mieux qu'il peut.
AGI ou Intelligence Artificielle Forte
L'Intelligence Générale Artificielle (AGI), ou Intelligence Artificielle Forte, n'est pas vraiment un concept bien défini, mais l'explication la plus simple est qu'il s'agit d'une intelligence suffisamment puissante non seulement pour faire ce que les gens font, mais aussi pour être comme nous Apprendre et s'améliorer toi-même. Certains craignent que ce cycle d'apprentissage, d'intégration de ces idées, puis d'apprentissage et de croissance plus rapide ne soit un cycle auto-entretenu qui conduira à un système super intelligent qui ne peut être ni contraint ni contrôlé. Certains ont même proposé de retarder ou de limiter les études pour éviter cette éventualité.
C'est une pensée terrible. Et des films comme The Matrix et The Terminator ont exploré ce qui pourrait arriver si l'intelligence artificielle devenait incontrôlable et tentait d'exterminer ou d'asservir l'humanité. Mais ces histoires ne sont pas ancrées dans la réalité. L'apparence d'intelligence que nous voyons dans des choses comme ChatGPT est impressionnante, mais n'a pas grand-chose en commun avec le raisonnement abstrait et l'activité multi-domaine dynamique que nous associons à l'intelligence "réelle".
Bien qu'il soit presque impossible de prédire les développements futurs, il peut être utile d'imaginer l'AGI comme un voyage spatial interstellaire : nous comprenons tous le concept et semblons y travailler, mais en même temps, nous avons encore un long chemin à parcourir pour y parvenir. il. Tout comme AGI, personne ne le fera par accident en raison des énormes ressources et des progrès scientifiques fondamentaux requis !
C'est amusant de penser à l'IAG, mais il n'est pas nécessaire de demander des ennuis car, comme l'ont souligné les commentateurs, malgré ses limites, l'IA représente déjà une menace réelle et importante aujourd'hui. Personne ne veut de Skynet, mais vous n'avez pas besoin d'une super intelligence dotée d'armes nucléaires pour faire de vrais dégâts : les gens perdent leur emploi et se font arnaquer aujourd'hui. Si nous ne pouvons pas résoudre ces problèmes, quelle chance avons-nous face au T-1000 ?
Les meilleurs acteurs de l'intelligence artificielle
OpenAI
Crédit photo : Leon Neal/Getty Images
S'il y a un nom familier dans l'IA, c'est OpenAI. OpenAI, comme son nom l'indique, est une organisation qui a l'intention de mener des recherches et de rendre les résultats plus ou moins accessibles au public. Il s'est depuis restructuré en une société à but lucratif plus traditionnelle qui donne accès à des modèles de langage avancés comme ChatGPT via des API et des applications. Elle est dirigée par Sam Altman, un technomilliardaire qui a pourtant tiré la sonnette d'alarme sur les risques éventuels de l'intelligence artificielle. OpenAI est un leader reconnu dans le domaine des LLM, mais mène également des recherches dans d'autres domaines.
Microsoft
Comme vous vous en doutez, Microsoft a fait sa juste part de la recherche sur l'IA, mais comme d'autres entreprises, a plus ou moins échoué à traduire ses expériences en produits majeurs. Sa décision la plus intelligente a été un investissement précoce dans OpenAI, qui a conduit à un partenariat exclusif à long terme avec la société qui alimente désormais ses agents conversationnels Bing. Bien que ses propres contributions soient plus modestes et moins directement applicables, l'entreprise dispose d'une force de recherche considérable.
Google
Connu pour ses moonshots, Google a en quelque sorte raté l'opportunité de l'IA, même si ses chercheurs ont inventé la technologie qui mène directement à l'explosion actuelle de l'IA : Transformers. Maintenant, il essaie de développer ses propres LLM et autres agents, mais il est clairement en train de rattraper son retard après avoir passé la majeure partie de la dernière décennie à pousser le concept obsolète des "assistants virtuels" de l'IA. Le PDG Sundar Pichai a déclaré à plusieurs reprises que la société soutenait fermement l'IA dans la recherche et la productivité.
Anthropique
Après le départ d'OpenAI de l'ouverture, Dario et Daniela Amodei l'ont quitté pour lancer Anthropic, dans l'intention de remplir le rôle d'une organisation de recherche sur l'IA ouverte et respectueuse de l'éthique. Avec le montant d'argent dont ils disposent, ils sont de sérieux concurrents d'OpenAI, même si leurs modèles (comme Claude) ne sont pas encore aussi populaires ou connus.
Crédit image : Bryce Durbin/TechCrunch
La stabilité
Controversé mais inévitable, Stability représente le genre open-source des implémentations d'IA "tout ce que vous voulez" qui collectent tout sur Internet et rendent disponibles gratuitement les modèles d'IA génératifs qu'il forme, à condition que vous possédiez le matériel pour l'exécuter. Cela correspond très bien à la philosophie "l'information veut être libre", mais accélère également les projets éthiquement douteux comme la génération d'images pornographiques et l'utilisation de la propriété intellectuelle sans consentement (parfois simultanément).
Elon Musk
Musk n'a pas fait exception, exprimant ouvertement ses inquiétudes concernant l'IA galopante, et quelques raisins aigres après ses premières contributions à OpenAI sont allés dans des directions qu'il n'aimait pas. Bien que Musk ne soit pas un expert sur le sujet, comme d'habitude, ses bouffonneries et ses commentaires font beaucoup de bruit (il est signataire de la lettre susmentionnée "pause AI"), et il essaie de construire sa propre présence dans la recherche.
Voir l'original
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
Guide IA : Coup d'œil sur les concepts clés et les principaux acteurs de l'IA
Source : Techcrunch
Compilation : Babbitt
L'intelligence artificielle (IA) semble être dans tous les coins de la vie moderne, de la musique et des médias aux affaires et à la productivité, et même aux rencontres. Il y a tellement de choses qu'il est difficile de suivre. Cet article couvrira tout, des derniers grands développements de l'IA aux termes et entreprises que vous devez connaître pour rester à jour sur l'état des choses dans ce domaine en évolution rapide.
Tout d'abord, qu'est-ce que l'intelligence artificielle ?
L'intelligence artificielle, également connue sous le nom d'apprentissage automatique, est un système logiciel basé sur des réseaux de neurones, une technique qui a en fait été lancée il y a des décennies mais qui a récemment prospéré grâce à de nouvelles ressources informatiques puissantes. Actuellement, l'IA a atteint une reconnaissance efficace de la parole et des images, ainsi que la capacité de générer des images et de la parole synthétiques. Les chercheurs s'efforcent de rendre l'intelligence artificielle capable de naviguer sur le Web, de commander des billets, de peaufiner des recettes et plus encore.
Mais si vous vous inquiétez d'une augmentation des machines à la Matrix, ne vous inquiétez pas. Nous en reparlerons plus tard !
Ce guide de l'IA se compose de deux parties principales :
IA 101
L'une des choses folles à propos de l'IA est que, bien que ses concepts de base remontent à plus de 50 ans, jusqu'à récemment, peu de personnes, même férus de technologie, connaissaient ses concepts. Alors ne vous inquiétez pas si vous vous sentez perdu, tout le monde l'est.
Soyons clairs sur une chose dès le départ : bien que cela s'appelle "intelligence artificielle", le terme est un peu trompeur. Il n'existe actuellement aucune définition unifiée de l'intelligence, mais ce que font ces systèmes est nettement plus proche d'une calculatrice que d'un cerveau, sauf que l'entrée et la sortie de cette calculatrice sont plus flexibles. L'IA pourrait être comme une "noix de coco artificielle" - c'est une intelligence d'imitation.
Voici les termes de base que vous trouverez dans toute discussion sur l'IA.
Les réseaux de neurones
Notre cerveau est en grande partie composé de cellules interconnectées appelées neurones qui s'entremêlent pour former des réseaux complexes qui effectuent des tâches et stockent des informations. Les gens essaient de recréer cet incroyable système dans les logiciels depuis les années 1960, mais la puissance de traitement requise n'était pas largement disponible jusqu'à il y a 15 à 20 ans, lorsque les GPU ont permis aux réseaux de neurones définis numériquement de prospérer.
Essentiellement, ce ne sont que de nombreux points et lignes : les points sont les données et les lignes sont les relations statistiques entre ces valeurs. Comme dans le cerveau, cela peut créer un système multifonctionnel qui reçoit rapidement une entrée, la transmet à travers le réseau et produit une sortie. Ce système s'appelle un modèle.
Modèle
Un modèle est la collection réelle de code qui prend une entrée et renvoie une sortie. La similitude de la terminologie avec les modèles statistiques ou les systèmes de modélisation qui simulent des processus naturels complexes n'est pas fortuite. Dans l'IA, un modèle peut faire référence à un système complet comme ChatGPT, ou à presque n'importe quelle construction d'IA ou d'apprentissage automatique, peu importe ce qu'il fait ou produit. Les modèles sont disponibles en différentes tailles, ce qui signifie l'espace de stockage qu'ils occupent et la puissance de calcul dont ils ont besoin pour fonctionner. Et tout dépend de la façon dont le modèle a été formé.
former
Pour créer un modèle d'IA, les réseaux de neurones qui constituent la base du système sont exposés à un ensemble d'informations appelées ensemble de données ou corpus. Ce faisant, ces vastes réseaux créent une représentation statistique de ces données. Ce processus de formation est le plus intensif en termes de calcul, ce qui signifie qu'il faut des semaines ou des mois sur d'énormes ordinateurs très puissants. La raison en est non seulement que les réseaux sont complexes, mais que les ensembles de données peuvent être très volumineux : des milliards de mots ou d'images doivent être analysés et représentés dans d'énormes modèles statistiques. D'autre part, une fois qu'un modèle est formé, il peut être utilisé beaucoup plus petit et moins exigeant, un processus appelé inférence.
Inférence
Lorsque le modèle fonctionne réellement, nous l'appelons inférence, et le sens traditionnel du mot est très fort : énoncer une conclusion en raisonnant sur les preuves disponibles. Bien sûr, ce n'est pas exactement une "inférence", mais relie statistiquement des points dans les données qu'il ingère, prédisant en fait le point suivant. Par exemple, dites "complète la séquence suivante : rouge, orange, jaune..." il trouvera que ces mots correspondent au début de la liste qu'il ingère, c'est-à-dire les couleurs de l'arc-en-ciel, et extrapolera l'élément suivant jusqu'à ce qu'il ait produit le reste de la partie liste.
L'inférence est généralement beaucoup moins coûteuse en termes de calcul que la formation : c'est comme parcourir un catalogue de fiches plutôt que de l'assembler. Les grands modèles doivent toujours fonctionner sur des superordinateurs et des GPU, mais les modèles plus petits peuvent fonctionner sur des smartphones ou des appareils plus simples.
Intelligence Artificielle Générative
Tout le monde parle d'IA générative, un terme général qui fait simplement référence aux modèles d'IA qui génèrent une sortie brute comme des images ou du texte. Certaines IA résument, certaines réorganisent, certaines reconnaissent, etc., mais les IA qui génèrent réellement quelque chose (qu'elles "créent" ou non sont discutables) sont particulièrement populaires en ce moment. N'oubliez pas que ce n'est pas parce que l'IA a généré quelque chose que c'est correct, ou même que cela reflète la réalité ! C'est juste qu'il n'existe pas tant que vous ne le demandez pas, comme une histoire ou une peinture.
Mots chauds en ce moment
Au-delà des bases, voici les termes d'IA les plus pertinents pour la mi-2023.
Grand modèle de langage (LLM)
Les modèles linguistiques à grande échelle sont la forme d'intelligence artificielle la plus influente et la plus largement utilisée aujourd'hui. Les modèles linguistiques à grande échelle sont formés sur presque tous les textes qui composent le Web et la plupart de la littérature en anglais. L'ingestion de tout cela donne un énorme modèle de base (lisez la suite). Les LLM sont capables de converser et de répondre aux questions en langage naturel et d'imiter des documents écrits de différents styles et types, comme en témoignent des outils tels que ChatGPT, Claude et LLaMa.
Bien que ces modèles soient sans aucun doute impressionnants, il faut garder à l'esprit qu'ils sont toujours des moteurs de reconnaissance de formes, et lorsqu'ils répondent à une question, ils essaient de compléter le modèle qu'ils ont identifié, que ce modèle reflète ou non la réalité. Les LLM hallucinent souvent dans leurs réponses, comme nous y reviendrons bientôt.
Si vous voulez en savoir plus sur LLM et ChatGPT, cliquez ici.
Modèle de fondation
L'entraînement d'un énorme modèle à partir de zéro sur un énorme jeu de données est coûteux et complexe, vous ne voulez donc pas en faire plus que nécessaire. Les modèles de base sont de grands modèles à partir de zéro qui nécessitent des superordinateurs pour fonctionner, mais souvent en réduisant le nombre de paramètres, ils peuvent être réduits à des conteneurs plus petits. Vous pouvez les considérer comme le nombre total de points que le modèle doit gérer, qui peut atteindre des millions, des milliards, voire des billions de nos jours.
réglage fin
Un modèle de base comme GPT-4 est intelligent, mais c'est aussi un généraliste de par sa conception - il absorbe tout, de Dickens à Wittgenstein en passant par les règles de Donjons et Dragons, mais si vous voulez qu'il soit basé sur votre CV, écrivez une lettre de motivation, ces sont inutiles. Heureusement, il est possible d'affiner le modèle en effectuant une formation supplémentaire sur le modèle à l'aide d'un ensemble de données spécialisé. Par exemple, il arrive qu'il y ait plusieurs milliers de demandes d'emploi. Cela donne au modèle une meilleure compréhension de la façon d'aider l'utilisateur dans ce domaine sans écarter les connaissances générales qu'il a glanées dans le reste des données de formation.
L'apprentissage par renforcement à partir de la rétroaction humaine (RLHF) est un type particulier de réglage fin dont vous entendrez beaucoup parler - il utilise les données des humains interagissant avec les LLM pour améliorer leurs compétences en communication.
La diffusion
La génération d'images peut se faire de plusieurs façons, mais la plus réussie est de loin la diffusion, la technique au cœur de Stable Diffusion, Midjourney et d'autres IA génératives populaires. Le modèle de diffusion est formé en lui montrant des images qui sont progressivement dégradées en ajoutant du bruit numérique jusqu'à ce qu'il ne reste plus rien de l'image d'origine. En observant cela, le modèle de diffusion apprend également à effectuer le processus en sens inverse, ajoutant progressivement des détails au bruit pur pour former une image arbitrairement définie. Nous avons commencé à aller au-delà de cela dans les graphismes, mais la technologie est solide et relativement facile à comprendre, donc elle va s'éteindre assez rapidement.
Hallucinations
Au départ, il s'agissait d'un problème de certaines images dans la formation glissant vers une sortie non pertinente, par exemple des bâtiments semblant être faits de chiens en raison de la surprévalence des images de chiens dans l'ensemble de formation. On dit maintenant que l'IA est hallucinante parce qu'elle n'a pas assez de données ou des données contradictoires dans son ensemble d'entraînement, elle invente simplement les choses.
Une IA chargée de créer de l'art original ou même dérivé est hallucinante. Par exemple, on pourrait dire à un LLM d'écrire un poème d'amour dans le style de Yogi Berra, et il le ferait avec plaisir, même si une telle chose n'existe pas dans son ensemble de données. Mais cela peut être un problème lorsqu'une réponse factuelle est requise ; le modèle présentera avec confiance une réponse mi-réelle, mi-illusionnée. Actuellement, il n'y a pas de moyen facile de savoir lequel est lequel autre que de le vérifier vous-même, puisque le modèle lui-même ne sait pas réellement ce qui est "vrai" ou "faux", il essaie simplement de compléter un modèle du mieux qu'il peut.
AGI ou Intelligence Artificielle Forte
L'Intelligence Générale Artificielle (AGI), ou Intelligence Artificielle Forte, n'est pas vraiment un concept bien défini, mais l'explication la plus simple est qu'il s'agit d'une intelligence suffisamment puissante non seulement pour faire ce que les gens font, mais aussi pour être comme nous Apprendre et s'améliorer toi-même. Certains craignent que ce cycle d'apprentissage, d'intégration de ces idées, puis d'apprentissage et de croissance plus rapide ne soit un cycle auto-entretenu qui conduira à un système super intelligent qui ne peut être ni contraint ni contrôlé. Certains ont même proposé de retarder ou de limiter les études pour éviter cette éventualité.
C'est une pensée terrible. Et des films comme The Matrix et The Terminator ont exploré ce qui pourrait arriver si l'intelligence artificielle devenait incontrôlable et tentait d'exterminer ou d'asservir l'humanité. Mais ces histoires ne sont pas ancrées dans la réalité. L'apparence d'intelligence que nous voyons dans des choses comme ChatGPT est impressionnante, mais n'a pas grand-chose en commun avec le raisonnement abstrait et l'activité multi-domaine dynamique que nous associons à l'intelligence "réelle".
Bien qu'il soit presque impossible de prédire les développements futurs, il peut être utile d'imaginer l'AGI comme un voyage spatial interstellaire : nous comprenons tous le concept et semblons y travailler, mais en même temps, nous avons encore un long chemin à parcourir pour y parvenir. il. Tout comme AGI, personne ne le fera par accident en raison des énormes ressources et des progrès scientifiques fondamentaux requis !
C'est amusant de penser à l'IAG, mais il n'est pas nécessaire de demander des ennuis car, comme l'ont souligné les commentateurs, malgré ses limites, l'IA représente déjà une menace réelle et importante aujourd'hui. Personne ne veut de Skynet, mais vous n'avez pas besoin d'une super intelligence dotée d'armes nucléaires pour faire de vrais dégâts : les gens perdent leur emploi et se font arnaquer aujourd'hui. Si nous ne pouvons pas résoudre ces problèmes, quelle chance avons-nous face au T-1000 ?
Les meilleurs acteurs de l'intelligence artificielle
OpenAI
S'il y a un nom familier dans l'IA, c'est OpenAI. OpenAI, comme son nom l'indique, est une organisation qui a l'intention de mener des recherches et de rendre les résultats plus ou moins accessibles au public. Il s'est depuis restructuré en une société à but lucratif plus traditionnelle qui donne accès à des modèles de langage avancés comme ChatGPT via des API et des applications. Elle est dirigée par Sam Altman, un technomilliardaire qui a pourtant tiré la sonnette d'alarme sur les risques éventuels de l'intelligence artificielle. OpenAI est un leader reconnu dans le domaine des LLM, mais mène également des recherches dans d'autres domaines.
Microsoft
Comme vous vous en doutez, Microsoft a fait sa juste part de la recherche sur l'IA, mais comme d'autres entreprises, a plus ou moins échoué à traduire ses expériences en produits majeurs. Sa décision la plus intelligente a été un investissement précoce dans OpenAI, qui a conduit à un partenariat exclusif à long terme avec la société qui alimente désormais ses agents conversationnels Bing. Bien que ses propres contributions soient plus modestes et moins directement applicables, l'entreprise dispose d'une force de recherche considérable.
Google
Connu pour ses moonshots, Google a en quelque sorte raté l'opportunité de l'IA, même si ses chercheurs ont inventé la technologie qui mène directement à l'explosion actuelle de l'IA : Transformers. Maintenant, il essaie de développer ses propres LLM et autres agents, mais il est clairement en train de rattraper son retard après avoir passé la majeure partie de la dernière décennie à pousser le concept obsolète des "assistants virtuels" de l'IA. Le PDG Sundar Pichai a déclaré à plusieurs reprises que la société soutenait fermement l'IA dans la recherche et la productivité.
Anthropique
Après le départ d'OpenAI de l'ouverture, Dario et Daniela Amodei l'ont quitté pour lancer Anthropic, dans l'intention de remplir le rôle d'une organisation de recherche sur l'IA ouverte et respectueuse de l'éthique. Avec le montant d'argent dont ils disposent, ils sont de sérieux concurrents d'OpenAI, même si leurs modèles (comme Claude) ne sont pas encore aussi populaires ou connus.
La stabilité
Controversé mais inévitable, Stability représente le genre open-source des implémentations d'IA "tout ce que vous voulez" qui collectent tout sur Internet et rendent disponibles gratuitement les modèles d'IA génératifs qu'il forme, à condition que vous possédiez le matériel pour l'exécuter. Cela correspond très bien à la philosophie "l'information veut être libre", mais accélère également les projets éthiquement douteux comme la génération d'images pornographiques et l'utilisation de la propriété intellectuelle sans consentement (parfois simultanément).
Elon Musk
Musk n'a pas fait exception, exprimant ouvertement ses inquiétudes concernant l'IA galopante, et quelques raisins aigres après ses premières contributions à OpenAI sont allés dans des directions qu'il n'aimait pas. Bien que Musk ne soit pas un expert sur le sujet, comme d'habitude, ses bouffonneries et ses commentaires font beaucoup de bruit (il est signataire de la lettre susmentionnée "pause AI"), et il essaie de construire sa propre présence dans la recherche.