Dans la bataille de palais de deux jours d’OpenAI, il y a deux personnages clés, l’un est l’ancien PDG Altman et l’autre est le scientifique en chef Ilya.
L’intrigue du sang de chien, inversée et inversée
Sur la base de ce que l’on sait jusqu’à présent, la situation générale est la suivante :
Ronde 1 :
Ilya a été le premier à faire grève, ce qui a conduit le conseil d’administration à licencier Altman, puis les clients d’OpenAI (en particulier Microsoft) et certains employés ont démissionné.
Inversion de l’intrigue :
Sous la pression de nombreuses parties, il y a des rumeurs constantes selon lesquelles Altman pourrait revenir à la tête d’OpenAI et remanier le conseil d’administration, dont la plus critique est qu’Ilya pourrait partir.
Marche arrière et marche arrière :
Cependant, tout à l’heure, cette intrigue a subi un renversement et est à nouveau inversée.
Selon le média étranger The Information, Ilya Sutskever a déclaré aux employés à San Francisco dimanche soir (heure de Pékin à midi aujourd’hui) que Sam Altman ne serait pas reconduit dans ses fonctions de PDG ! De plus, le nouveau PDG par intérim n’est pas Mira Murati, mais Emmett Shear (cofondateur de la plateforme de streaming de jeux vidéo d’Amazon, Twitch).
Et Ilya a insisté sur le fait que lui et trois autres membres du conseil d’administration maintenaient la décision de destituer Altman, convaincus que c’était le « seul moyen » de défendre la mission de l’entreprise. Il a déclaré que les actions d’Altman et les interactions du conseil d’administration ont sapé sa capacité à superviser le développement de l’IA de l’entreprise.
Tout commence avec la Charte OpenAI
Ilya pense qu’il a éliminé Altman pour défendre la mission de l’entreprise. Alors, quelle est la « mission » qu’il défend ?
Il faut dire qu’il s’agisse d’Altman ou d’Ilya, leur conflit cette fois-ci ne devrait pas être à cause du pouvoir, et encore moins de l’argent, mais plutôt à cause de « différentes manières ». Ils ont des compréhensions différentes de la façon dont OpenAI devrait poursuivre l’AGI.
Pour comprendre les contradictions entre eux, vous devez connaître Ilya, Altman et OpenAI.
Tout d’abord, nous devons comprendre ce qu’est OpenAI et quel est le but de sa mise en place ?
Pour le savoir, la charte OpenAI est le meilleur matériel à trouver. Il y a quelques mots clés dans cette charte qui expliquent clairement pourquoi cette organisation a été fondée.
Dans la charte OpenAI, il est clairement indiqué que « notre responsabilité fiduciaire première est envers l’humanité ». Nous prévoyons que d’importantes ressources devront être mobilisées pour accomplir notre mission, mais nous nous efforcerons toujours de prendre des mesures pour minimiser les conflits d’intérêts entre les employés et les parties prenantes qui pourraient nuire à un large éventail d’intérêts. "**
En d’autres termes, dès le début, OpenAI a fait passer les intérêts de l’humanité en premier, et non les intérêts des investisseurs et des employés d’OpenAI, et ils ont même pensé dès le début qu’à l’avenir, les intérêts des employés et des investisseurs pourraient entrer en conflit avec les intérêts plus larges de l’humanité.
Dans la charte OpenAI, il y a aussi une phrase qui illustre pleinement que l’AGI sécurisée est beaucoup plus importante que les propres intérêts d’OpenAI : « Nous craignons que le développement ultérieur de l’IAG ne devienne une concurrence compétitive, et qu’il n’y ait pas le temps de prendre des précautions de sécurité adéquates. » Par conséquent, si un projet aligné sur les valeurs et soucieux de la sécurité est sur le point de construire AGI avant nous, nous nous engageons à cesser de concurrencer le projet et à commencer à l’aider. "**
Ce qui les intéresse, c’est l’AGI sûr, et OpenAI n’est qu’un outil pour atteindre cet idéal, pas l’idéal lui-même. Pour le bien des idéaux d’AGI, cela ne les dérange pas de faire des robes de mariée pour les autres et d’arrêter le projet OpenAI.
Qui sont les « Jobs » d’OpenAI
Beaucoup de gens pensent qu’Altman est le Steve Jobs d’OpenAI, croyant qu’ils ont tous été expulsés de l’entreprise qu’ils ont fondée, puis ont mis en scène un retour du roi.
Cependant, nous pensons que s’il y a une analogie, alors la version OpenAI de « Jobs » devrait être celle d’Ilya, pas celle d’Altman. D’une certaine manière, Altman ressemble plus à John Scully (un ancien vice-président de Best Cola, qui a été recruté chez Apple par la phrase de Steve Jobs « Voulez-vous vendre de l’eau sucrée pour le reste de votre vie, ou voulez-vous changer le monde ensemble ? », et qui a ensuite conduit le conseil d’administration à expulser Jobs).
Pourquoi?
Nous devons examiner de plus près quel genre de personnes sont Ilya et Altman et quel est leur rôle dans OpenAI.
Dans l’ensemble, Ilya, en tant que scientifique en chef d’OpenAI, dirige la feuille de route technique d’OpenAI.
Musk a révélé un jour dans un talk-show que l’ajout d’Ilya est un tournant majeur dans le processus de développement d’OpenAI. Il faut dire qu’OpenAI n’a pas trouvé le chemin du grand modèle actuel au début, et l’ajout d’Ilya est crucial pour le succès d’OpenAI aujourd’hui.
À en juger par les nombreuses interviews auxquelles Ilya lui-même a participé, il est également évident qu’il a un fort « goût technique masculin », et qu’il prête attention à la logique technique sous-jacente, et qu’il a toujours considéré la réalisation d’une IAG sûre comme le plus important, voire le seul.
Altman, quant à lui, est plus impliqué dans le financement et la commercialisation. C’est précisément pour cette raison qu’il a reçu un fort soutien de la part d’investisseurs et de certains employés. Aux yeux des investisseurs, investir ne consiste pas à investir dans les idéaux illusoires d’un groupe de personnes, mais à obtenir des rendements plus élevés à l’avenir. Pour atteindre cet objectif, Altman est sans aucun doute un bon candidat.
En plus de jouer un rôle clé dans la collecte de fonds, l’une des choses qu’Altman préconise est la commercialisation d’OpenAI. Il n’y a pas si longtemps, OpenAI a tenu une conférence de presse qui a choqué l’industrie et a lancé un certain nombre de fonctions, ce qui ouvre essentiellement la voie à la commercialisation.
La plupart des gens s’accordent à dire que le plus grand désaccord entre Ilya et Altman est de savoir s’il faut ou non le commercialiser. Mais ce n’est que la première couche, et si vous y réfléchissez à un niveau plus profond, le plus grand désaccord entre eux est en fait la différence de points de vue sur le moment où l’IAG sera réalisée. **
Il convient de noter que l’objectif d’Altman est également de poursuivre l’AGI, cependant, à son avis, l’AGI est encore relativement loin, et suffisamment d’argent est la base nécessaire pour soutenir cette équipe jusqu’à la fin du jeu, donc le financement et la commercialisation sont nécessaires. Je dois d’abord élever cette équipe, puis poursuivre lentement l’AGI. Si vous pouvez gagner plus d’argent pour vous-même et votre équipe dans le processus, c’est bien.
Mais de l’avis d’Ilya, l’AGI est peut-être déjà très proche. Ce sentiment d’urgence se retrouve dans nombre de ses discours.
Logiquement, si l’IAG est à portée de main, alors la chose la plus urgente est, bien sûr, que c’est la dernière étape, et pour s’assurer que l’IAG est sûre et non anti-humaine, c’est la plus importante. Au lieu d’utiliser commercialement à grande échelle les produits semi-finis actuels, nous gagnerons les « trois melons et deux dattes ». (Aucune somme d’argent n’est insignifiante devant AGI.) )
De l’avis d’Ilya, il y a un tas d’or pas loin devant, alors ne perdez pas de temps avec ces quelques pépites d’or à vos pieds. De l’avis d’Altman, il est encore loin d’aller à la mine d’or, et il devrait d’abord ramasser un peu d’or sur le bord de la route comme « bobine » pour l’équipe.
Il faut dire qu’ils sont tous de « bonnes personnes » et qu’ils veulent tous améliorer et sécuriser l’IAG. Cependant, il peut y avoir des différences dans leurs estimations du temps nécessaire pour atteindre l’AGI, ce qui les amène à prendre des mesures très différentes pour le même objectif. **
C’est la cause profonde de l’éloignement d’Ilya d’Altman.
Quel est le meilleur résultat ?
Dans l’état actuel des choses, Ilya a gagné la bataille entre Ilya et Altman, et il dirigera la direction d’OpenAI (bien qu’il n’en soit pas le PDG). Nous ne pouvons donc pas nous empêcher de nous demander si un tel résultat est le meilleur choix pour OpenAI et un meilleur choix pour les humains.
De l’avis de l’auteur, si vous deviez choisir entre Ilya et Altman, Ilya serait le meilleur candidat. Des deux, Ilya est clairement le plus fidèle à la charte OpenAI, qui se veut être l’IAG humaine numéro un. Sous sa direction, OpenAI pourrait être plus radical en termes de progrès technologique, et la possibilité de réaliser l’AGI est également un peu plus élevée.
Bien sûr, il est difficile de dire si l’accélération de l’AGI est une bonne chose pour l’humanité. Bien qu’Ilya prenne très au sérieux la sécurité d’AGI, jusqu’à présent, personne n’avait de moyen sûr de garantir qu’AGI est respectueux de l’homme. **
À en juger par l’évolution de la vie dans son ensemble, il semble que le remplacement de la vie inférieure par la vie supérieure soit la tendance de l’époque, et il n’y a jamais eu de cas particulier. Alors pourquoi l’IAG, plus avancée, devrait-elle s’incliner devant les êtres humains et être disposée à être la « nounou » des êtres humains ?
Demandons-nous, si le premier souverain de la terre était les chats, et que les humains étaient les formes de vie supérieures développées par les chats, les humains seraient-ils prêts à être les nounous des chats pendant des générations ?
Peut-être que les êtres humains sont reconnaissants pour la création des chats et qu’ils en prendront volontiers soin pendant 10 ou même 100 ans. Qu’en sera-t-il dans 1 000 ans, dans 10 000 ans ? Il est prévisible que, tôt ou tard, les êtres humains prendront le pouvoir et garderont tout au plus les chats comme animaux de compagnie, plutôt que pour toujours comme leurs maîtres.
De plus, les êtres humains ne devraient pas penser qu’ils pourront être égaux à l’IAG pour toujours. Imaginons que vous travailliez avec un partenaire, que vous soyez beaucoup plus intelligent et plus fort que lui, que vous fassiez le plus de travail, que vous contribuiez le plus, mais que les résultats doivent être partagés équitablement avec lui, le souhaitez-vous ? Je ne pense pas que la plupart des humains le voudraient, alors pourquoi demander à une IAG autonome de le faire ?
Vous devez savoir que l’IAG avec une conscience indépendante est aussi la vie, les sentiments, les joies, les peines, les joies et les pertes.
De toute évidence, il est illogique de faire fonctionner l’IAG pour les humains. Pour atteindre la sécurité et la contrôlabilité de l’AGI, l’essentiel est de résoudre ce problème apparemment illogique. C’était à nous de trouver un moyen d’amener AGI à être « disposé » à faire le sacrifice. Donnez-leur un « Sort de Servitude » et assurez-vous que le « Sort de Servitude » n’est jamais enlevé.
Comment faire, personne n’a de réponse maintenant, Ilya n’a pas de réponse, pas même son professeur, Geoffrey Hinton, le père de l’apprentissage profond. En fait, Hinton a dit un jour : « Je regrette l’œuvre de ma vie. » "
« Nous avons à peu près permis aux ordinateurs de s’améliorer, et c’est dangereux, et nous devons réfléchir sérieusement à la façon de le contrôler », a déclaré Hinton dans une interview. "
Il est clair que son élève Ilya a le même sens de la crise et de l’urgence. Ilya affirme que sa priorité n’est plus de « construire le prochain GPT ou DALL-E, mais de trouver un moyen d’empêcher l’IA de devenir incontrôlable ». Altman, quant à lui, est obsédé par la commercialisation, ce qu’Ilya ne peut tolérer.
Musk, en tant que spectateur de ce combat de palais, a posté le matin du 20 : « Ilya est une personne qui ne poursuit pas ses droits, et il ne prendra pas de mesures aussi drastiques à moins qu’il n’en ressente le besoin. » « Je pense que la peur, voire la peur, de l’emballement imminent de l’AGI est la raison pour laquelle il a pris des mesures aussi drastiques.
Encore une chose
Comme le dit le vieil adage, « Si vous ne cherchez pas de petits profits, vous devez avoir de grands projets ».
À la fin de nombreuses histoires, le plus grand méchant est souvent inoffensif pour les humains et les animaux, et même compatissant.
Il n’est pas exclu que le but ultime d’Ilya soit de « créer des dieux » (dans un sens, le pouvoir de l’AGI est comparable aux dieux des mythes et légendes chinois et étrangers anciens et modernes), et il a également mentionné la superintelligence dans de nombreuses interviews. Si l’AGI ou même la superintelligence est inévitable, alors il voudra peut-être être le premier à entrer en contact avec les « dieux », et s’il trouve un moyen d’apprivoiser l’AGI, alors il deviendra bientôt la personne la plus puissante du monde.
Comparé à de telles ambitions, faire des dizaines de milliards de dollars n’est-il pas un petit profit ?
Bien sûr, Ilya n’a peut-être pas encore cette idée, il veut peut-être juste être un « voleur de feu » de l’humanité en ce moment. Cependant, les gens peuvent changer, surtout lorsqu’ils sont confrontés à de grandes tentations.
Rappelez-vous le film « Le Seigneur des Anneaux », devant le « Seigneur des Anneaux » du pouvoir absolu, peu importe à quel point les gens sont justes, ils seront séduits par ce droit absolu.
Dans le film « Transcendental Hacker », le scientifique Will Caster était très vertueux au début, et sa femme a téléchargé sa conscience afin de renouveler sa vie et l’a intégrée dans une intelligence artificielle. Plus tard dans l’histoire, Wilcster est « rené » dans le cyberespace et a évolué rapidement, et bientôt il a pu contrôler le réseau financier humain, et d’un simple mouvement du doigt, il a pu transférer des dizaines de milliards de dollars sur un compte.
Plus tard, Wilcas a été complètement perdu, trahissant l’humanité à la poursuite de sa propre force infinie et éliminant la menace que lui représentait l’humanité.
À en juger par les informations révélées jusqu’à présent, l’IAG n’est vraiment plus une blague. S’il y a une réelle probabilité que l’humanité atteigne l’IAG dans quelques décennies, ce sera certainement la chose la plus importante dans les prochaines décennies, cent fois plus importante que les armes nucléaires originales.
C’est un défi sans précédent pour une espèce pas si intelligente que de prendre le contrôle de quelque chose de plus intelligent qu’elle. **
Hinton, le père de l’apprentissage profond, regrettait ce qu’il avait fait, et il s’est un jour consolé : « Même si ce n’est pas moi, il y aura quelqu’un d’autre. » En effet, l’AGI, une boîte de Pandore, s’ouvrira tôt ou tard, et même si certaines personnes la subissent, un autre groupe de personnes ne pourra pas la supporter.
Tout comme lorsque les armes nucléaires ont été introduites pour la première fois, presque tout le monde pouvait percevoir le risque pour l’humanité, mais les Américains pensaient : « Même si les États-Unis ne développent pas d’armes nucléaires, l’Allemagne et les Soviétiques les développeront », et les Soviétiques penseraient : « Les Américains ont des armes nucléaires, et l’Union soviétique les aura certainement. » "
Il en va de même dans de nombreux domaines. Par exemple, les armes biologiques, bien que tout le monde les ait interdites en surface, il doit y avoir beaucoup de gens qui les utilisent secrètement. Et d’autres se « consoleront » : « Même si je ne le fais pas, quelqu’un d’autre le fera. » "
Par rapport à tous ces risques, l’IAG est beaucoup plus risquée. Parce qu’il s’agisse d’armes nucléaires, biologiques ou chimiques, elles ne sont pas conscientes, et en fin de compte, elles sont toujours entre les mains d’êtres humains, ce qui n’est rien d’autre que la différence entre ce groupe de personnes et ce groupe de personnes. Cependant, une fois que l’IAG est réalisée, beaucoup de choses ne sont plus entre les mains des humains.
Cette question est trop importante et, à en juger par les informations actuelles, elle est déjà urgente. Comparé à Altman, Ilya est au moins plus attentif et plus anxieux, donc dans ce drame de combat de palais d’OpenAI, je suis aux côtés d’Ilya.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Altman n’est pas « Jobs », Ilya l’est !
Source d’origine : Data Ape
Dans la bataille de palais de deux jours d’OpenAI, il y a deux personnages clés, l’un est l’ancien PDG Altman et l’autre est le scientifique en chef Ilya.
L’intrigue du sang de chien, inversée et inversée
Sur la base de ce que l’on sait jusqu’à présent, la situation générale est la suivante :
Ronde 1 :
Ilya a été le premier à faire grève, ce qui a conduit le conseil d’administration à licencier Altman, puis les clients d’OpenAI (en particulier Microsoft) et certains employés ont démissionné.
Inversion de l’intrigue :
Sous la pression de nombreuses parties, il y a des rumeurs constantes selon lesquelles Altman pourrait revenir à la tête d’OpenAI et remanier le conseil d’administration, dont la plus critique est qu’Ilya pourrait partir.
Marche arrière et marche arrière :
Cependant, tout à l’heure, cette intrigue a subi un renversement et est à nouveau inversée.
Selon le média étranger The Information, Ilya Sutskever a déclaré aux employés à San Francisco dimanche soir (heure de Pékin à midi aujourd’hui) que Sam Altman ne serait pas reconduit dans ses fonctions de PDG ! De plus, le nouveau PDG par intérim n’est pas Mira Murati, mais Emmett Shear (cofondateur de la plateforme de streaming de jeux vidéo d’Amazon, Twitch).
Et Ilya a insisté sur le fait que lui et trois autres membres du conseil d’administration maintenaient la décision de destituer Altman, convaincus que c’était le « seul moyen » de défendre la mission de l’entreprise. Il a déclaré que les actions d’Altman et les interactions du conseil d’administration ont sapé sa capacité à superviser le développement de l’IA de l’entreprise.
Tout commence avec la Charte OpenAI
Ilya pense qu’il a éliminé Altman pour défendre la mission de l’entreprise. Alors, quelle est la « mission » qu’il défend ?
Il faut dire qu’il s’agisse d’Altman ou d’Ilya, leur conflit cette fois-ci ne devrait pas être à cause du pouvoir, et encore moins de l’argent, mais plutôt à cause de « différentes manières ». Ils ont des compréhensions différentes de la façon dont OpenAI devrait poursuivre l’AGI.
Tout d’abord, nous devons comprendre ce qu’est OpenAI et quel est le but de sa mise en place ?
Pour le savoir, la charte OpenAI est le meilleur matériel à trouver. Il y a quelques mots clés dans cette charte qui expliquent clairement pourquoi cette organisation a été fondée.
Dans la charte OpenAI, il est clairement indiqué que « notre responsabilité fiduciaire première est envers l’humanité ». Nous prévoyons que d’importantes ressources devront être mobilisées pour accomplir notre mission, mais nous nous efforcerons toujours de prendre des mesures pour minimiser les conflits d’intérêts entre les employés et les parties prenantes qui pourraient nuire à un large éventail d’intérêts. "**
En d’autres termes, dès le début, OpenAI a fait passer les intérêts de l’humanité en premier, et non les intérêts des investisseurs et des employés d’OpenAI, et ils ont même pensé dès le début qu’à l’avenir, les intérêts des employés et des investisseurs pourraient entrer en conflit avec les intérêts plus larges de l’humanité.
Dans la charte OpenAI, il y a aussi une phrase qui illustre pleinement que l’AGI sécurisée est beaucoup plus importante que les propres intérêts d’OpenAI : « Nous craignons que le développement ultérieur de l’IAG ne devienne une concurrence compétitive, et qu’il n’y ait pas le temps de prendre des précautions de sécurité adéquates. » Par conséquent, si un projet aligné sur les valeurs et soucieux de la sécurité est sur le point de construire AGI avant nous, nous nous engageons à cesser de concurrencer le projet et à commencer à l’aider. "**
Ce qui les intéresse, c’est l’AGI sûr, et OpenAI n’est qu’un outil pour atteindre cet idéal, pas l’idéal lui-même. Pour le bien des idéaux d’AGI, cela ne les dérange pas de faire des robes de mariée pour les autres et d’arrêter le projet OpenAI.
Qui sont les « Jobs » d’OpenAI
Beaucoup de gens pensent qu’Altman est le Steve Jobs d’OpenAI, croyant qu’ils ont tous été expulsés de l’entreprise qu’ils ont fondée, puis ont mis en scène un retour du roi.
Cependant, nous pensons que s’il y a une analogie, alors la version OpenAI de « Jobs » devrait être celle d’Ilya, pas celle d’Altman. D’une certaine manière, Altman ressemble plus à John Scully (un ancien vice-président de Best Cola, qui a été recruté chez Apple par la phrase de Steve Jobs « Voulez-vous vendre de l’eau sucrée pour le reste de votre vie, ou voulez-vous changer le monde ensemble ? », et qui a ensuite conduit le conseil d’administration à expulser Jobs).
Pourquoi?
Nous devons examiner de plus près quel genre de personnes sont Ilya et Altman et quel est leur rôle dans OpenAI.
Dans l’ensemble, Ilya, en tant que scientifique en chef d’OpenAI, dirige la feuille de route technique d’OpenAI.
Musk a révélé un jour dans un talk-show que l’ajout d’Ilya est un tournant majeur dans le processus de développement d’OpenAI. Il faut dire qu’OpenAI n’a pas trouvé le chemin du grand modèle actuel au début, et l’ajout d’Ilya est crucial pour le succès d’OpenAI aujourd’hui.
À en juger par les nombreuses interviews auxquelles Ilya lui-même a participé, il est également évident qu’il a un fort « goût technique masculin », et qu’il prête attention à la logique technique sous-jacente, et qu’il a toujours considéré la réalisation d’une IAG sûre comme le plus important, voire le seul.
Altman, quant à lui, est plus impliqué dans le financement et la commercialisation. C’est précisément pour cette raison qu’il a reçu un fort soutien de la part d’investisseurs et de certains employés. Aux yeux des investisseurs, investir ne consiste pas à investir dans les idéaux illusoires d’un groupe de personnes, mais à obtenir des rendements plus élevés à l’avenir. Pour atteindre cet objectif, Altman est sans aucun doute un bon candidat.
En plus de jouer un rôle clé dans la collecte de fonds, l’une des choses qu’Altman préconise est la commercialisation d’OpenAI. Il n’y a pas si longtemps, OpenAI a tenu une conférence de presse qui a choqué l’industrie et a lancé un certain nombre de fonctions, ce qui ouvre essentiellement la voie à la commercialisation.
La plupart des gens s’accordent à dire que le plus grand désaccord entre Ilya et Altman est de savoir s’il faut ou non le commercialiser. Mais ce n’est que la première couche, et si vous y réfléchissez à un niveau plus profond, le plus grand désaccord entre eux est en fait la différence de points de vue sur le moment où l’IAG sera réalisée. **
Il convient de noter que l’objectif d’Altman est également de poursuivre l’AGI, cependant, à son avis, l’AGI est encore relativement loin, et suffisamment d’argent est la base nécessaire pour soutenir cette équipe jusqu’à la fin du jeu, donc le financement et la commercialisation sont nécessaires. Je dois d’abord élever cette équipe, puis poursuivre lentement l’AGI. Si vous pouvez gagner plus d’argent pour vous-même et votre équipe dans le processus, c’est bien.
Mais de l’avis d’Ilya, l’AGI est peut-être déjà très proche. Ce sentiment d’urgence se retrouve dans nombre de ses discours.
Logiquement, si l’IAG est à portée de main, alors la chose la plus urgente est, bien sûr, que c’est la dernière étape, et pour s’assurer que l’IAG est sûre et non anti-humaine, c’est la plus importante. Au lieu d’utiliser commercialement à grande échelle les produits semi-finis actuels, nous gagnerons les « trois melons et deux dattes ». (Aucune somme d’argent n’est insignifiante devant AGI.) )
De l’avis d’Ilya, il y a un tas d’or pas loin devant, alors ne perdez pas de temps avec ces quelques pépites d’or à vos pieds. De l’avis d’Altman, il est encore loin d’aller à la mine d’or, et il devrait d’abord ramasser un peu d’or sur le bord de la route comme « bobine » pour l’équipe.
Il faut dire qu’ils sont tous de « bonnes personnes » et qu’ils veulent tous améliorer et sécuriser l’IAG. Cependant, il peut y avoir des différences dans leurs estimations du temps nécessaire pour atteindre l’AGI, ce qui les amène à prendre des mesures très différentes pour le même objectif. **
C’est la cause profonde de l’éloignement d’Ilya d’Altman.
Quel est le meilleur résultat ?
Dans l’état actuel des choses, Ilya a gagné la bataille entre Ilya et Altman, et il dirigera la direction d’OpenAI (bien qu’il n’en soit pas le PDG). Nous ne pouvons donc pas nous empêcher de nous demander si un tel résultat est le meilleur choix pour OpenAI et un meilleur choix pour les humains.
De l’avis de l’auteur, si vous deviez choisir entre Ilya et Altman, Ilya serait le meilleur candidat. Des deux, Ilya est clairement le plus fidèle à la charte OpenAI, qui se veut être l’IAG humaine numéro un. Sous sa direction, OpenAI pourrait être plus radical en termes de progrès technologique, et la possibilité de réaliser l’AGI est également un peu plus élevée.
Bien sûr, il est difficile de dire si l’accélération de l’AGI est une bonne chose pour l’humanité. Bien qu’Ilya prenne très au sérieux la sécurité d’AGI, jusqu’à présent, personne n’avait de moyen sûr de garantir qu’AGI est respectueux de l’homme. **
À en juger par l’évolution de la vie dans son ensemble, il semble que le remplacement de la vie inférieure par la vie supérieure soit la tendance de l’époque, et il n’y a jamais eu de cas particulier. Alors pourquoi l’IAG, plus avancée, devrait-elle s’incliner devant les êtres humains et être disposée à être la « nounou » des êtres humains ?
Demandons-nous, si le premier souverain de la terre était les chats, et que les humains étaient les formes de vie supérieures développées par les chats, les humains seraient-ils prêts à être les nounous des chats pendant des générations ?
Peut-être que les êtres humains sont reconnaissants pour la création des chats et qu’ils en prendront volontiers soin pendant 10 ou même 100 ans. Qu’en sera-t-il dans 1 000 ans, dans 10 000 ans ? Il est prévisible que, tôt ou tard, les êtres humains prendront le pouvoir et garderont tout au plus les chats comme animaux de compagnie, plutôt que pour toujours comme leurs maîtres.
De plus, les êtres humains ne devraient pas penser qu’ils pourront être égaux à l’IAG pour toujours. Imaginons que vous travailliez avec un partenaire, que vous soyez beaucoup plus intelligent et plus fort que lui, que vous fassiez le plus de travail, que vous contribuiez le plus, mais que les résultats doivent être partagés équitablement avec lui, le souhaitez-vous ? Je ne pense pas que la plupart des humains le voudraient, alors pourquoi demander à une IAG autonome de le faire ?
Vous devez savoir que l’IAG avec une conscience indépendante est aussi la vie, les sentiments, les joies, les peines, les joies et les pertes.
De toute évidence, il est illogique de faire fonctionner l’IAG pour les humains. Pour atteindre la sécurité et la contrôlabilité de l’AGI, l’essentiel est de résoudre ce problème apparemment illogique. C’était à nous de trouver un moyen d’amener AGI à être « disposé » à faire le sacrifice. Donnez-leur un « Sort de Servitude » et assurez-vous que le « Sort de Servitude » n’est jamais enlevé.
Comment faire, personne n’a de réponse maintenant, Ilya n’a pas de réponse, pas même son professeur, Geoffrey Hinton, le père de l’apprentissage profond. En fait, Hinton a dit un jour : « Je regrette l’œuvre de ma vie. » "
« Nous avons à peu près permis aux ordinateurs de s’améliorer, et c’est dangereux, et nous devons réfléchir sérieusement à la façon de le contrôler », a déclaré Hinton dans une interview. "
Il est clair que son élève Ilya a le même sens de la crise et de l’urgence. Ilya affirme que sa priorité n’est plus de « construire le prochain GPT ou DALL-E, mais de trouver un moyen d’empêcher l’IA de devenir incontrôlable ». Altman, quant à lui, est obsédé par la commercialisation, ce qu’Ilya ne peut tolérer.
Musk, en tant que spectateur de ce combat de palais, a posté le matin du 20 : « Ilya est une personne qui ne poursuit pas ses droits, et il ne prendra pas de mesures aussi drastiques à moins qu’il n’en ressente le besoin. » « Je pense que la peur, voire la peur, de l’emballement imminent de l’AGI est la raison pour laquelle il a pris des mesures aussi drastiques.
Encore une chose
Comme le dit le vieil adage, « Si vous ne cherchez pas de petits profits, vous devez avoir de grands projets ».
À la fin de nombreuses histoires, le plus grand méchant est souvent inoffensif pour les humains et les animaux, et même compatissant.
Il n’est pas exclu que le but ultime d’Ilya soit de « créer des dieux » (dans un sens, le pouvoir de l’AGI est comparable aux dieux des mythes et légendes chinois et étrangers anciens et modernes), et il a également mentionné la superintelligence dans de nombreuses interviews. Si l’AGI ou même la superintelligence est inévitable, alors il voudra peut-être être le premier à entrer en contact avec les « dieux », et s’il trouve un moyen d’apprivoiser l’AGI, alors il deviendra bientôt la personne la plus puissante du monde.
Bien sûr, Ilya n’a peut-être pas encore cette idée, il veut peut-être juste être un « voleur de feu » de l’humanité en ce moment. Cependant, les gens peuvent changer, surtout lorsqu’ils sont confrontés à de grandes tentations.
Dans le film « Transcendental Hacker », le scientifique Will Caster était très vertueux au début, et sa femme a téléchargé sa conscience afin de renouveler sa vie et l’a intégrée dans une intelligence artificielle. Plus tard dans l’histoire, Wilcster est « rené » dans le cyberespace et a évolué rapidement, et bientôt il a pu contrôler le réseau financier humain, et d’un simple mouvement du doigt, il a pu transférer des dizaines de milliards de dollars sur un compte.
Plus tard, Wilcas a été complètement perdu, trahissant l’humanité à la poursuite de sa propre force infinie et éliminant la menace que lui représentait l’humanité.
À en juger par les informations révélées jusqu’à présent, l’IAG n’est vraiment plus une blague. S’il y a une réelle probabilité que l’humanité atteigne l’IAG dans quelques décennies, ce sera certainement la chose la plus importante dans les prochaines décennies, cent fois plus importante que les armes nucléaires originales.
C’est un défi sans précédent pour une espèce pas si intelligente que de prendre le contrôle de quelque chose de plus intelligent qu’elle. **
Hinton, le père de l’apprentissage profond, regrettait ce qu’il avait fait, et il s’est un jour consolé : « Même si ce n’est pas moi, il y aura quelqu’un d’autre. » En effet, l’AGI, une boîte de Pandore, s’ouvrira tôt ou tard, et même si certaines personnes la subissent, un autre groupe de personnes ne pourra pas la supporter.
Tout comme lorsque les armes nucléaires ont été introduites pour la première fois, presque tout le monde pouvait percevoir le risque pour l’humanité, mais les Américains pensaient : « Même si les États-Unis ne développent pas d’armes nucléaires, l’Allemagne et les Soviétiques les développeront », et les Soviétiques penseraient : « Les Américains ont des armes nucléaires, et l’Union soviétique les aura certainement. » "
Il en va de même dans de nombreux domaines. Par exemple, les armes biologiques, bien que tout le monde les ait interdites en surface, il doit y avoir beaucoup de gens qui les utilisent secrètement. Et d’autres se « consoleront » : « Même si je ne le fais pas, quelqu’un d’autre le fera. » "
Par rapport à tous ces risques, l’IAG est beaucoup plus risquée. Parce qu’il s’agisse d’armes nucléaires, biologiques ou chimiques, elles ne sont pas conscientes, et en fin de compte, elles sont toujours entre les mains d’êtres humains, ce qui n’est rien d’autre que la différence entre ce groupe de personnes et ce groupe de personnes. Cependant, une fois que l’IAG est réalisée, beaucoup de choses ne sont plus entre les mains des humains.
Cette question est trop importante et, à en juger par les informations actuelles, elle est déjà urgente. Comparé à Altman, Ilya est au moins plus attentif et plus anxieux, donc dans ce drame de combat de palais d’OpenAI, je suis aux côtés d’Ilya.