Dès le début de ce grand drame ce week-end, certaines personnes ont dit qu’OpenAI devrait faire une DAO. Au fur et à mesure que l’intrigue se développe, de plus en plus de personnes partagent ce point de vue. Si OpenAI adopte vraiment la forme de gouvernance des DAO, sera-t-elle en mesure d’éviter ce drame ? Je pense que oui. Mais ce n’est pas à cause de l’évidence de la gouvernance de la DAO, mais parce que la gouvernance d’OpenAI a trop de problèmes. Si vous apprenez un peu de la jungle de la DAO, cela n’arrivera pas.
OpenAI est une organisation à but non lucratif qui vise à créer une intelligence artificielle générale (AGI) sûre qui profite à toute l’humanité de manière égale. On peut considérer qu’OpenAI est une organisation qui crée des biens publics. De nombreuses DAO sont également des organisations qui créent des biens publics, et OpenAI et les DAO sont déjà très similaires à de nombreux niveaux.
(En tant que nouvelle forme d’organisation, il existe de nombreuses formes différentes de DAO, et il ne s’agit ici que d’une comparaison des DAO à but non lucratif courantes, ce qui ne signifie pas que toutes les DAO sont comme ça.) )
Les récentes turbulences internes d’OpenAI ne sont pas réellement dues à ses problèmes structurels, mais plutôt au manque de clarté et à l’irrationalité des règles de gouvernance, laissant une marge de manœuvre. Par exemple, le conseil d’administration était composé à l’origine de neuf membres, mais avec le départ de certains administrateurs, il n’y a plus que six membres. Le conseil d’administration, en tant que plus haute autorité, n’a pas réussi à reconstituer les administrateurs en temps opportun, et si le conseil d’administration continue d’être réduit à seulement trois, il suffit du consentement unanime de deux personnes pour décider du sort d’OpenAI. La décision clé de remplacer le chef de la direction, Sam Altman, n’a apparemment pas été discutée et délibérée par l’ensemble du conseil d’administration, mais a été prise par certains administrateurs lors d’une réunion à huis clos, sans tenir pleinement compte des points de vue d’un plus grand nombre de parties prenantes et sans offrir d’occasions de communication et de consultation appropriées.
Même les sociétés cotées en bourse à but lucratif doivent faire appel à des administrateurs indépendants afin d’accroître la transparence de la gouvernance d’entreprise et de mieux représenter les intérêts des actionnaires ne donnant pas le contrôle et du public. Pour une organisation aussi importante qu’OpenAI, qui est liée au développement de la technologie de base, à la sécurité sociale et même au destin de l’humanité, bien que des administrateurs extérieurs aient été introduits, ce système n’a manifestement pas joué le rôle qui lui revient. Le conseil d’administration d’OpenAI doit non seulement mettre en place davantage de freins et contrepoids, tels que la représentation des employés, mais aussi mettre en place des mécanismes de gouvernance plus efficaces. En ce qui concerne le modèle de gouvernance de la DAO, je pense qu’il vaut la peine d’être exploré pour concevoir une structure de gouvernance plus solide, transparente et inclusive pour OpenAI.
Il vaut la peine de réfléchir au fait que les DAO ont été proposées pour la première fois parce que les libéraux techniques voulaient s’appuyer entièrement sur le code pour former un système auto-cohérent qui continuerait à fonctionner sans interférence humaine dans la plus grande mesure possible, et qui était appelé « autonome ». Et lorsque la coordination politique consistant à s’appuyer sur les personnes apparaît dans la DAO, la DAO n’est plus une DAO, mais devient une DO, et perd son autonomie. Mais à ce stade, les DAO idéalisées ne peuvent tout simplement pas le faire. En tant qu’exigence, les organisations qui s’appuient sur des réseaux blockchain pour la gouvernance collective sont considérées comme des DAO. Cela signifie que tout le monde accepte la réalité de la domination de l’homme, et que les contraintes du code ne sont utilisées que comme auxiliaires. La plus grande caractéristique de la DAO est passée d’autonome à communautaire, ce qui représente un plus large éventail d’intérêts et d’opportunités de participation.
Par coïncidence, l’objectif d’AGI est de poursuivre Autonom. OpenAI indique clairement dans sa structure organisationnelle que l’IAG fait référence à un système hautement autonome qui surpasse les humains dans la grande majorité des emplois à haute valeur économique.
par IAG, nous entendons une personne hautement autonome qui surpasse les humains dans la plupart des tâches économiquement utiles.
OpenAI
Bien que l’autonomie dans l’IAG se réfère davantage au niveau de capacité comportementale, si nous y réfléchissons à un niveau inférieur, l’AGI et la DAO espèrent toutes deux former un système véritablement autonome qui fonctionne sans contrôle externe, ce qui n’est pas fondamentalement différent. Alors, face à un tel système autonome, comment devrions-nous le gouverner, devrions-nous nous appuyer davantage sur l’alignement et l’ajustement des valeurs humaines endogènes, ou devrions-nous ajouter plus de contraintes externes ? Du LLM à l’AGI, ce sont autant de questions qui doivent être prises en compte de toute urgence.
Le dernier épisode du drame d’OpenAI est que 90% des employés signent leur démission et suivent Sam, ce qui est un bon écho à un débat classique dans l’espace DAO au cours des dernières années – à savoir si les règles de contraintes de code sont plus importantes que le consensus de la communauté.
Alors que les règles et les contraintes peuvent former beaucoup de consensus, le véritable grand consensus n’est souvent pas forgé par des règles. Seul un sens partagé de la mission et des valeurs culturelles peut vraiment atteindre une résonance et une cohérence profondes.
Nous savons comment créer cette résonance entre les gens. Qu’en est-il de l’IA ?
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Si OpenAI était une DAO, aurait-elle pu éviter cette farce ?
来源 :Empower Labs
Dès le début de ce grand drame ce week-end, certaines personnes ont dit qu’OpenAI devrait faire une DAO. Au fur et à mesure que l’intrigue se développe, de plus en plus de personnes partagent ce point de vue. Si OpenAI adopte vraiment la forme de gouvernance des DAO, sera-t-elle en mesure d’éviter ce drame ? Je pense que oui. Mais ce n’est pas à cause de l’évidence de la gouvernance de la DAO, mais parce que la gouvernance d’OpenAI a trop de problèmes. Si vous apprenez un peu de la jungle de la DAO, cela n’arrivera pas.
OpenAI est une organisation à but non lucratif qui vise à créer une intelligence artificielle générale (AGI) sûre qui profite à toute l’humanité de manière égale. On peut considérer qu’OpenAI est une organisation qui crée des biens publics. De nombreuses DAO sont également des organisations qui créent des biens publics, et OpenAI et les DAO sont déjà très similaires à de nombreux niveaux.
(En tant que nouvelle forme d’organisation, il existe de nombreuses formes différentes de DAO, et il ne s’agit ici que d’une comparaison des DAO à but non lucratif courantes, ce qui ne signifie pas que toutes les DAO sont comme ça.) )
Les récentes turbulences internes d’OpenAI ne sont pas réellement dues à ses problèmes structurels, mais plutôt au manque de clarté et à l’irrationalité des règles de gouvernance, laissant une marge de manœuvre. Par exemple, le conseil d’administration était composé à l’origine de neuf membres, mais avec le départ de certains administrateurs, il n’y a plus que six membres. Le conseil d’administration, en tant que plus haute autorité, n’a pas réussi à reconstituer les administrateurs en temps opportun, et si le conseil d’administration continue d’être réduit à seulement trois, il suffit du consentement unanime de deux personnes pour décider du sort d’OpenAI. La décision clé de remplacer le chef de la direction, Sam Altman, n’a apparemment pas été discutée et délibérée par l’ensemble du conseil d’administration, mais a été prise par certains administrateurs lors d’une réunion à huis clos, sans tenir pleinement compte des points de vue d’un plus grand nombre de parties prenantes et sans offrir d’occasions de communication et de consultation appropriées.
Même les sociétés cotées en bourse à but lucratif doivent faire appel à des administrateurs indépendants afin d’accroître la transparence de la gouvernance d’entreprise et de mieux représenter les intérêts des actionnaires ne donnant pas le contrôle et du public. Pour une organisation aussi importante qu’OpenAI, qui est liée au développement de la technologie de base, à la sécurité sociale et même au destin de l’humanité, bien que des administrateurs extérieurs aient été introduits, ce système n’a manifestement pas joué le rôle qui lui revient. Le conseil d’administration d’OpenAI doit non seulement mettre en place davantage de freins et contrepoids, tels que la représentation des employés, mais aussi mettre en place des mécanismes de gouvernance plus efficaces. En ce qui concerne le modèle de gouvernance de la DAO, je pense qu’il vaut la peine d’être exploré pour concevoir une structure de gouvernance plus solide, transparente et inclusive pour OpenAI.
Il vaut la peine de réfléchir au fait que les DAO ont été proposées pour la première fois parce que les libéraux techniques voulaient s’appuyer entièrement sur le code pour former un système auto-cohérent qui continuerait à fonctionner sans interférence humaine dans la plus grande mesure possible, et qui était appelé « autonome ». Et lorsque la coordination politique consistant à s’appuyer sur les personnes apparaît dans la DAO, la DAO n’est plus une DAO, mais devient une DO, et perd son autonomie. Mais à ce stade, les DAO idéalisées ne peuvent tout simplement pas le faire. En tant qu’exigence, les organisations qui s’appuient sur des réseaux blockchain pour la gouvernance collective sont considérées comme des DAO. Cela signifie que tout le monde accepte la réalité de la domination de l’homme, et que les contraintes du code ne sont utilisées que comme auxiliaires. La plus grande caractéristique de la DAO est passée d’autonome à communautaire, ce qui représente un plus large éventail d’intérêts et d’opportunités de participation.
Par coïncidence, l’objectif d’AGI est de poursuivre Autonom. OpenAI indique clairement dans sa structure organisationnelle que l’IAG fait référence à un système hautement autonome qui surpasse les humains dans la grande majorité des emplois à haute valeur économique.
Bien que l’autonomie dans l’IAG se réfère davantage au niveau de capacité comportementale, si nous y réfléchissons à un niveau inférieur, l’AGI et la DAO espèrent toutes deux former un système véritablement autonome qui fonctionne sans contrôle externe, ce qui n’est pas fondamentalement différent. Alors, face à un tel système autonome, comment devrions-nous le gouverner, devrions-nous nous appuyer davantage sur l’alignement et l’ajustement des valeurs humaines endogènes, ou devrions-nous ajouter plus de contraintes externes ? Du LLM à l’AGI, ce sont autant de questions qui doivent être prises en compte de toute urgence.
Le dernier épisode du drame d’OpenAI est que 90% des employés signent leur démission et suivent Sam, ce qui est un bon écho à un débat classique dans l’espace DAO au cours des dernières années – à savoir si les règles de contraintes de code sont plus importantes que le consensus de la communauté.
Alors que les règles et les contraintes peuvent former beaucoup de consensus, le véritable grand consensus n’est souvent pas forgé par des règles. Seul un sens partagé de la mission et des valeurs culturelles peut vraiment atteindre une résonance et une cohérence profondes.
Nous savons comment créer cette résonance entre les gens. Qu’en est-il de l’IA ?