Desde el comienzo de este gran drama durante el fin de semana, algunas personas dijeron que OpenAI debería hacer una DAO. A medida que se desarrolla la trama, más y más personas sostienen este punto de vista. Si OpenAI realmente adopta la forma de gobernanza de DAO, ¿podrá evitar este drama? Creo que sí. Pero no es por lo obvia que es la gobernanza de DAO, sino porque la gobernanza de OpenAI tiene demasiados problemas. Si aprendes un poco de la jungla de DAO, esto no sucederá.
OpenAI es una organización sin fines de lucro que tiene como objetivo crear inteligencia artificial general (AGI) segura que beneficie a toda la humanidad por igual. Se puede considerar que OpenAI es una organización que crea bienes públicos. Muchas DAO son también organizaciones que crean bienes públicos, y OpenAI y DAO ya son muy similares en muchos niveles.
(Como nueva forma de organización, hay muchas formas diferentes de DAO, y aquí hay solo una comparación de las DAO comunes sin fines de lucro, lo que no significa que todas las DAO sean así). )
La reciente agitación interna de OpenAI no se debe en realidad a sus problemas estructurales, sino más bien a la falta de claridad y la irracionalidad en las reglas de gobernanza, lo que deja espacio para la operación. Por ejemplo, la junta directiva originalmente estaba compuesta por nueve miembros, pero con la salida de algunos directores, ahora solo hay seis miembros. La junta directiva, como máxima autoridad, no repuso a los directores de manera oportuna, y si la junta directiva continúa reducida a solo tres, entonces solo se necesita el consentimiento unánime de dos personas para decidir el destino de OpenAI. Aparentemente, la decisión clave de reemplazar al CEO Sam Altman no fue discutida ni deliberada por la junta directiva en pleno, sino que fue decidida por algunos directores en una reunión a puerta cerrada, sin considerar completamente las opiniones de más partes interesadas y sin brindar oportunidades adecuadas de comunicación y consulta.
Incluso las empresas con fines de lucro que cotizan en bolsa necesitan incorporar directores independientes para aumentar la transparencia del gobierno corporativo y representar mejor los intereses de los accionistas no mayoritarios y del público. Para una organización tan importante como OpenAI, que está relacionada con el desarrollo de la tecnología básica, la seguridad social e incluso el destino de la humanidad, aunque se han introducido directores externos, es obvio que este sistema no ha desempeñado el papel que le corresponde. El consejo de administración de OpenAI no solo necesita introducir más controles y equilibrios, como la representación de los empleados, sino que también necesita establecer mecanismos de gobernanza más efectivos. Refiriéndome al modelo de gobernanza de la DAO, creo que vale la pena explorar para diseñar una estructura de gobernanza más sólida, transparente e inclusiva para OpenAI.
Vale la pena reflexionar sobre que las DAO se propusieron por primera vez porque los liberales técnicos querían confiar completamente en el código para formar un sistema autoconsistente que continuara operando sin interferencia humana en la mayor medida posible, y se llamó "Autónomo". Y cuando aparece en la DAO la coordinación política de apoyarse en las personas, la DAO deja de ser una DAO, sino que se convierte en una DO, y pierde su autonomía. Pero en esta etapa, las DAO idealizadas simplemente no pueden hacerlo. Como requisito, las organizaciones que dependen de las redes blockchain para la gobernanza colectiva se consideran DAO. Esto significa que todo el mundo acepta la realidad del gobierno del hombre, y las restricciones del código sólo se utilizan como auxiliares. La característica más importante de la DAO ha cambiado de Autónoma a Impulsada por la Comunidad, lo que representa una gama más amplia de intereses y oportunidades para participar.
Casualmente, el objetivo de AGI es perseguir la autonomía. OpenAI deja claro en su estructura organizativa que AGI se refiere a un sistema altamente autónomo que supera a los humanos en la gran mayoría de los trabajos de alto valor económico.
por AGI nos referimos a una empresa altamente autónoma que supera a los humanos en el trabajo más valioso económicamente.
OpenAI
Aunque la autonomía en AGI se refiere más al nivel de capacidad de comportamiento, si lo pensamos desde un nivel inferior, tanto AGI como DAO esperan formar un sistema verdaderamente autónomo que opere sin control externo, lo cual no es fundamentalmente diferente. Entonces, frente a un sistema tan autónomo, ¿cómo deberíamos gobernarlo, deberíamos confiar más en la alineación y sintonía de los valores humanos endógenos, o deberíamos agregar más restricciones externas? Desde LLM hasta AGI, todos estos son temas que deben considerarse con urgencia.
El último episodio del drama de OpenAI es que la friolera del 90% de los empleados firman su renuncia y siguen a Sam, lo cual es un buen eco de un debate clásico en el espacio DAO en los últimos años: si las reglas de las restricciones de código son más importantes que el consenso de la comunidad.
Si bien las reglas y las restricciones pueden formar mucho consenso, el verdadero gran consenso a menudo no se forja mediante reglas. Solo un sentido compartido de misión y valores culturales puede lograr realmente una profunda resonancia y consistencia.
Sabemos cómo crear esa resonancia entre las personas. ¿Qué pasa con la IA?
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Si OpenAI fuera una DAO, ¿podría haber evitado esta farsa?
来源:Empower Labs
Desde el comienzo de este gran drama durante el fin de semana, algunas personas dijeron que OpenAI debería hacer una DAO. A medida que se desarrolla la trama, más y más personas sostienen este punto de vista. Si OpenAI realmente adopta la forma de gobernanza de DAO, ¿podrá evitar este drama? Creo que sí. Pero no es por lo obvia que es la gobernanza de DAO, sino porque la gobernanza de OpenAI tiene demasiados problemas. Si aprendes un poco de la jungla de DAO, esto no sucederá.
OpenAI es una organización sin fines de lucro que tiene como objetivo crear inteligencia artificial general (AGI) segura que beneficie a toda la humanidad por igual. Se puede considerar que OpenAI es una organización que crea bienes públicos. Muchas DAO son también organizaciones que crean bienes públicos, y OpenAI y DAO ya son muy similares en muchos niveles.
(Como nueva forma de organización, hay muchas formas diferentes de DAO, y aquí hay solo una comparación de las DAO comunes sin fines de lucro, lo que no significa que todas las DAO sean así). )
La reciente agitación interna de OpenAI no se debe en realidad a sus problemas estructurales, sino más bien a la falta de claridad y la irracionalidad en las reglas de gobernanza, lo que deja espacio para la operación. Por ejemplo, la junta directiva originalmente estaba compuesta por nueve miembros, pero con la salida de algunos directores, ahora solo hay seis miembros. La junta directiva, como máxima autoridad, no repuso a los directores de manera oportuna, y si la junta directiva continúa reducida a solo tres, entonces solo se necesita el consentimiento unánime de dos personas para decidir el destino de OpenAI. Aparentemente, la decisión clave de reemplazar al CEO Sam Altman no fue discutida ni deliberada por la junta directiva en pleno, sino que fue decidida por algunos directores en una reunión a puerta cerrada, sin considerar completamente las opiniones de más partes interesadas y sin brindar oportunidades adecuadas de comunicación y consulta.
Incluso las empresas con fines de lucro que cotizan en bolsa necesitan incorporar directores independientes para aumentar la transparencia del gobierno corporativo y representar mejor los intereses de los accionistas no mayoritarios y del público. Para una organización tan importante como OpenAI, que está relacionada con el desarrollo de la tecnología básica, la seguridad social e incluso el destino de la humanidad, aunque se han introducido directores externos, es obvio que este sistema no ha desempeñado el papel que le corresponde. El consejo de administración de OpenAI no solo necesita introducir más controles y equilibrios, como la representación de los empleados, sino que también necesita establecer mecanismos de gobernanza más efectivos. Refiriéndome al modelo de gobernanza de la DAO, creo que vale la pena explorar para diseñar una estructura de gobernanza más sólida, transparente e inclusiva para OpenAI.
Vale la pena reflexionar sobre que las DAO se propusieron por primera vez porque los liberales técnicos querían confiar completamente en el código para formar un sistema autoconsistente que continuara operando sin interferencia humana en la mayor medida posible, y se llamó "Autónomo". Y cuando aparece en la DAO la coordinación política de apoyarse en las personas, la DAO deja de ser una DAO, sino que se convierte en una DO, y pierde su autonomía. Pero en esta etapa, las DAO idealizadas simplemente no pueden hacerlo. Como requisito, las organizaciones que dependen de las redes blockchain para la gobernanza colectiva se consideran DAO. Esto significa que todo el mundo acepta la realidad del gobierno del hombre, y las restricciones del código sólo se utilizan como auxiliares. La característica más importante de la DAO ha cambiado de Autónoma a Impulsada por la Comunidad, lo que representa una gama más amplia de intereses y oportunidades para participar.
Casualmente, el objetivo de AGI es perseguir la autonomía. OpenAI deja claro en su estructura organizativa que AGI se refiere a un sistema altamente autónomo que supera a los humanos en la gran mayoría de los trabajos de alto valor económico.
Aunque la autonomía en AGI se refiere más al nivel de capacidad de comportamiento, si lo pensamos desde un nivel inferior, tanto AGI como DAO esperan formar un sistema verdaderamente autónomo que opere sin control externo, lo cual no es fundamentalmente diferente. Entonces, frente a un sistema tan autónomo, ¿cómo deberíamos gobernarlo, deberíamos confiar más en la alineación y sintonía de los valores humanos endógenos, o deberíamos agregar más restricciones externas? Desde LLM hasta AGI, todos estos son temas que deben considerarse con urgencia.
El último episodio del drama de OpenAI es que la friolera del 90% de los empleados firman su renuncia y siguen a Sam, lo cual es un buen eco de un debate clásico en el espacio DAO en los últimos años: si las reglas de las restricciones de código son más importantes que el consenso de la comunidad.
Si bien las reglas y las restricciones pueden formar mucho consenso, el verdadero gran consenso a menudo no se forja mediante reglas. Solo un sentido compartido de misión y valores culturales puede lograr realmente una profunda resonancia y consistencia.
Sabemos cómo crear esa resonancia entre las personas. ¿Qué pasa con la IA?