Desde o início deste grande drama no fim de semana, algumas pessoas disseram que a OpenAI deveria fazer uma DAO. À medida que a trama se desenvolve, mais e mais pessoas têm esse ponto de vista. Se a OpenAI realmente adotar a forma de governança DAO, será capaz de evitar esse drama? Penso que sim. Mas não é por causa de quão óbvia é a governança da DAO, mas porque a governança da OpenAI tem muitos problemas. Se você aprender um pouco com a selva de DAO, isso não acontecerá.
A OpenAI é uma organização sem fins lucrativos que visa criar inteligência geral artificial (AGI) segura que beneficie toda a humanidade igualmente. Pode-se considerar que a OpenAI é uma organização que cria bens públicos. Muitas DAOs também são organizações que criam bens públicos, e OpenAI e DAOs já são muito semelhantes em muitos níveis.
(Como uma nova forma de organização, existem muitas formas diferentes de DAO, e aqui está apenas uma comparação de DAOs sem fins lucrativos comuns, o que não significa que todas as DAOs são assim.) )
A recente turbulência interna da OpenAI não se deve, na verdade, aos seus problemas estruturais, mas sim à falta de clareza e irracionalidade nas regras de governança, deixando espaço para operação. Por exemplo, o conselho de administração era inicialmente composto por nove membros, mas com a saída de alguns administradores, passou a ter apenas seis membros. O conselho de administração, como a autoridade máxima, não conseguiu reabastecer os diretores em tempo hábil, e se o conselho de administração continuar a ser reduzido a apenas três, então basta o consentimento unânime de duas pessoas para decidir o destino da OpenAI. A decisão-chave de substituir o CEO Sam Altman aparentemente não foi discutida e deliberada pelo conselho de administração pleno, mas foi decidida por alguns diretores em uma reunião fechada, sem considerar totalmente as opiniões de mais partes interessadas e sem fornecer oportunidades adequadas de comunicação e consulta.
Mesmo as sociedades cotadas com fins lucrativos têm de incluir administradores independentes para aumentar a transparência do governo das sociedades e representar melhor os interesses dos acionistas não controladores e do público. Para uma organização importante como a OpenAI, que está relacionada com o desenvolvimento de tecnologia básica, segurança social e até mesmo o destino da humanidade, embora diretores externos tenham sido introduzidos, este sistema obviamente não cumpriu o seu devido papel. O conselho de administração da OpenAI não só precisa trazer mais freios e contrapesos, como a representação dos funcionários, mas também precisa estabelecer mecanismos de governança mais eficazes. Referindo-me ao modelo de governança da DAO, acho que vale a pena explorar para projetar uma estrutura de governança mais sólida, transparente e inclusiva para a OpenAI.
Vale a pena ponderar que as DAOs foram propostas pela primeira vez porque os liberais técnicos queriam confiar inteiramente no código para formar um sistema autoconsistente que continuaria a operar sem interferência humana na maior extensão possível, e foi chamado de "autônomo". E quando a coordenação política de confiar nas pessoas aparece na DAO, a DAO deixa de ser uma DAO, mas torna-se uma DO, e perde a sua autonomia. Mas, neste estágio, DAOs idealizados simplesmente não podem fazer isso. Como requisito, as organizações que dependem de redes blockchain para governança coletiva são consideradas DAOs. Isso significa que todos aceitam a realidade do governo do homem, e as restrições de código são usadas apenas como auxiliares. A maior característica da DAO mudou de Autonomous para Community Driven, o que representa uma gama mais ampla de interesses e oportunidades de participação.
Coincidentemente, o objetivo da AGI é perseguir o Autônomo. A OpenAI deixa claro em sua estrutura organizacional que a AGI se refere a um sistema altamente autônomo que supera os humanos na grande maioria dos trabalhos com alto valor econômico.
por AGI queremos dizer um altamente autônomo que supera os humanos no trabalho economicamente mais valioso.
OpenAI
Embora a autonomia na AGI se refira mais ao nível de capacidade comportamental, se pensarmos nela a partir de um nível inferior, a AGI e a DAO esperam formar um sistema verdadeiramente autônomo que opere sem controle externo, o que não é fundamentalmente diferente. Então, diante de tal sistema autônomo, como devemos governá-lo, devemos confiar mais no alinhamento e sintonia dos valores humanos endógenos, ou devemos adicionar mais restrições externas? Do LLM ao AGI, todas estas são questões que precisam ser consideradas urgentemente.
O último episódio do drama da OpenAI é que 90% dos funcionários assinam sua demissão e seguem Sam, o que é um bom eco de um debate clássico no espaço DAO nos últimos anos – se as regras de restrições de código são mais importantes do que o consenso da comunidade.
Embora as regras e as restrições possam formar muitos consensos, o verdadeiro grande consenso muitas vezes não é forjado por regras. Só um sentido partilhado de missão e valores culturais pode verdadeiramente alcançar uma ressonância e consistência profundas.
Sabemos como criar essa ressonância entre as pessoas. E a IA?
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Se a OpenAI fosse uma DAO, poderia ter evitado essa farsa?
来源:Empower Labs
Desde o início deste grande drama no fim de semana, algumas pessoas disseram que a OpenAI deveria fazer uma DAO. À medida que a trama se desenvolve, mais e mais pessoas têm esse ponto de vista. Se a OpenAI realmente adotar a forma de governança DAO, será capaz de evitar esse drama? Penso que sim. Mas não é por causa de quão óbvia é a governança da DAO, mas porque a governança da OpenAI tem muitos problemas. Se você aprender um pouco com a selva de DAO, isso não acontecerá.
A OpenAI é uma organização sem fins lucrativos que visa criar inteligência geral artificial (AGI) segura que beneficie toda a humanidade igualmente. Pode-se considerar que a OpenAI é uma organização que cria bens públicos. Muitas DAOs também são organizações que criam bens públicos, e OpenAI e DAOs já são muito semelhantes em muitos níveis.
(Como uma nova forma de organização, existem muitas formas diferentes de DAO, e aqui está apenas uma comparação de DAOs sem fins lucrativos comuns, o que não significa que todas as DAOs são assim.) )
A recente turbulência interna da OpenAI não se deve, na verdade, aos seus problemas estruturais, mas sim à falta de clareza e irracionalidade nas regras de governança, deixando espaço para operação. Por exemplo, o conselho de administração era inicialmente composto por nove membros, mas com a saída de alguns administradores, passou a ter apenas seis membros. O conselho de administração, como a autoridade máxima, não conseguiu reabastecer os diretores em tempo hábil, e se o conselho de administração continuar a ser reduzido a apenas três, então basta o consentimento unânime de duas pessoas para decidir o destino da OpenAI. A decisão-chave de substituir o CEO Sam Altman aparentemente não foi discutida e deliberada pelo conselho de administração pleno, mas foi decidida por alguns diretores em uma reunião fechada, sem considerar totalmente as opiniões de mais partes interessadas e sem fornecer oportunidades adequadas de comunicação e consulta.
Mesmo as sociedades cotadas com fins lucrativos têm de incluir administradores independentes para aumentar a transparência do governo das sociedades e representar melhor os interesses dos acionistas não controladores e do público. Para uma organização importante como a OpenAI, que está relacionada com o desenvolvimento de tecnologia básica, segurança social e até mesmo o destino da humanidade, embora diretores externos tenham sido introduzidos, este sistema obviamente não cumpriu o seu devido papel. O conselho de administração da OpenAI não só precisa trazer mais freios e contrapesos, como a representação dos funcionários, mas também precisa estabelecer mecanismos de governança mais eficazes. Referindo-me ao modelo de governança da DAO, acho que vale a pena explorar para projetar uma estrutura de governança mais sólida, transparente e inclusiva para a OpenAI.
Vale a pena ponderar que as DAOs foram propostas pela primeira vez porque os liberais técnicos queriam confiar inteiramente no código para formar um sistema autoconsistente que continuaria a operar sem interferência humana na maior extensão possível, e foi chamado de "autônomo". E quando a coordenação política de confiar nas pessoas aparece na DAO, a DAO deixa de ser uma DAO, mas torna-se uma DO, e perde a sua autonomia. Mas, neste estágio, DAOs idealizados simplesmente não podem fazer isso. Como requisito, as organizações que dependem de redes blockchain para governança coletiva são consideradas DAOs. Isso significa que todos aceitam a realidade do governo do homem, e as restrições de código são usadas apenas como auxiliares. A maior característica da DAO mudou de Autonomous para Community Driven, o que representa uma gama mais ampla de interesses e oportunidades de participação.
Coincidentemente, o objetivo da AGI é perseguir o Autônomo. A OpenAI deixa claro em sua estrutura organizacional que a AGI se refere a um sistema altamente autônomo que supera os humanos na grande maioria dos trabalhos com alto valor econômico.
Embora a autonomia na AGI se refira mais ao nível de capacidade comportamental, se pensarmos nela a partir de um nível inferior, a AGI e a DAO esperam formar um sistema verdadeiramente autônomo que opere sem controle externo, o que não é fundamentalmente diferente. Então, diante de tal sistema autônomo, como devemos governá-lo, devemos confiar mais no alinhamento e sintonia dos valores humanos endógenos, ou devemos adicionar mais restrições externas? Do LLM ao AGI, todas estas são questões que precisam ser consideradas urgentemente.
O último episódio do drama da OpenAI é que 90% dos funcionários assinam sua demissão e seguem Sam, o que é um bom eco de um debate clássico no espaço DAO nos últimos anos – se as regras de restrições de código são mais importantes do que o consenso da comunidade.
Embora as regras e as restrições possam formar muitos consensos, o verdadeiro grande consenso muitas vezes não é forjado por regras. Só um sentido partilhado de missão e valores culturais pode verdadeiramente alcançar uma ressonância e consistência profundas.
Sabemos como criar essa ressonância entre as pessoas. E a IA?