Altman não é "Jobs", Ilya é!

Fonte original: Data Ape

Fonte da imagem: Gerado por Unbounded AI

Na luta palaciana de dois dias da OpenAI, há duas figuras-chave, uma é o ex-CEO Altman, e a outra é o cientista-chefe Ilya.

O enredo de sangue de cão, revertido e invertido

Com base no que se sabe até agora, a situação geral é a seguinte:

1ª rodada:

Ilya foi o primeiro a fazer greve, levando o conselho a demitir Altman, e então os patronos da OpenAI (especialmente a Microsoft) e alguns funcionários pediram demissão.

Reversão de Plot:

Sob pressão de muitos partidos, há rumores constantes de que Altman pode retornar à liderança da OpenAI e remodelar o conselho de administração, o mais crítico dos quais é que Ilya pode sair.

Inverter e inverter:

No entanto, só agora, essa trama sofreu uma reversão e é revertida novamente.

De acordo com a imprensa estrangeira The Information, Ilya Sutskever disse aos funcionários em São Francisco na noite de domingo (horário de Pequim ao meio-dia de hoje) que Sam Altman não será reconduzido como CEO! Além disso, o novo CEO interino não é Mira Murati, mas Emmett Shear (cofundador da plataforma de streaming de jogos Twitch, da Amazon).

E Ilya insistiu que ele e outros três membros do conselho mantiveram a decisão de remover Altman, convencidos de que era a "única maneira" de defender a missão da empresa. Ele disse que as ações de Altman e as interações do conselho minaram sua capacidade de supervisionar o desenvolvimento de IA da empresa.

Tudo começa com a Carta OpenAI

Ilya acredita que removeu Altman em defesa da missão da empresa. Então, qual é a "missão" que ele defende?

Deve-se dizer que, seja Altman ou Ilya, seu conflito desta vez não deve ser por causa do poder, muito menos do dinheiro, mas mais por causa de "maneiras diferentes". Eles têm entendimentos diferentes de como a OpenAI deve buscar o AGI.

Para entender as contradições entre eles, você precisa conhecer Ilya, Altman e OpenAI.

Em primeiro lugar, precisamos entender o que é OpenAI e qual é o propósito de seu estabelecimento?

Para descobrir isso, a Carta OpenAI é o melhor material para encontrar. Há algumas palavras-chave nesta carta que deixam claro por que esta organização foi fundada.

Na Carta OpenAI, é claramente afirmado que "nossa principal responsabilidade fiduciária é para com a humanidade". Prevemos que recursos significativos precisarão ser mobilizados para cumprir nossa missão, mas sempre nos esforçaremos para tomar medidas para minimizar conflitos de interesse entre funcionários e partes interessadas que possam prejudicar uma ampla gama de interesses. "**

Em outras palavras, desde o início, a OpenAI colocou os interesses da humanidade em primeiro lugar, não os interesses dos investidores e funcionários da OpenAI, e eles até pensaram desde o início que, no futuro, os interesses dos funcionários e investidores podem entrar em conflito com os interesses mais amplos da humanidade.

Na Carta da OpenAI, há também uma frase que ilustra plenamente que a AGI segura é muito mais importante do que os próprios interesses da OpenAI: "Estamos preocupados que o desenvolvimento posterior da AGI se torne uma competição competitiva, e não há tempo para tomar precauções de segurança adequadas." Portanto, se um projeto alinhado a valores e consciente da segurança chegar perto de construir a AGI antes de nós, nos comprometemos a parar de competir com o projeto e começar a ajudar o projeto. "**

O que eles se preocupam é com o AGI seguro, e a OpenAI é apenas uma ferramenta para alcançar esse ideal, não o ideal em si. Para o bem dos ideais da AGI, eles não se importam de fazer vestidos de noiva para os outros e parar o projeto OpenAI.

Quem é o "Jobs" da OpenAI

Muitas pessoas pensam em Altman como o Steve Jobs da OpenAI, acreditando que todos eles foram expulsos da empresa que fundaram, e então encenaram um retorno do rei.

No entanto, acreditamos que, se houver uma analogia, então a versão OpenAI de "Jobs" deve ser de Ilya, não de Altman. De certa forma, Altman é mais parecido com John Scully (um ex-vice-presidente da Best Cola, que foi recrutado para a Apple pela frase de Steve Jobs "Você quer vender água com açúcar para o resto da sua vida, ou você quer mudar o mundo juntos?", e mais tarde levou o conselho de administração a expulsar Jobs).

Porquê?

Precisamos dar uma olhada mais de perto em que tipo de pessoas Ilya e Altman são e qual é o seu papel na OpenAI.

No geral, Ilya, como cientista-chefe da OpenAI, lidera o roteiro técnico da OpenAI.

Musk revelou uma vez em um talk show que a adição de Ilya é um grande ponto de virada no processo de desenvolvimento da OpenAI. Deve-se dizer que a OpenAI não encontrou o caminho do grande modelo atual no início, e a adição de Ilya é crucial para o sucesso da OpenAI hoje.

A julgar pelas várias entrevistas em que o próprio Ilya participou, também é óbvio que ele tem um forte "gosto técnico masculino", e ele presta atenção à lógica técnica subjacente, e ele sempre considerou a realização de AGI segura como o objetivo mais importante ou mesmo o único.

Altman, por outro lado, está mais envolvido em financiamento e comercialização. É precisamente por esta razão que tem recebido um forte apoio de investidores e de alguns trabalhadores. Aos olhos dos investidores, investir não é investir nos ideais ilusórios de um grupo de pessoas, mas sim obter maiores retornos no futuro. Para atingir este objetivo, Altman é, sem dúvida, um bom candidato.

Além de desempenhar um papel fundamental na angariação de fundos, uma das coisas que Altman está a pressionar é a comercialização da OpenAI. Não muito tempo atrás, OpenAI realizou uma conferência de imprensa que chocou a indústria, e lançou uma série de funções, que está essencialmente abrindo o caminho para a comercialização.

A maioria das pessoas concorda que o maior desacordo entre Ilya e Altman é se deve ou não comercializá-lo. Mas esta é apenas a primeira camada, e se você pensar sobre isso em um nível mais profundo, a maior discordância entre eles é, na verdade, a diferença de pontos de vista sobre quando a AGI será realizada. **

Deve-se notar que o objetivo de Altman também é perseguir o AGI, no entanto, em sua opinião, a AGI ainda está relativamente longe, e dinheiro suficiente é a base necessária para apoiar esta equipe até o final, então o financiamento e a comercialização são necessários. Eu tenho que criar essa equipe primeiro, e depois lentamente perseguir o AGI. Se você puder ganhar mais dinheiro para você e sua equipe no processo, tudo bem.

Mas, na opinião de Ilya, a AGI já pode estar muito próxima. Este sentido de urgência pode ser visto em muitos dos seus discursos.

Logicamente, se a AGI está próxima, então o mais urgente é, naturalmente, este é o último passo, e garantir que a AGI é segura e não anti-humana, isso é o mais importante. Em vez de fazer uso comercial em larga escala dos atuais produtos semiacabados, ganharemos os "três melões e duas tâmaras". (Nenhuma quantia de dinheiro é insignificante na frente da AGI.) )

Na opinião de Ilya, há uma pilha de ouro não muito à frente, então não perca tempo com essas poucas pepitas de ouro a seus pés. Na opinião de Altman, ainda está longe de ir para a mina de ouro, e ele deve primeiro pegar um pouco de ouro na beira da estrada como uma "bobina" para a equipe.

Deve-se dizer que todos eles são "boas pessoas" e todos querem alcançar a AGI melhor e mais seguro. No entanto, pode haver diferenças em suas estimativas do tempo para alcançar o AGI, o que os leva a tomar ações muito diferentes para o mesmo objetivo. **

Esta é a causa raiz do afastamento de Ilya de Altman.

Qual é o melhor resultado?

Como está, Ilya ganhou a batalha entre Ilya e Altman, e ele vai liderar a direção da OpenAI (embora ele não seja o CEO). Então, não podemos deixar de perguntar, esse resultado é a melhor escolha para a OpenAI e uma escolha melhor para os humanos?

Na opinião do autor, se você tivesse que escolher entre Ilya e Altman, Ilya seria o melhor candidato. Dos dois, Ilya é claramente mais fiel à Carta OpenAI, que visa ser o número um da AGI amiga do ser humano. Liderada por ele, a OpenAI pode ser mais radical em termos de progresso tecnológico, e a possibilidade de alcançar a AGI também é um pouco maior.

Claro, é difícil dizer se alcançar AGI mais rápido é uma coisa boa para a humanidade. Embora Ilya leve a segurança da AGI muito a sério, até agora, ninguém teve uma maneira segura de garantir que a AGI é amiga do ser humano. **

A julgar pela evolução da vida como um todo, parece que a substituição da vida inferior pela vida superior é a tendência dos tempos, e nunca houve um caso especial. Então, por que a AGI mais avançada deveria se curvar aos seres humanos e estar disposta a ser a "babá" dos seres humanos?

Vamos nos perguntar, se o primeiro governante da Terra foram os gatos, e os humanos foram as formas de vida superiores desenvolvidas pelos gatos, os humanos estariam dispostos a ser babás de gatos por gerações?

Talvez, os seres humanos sejam gratos pela criação de gatos e cuidem deles de bom grado por 10 ou até 100 anos. E daqui a 1.000 anos, daqui a 10.000 anos? É previsível que, mais cedo ou mais tarde, os seres humanos assumam a regra e, no máximo, mantenham os gatos como animais de estimação, em vez de para sempre como seus donos.

Além disso, os seres humanos não devem pensar que serão capazes de ser iguais à AGI para sempre. Vamos imaginar que você está trabalhando com um parceiro, você é muito mais inteligente e mais forte do que ele, você faz o maior trabalho, você faz a maior contribuição, mas os resultados têm que ser compartilhados igualmente com ele, você quer? Eu não acho que a maioria dos seres humanos iria querer, então por que pedir a um AGI autônomo para fazer isso?

Você deve saber que AGI com consciência independente também é vida, sentimentos, alegrias, tristezas, alegrias e perdas.

Obviamente, é ilógico fazer com que a AGI funcione para humanos. Para alcançar a segurança e controlabilidade do AGI, o núcleo é resolver este problema aparentemente ilógico. Coube a nós encontrar uma maneira de fazer com que a AGI estivesse "disposta" a fazer o sacrifício. Dê-lhes um "Feitiço de Servidão" e certifique-se de que o "Feitiço de Servidão" nunca seja retirado.

Como fazê-lo, ninguém tem uma resposta agora, Ilya não tem uma resposta, nem mesmo seu professor, Geoffrey Hinton, o pai do deep learning. Na verdade, Hinton disse uma vez: "Eu me arrependo do trabalho da minha vida". "

"Nós praticamente tornamos possível que os computadores melhorem a si mesmos, e isso é perigoso, e temos que pensar muito sobre como controlá-lo", disse Hinton em uma entrevista. "

É claro que seu aluno Ilya tem o mesmo senso de crise e urgência. Ilya afirma que sua prioridade agora "não é construir o próximo GPT ou DALL-E, mas descobrir como impedir que a IA saia do controle". Altman, por outro lado, é obcecado pela comercialização, o que Ilya não pode tolerar.

Musk, como espectador desta luta palaciana, postou na manhã do dia 20: "Ilya é uma pessoa que não busca direitos, e ele não tomará ações tão drásticas a menos que sinta necessidade". "Acho que o medo, até mesmo o medo, da iminente AGI fugitiva é a razão pela qual ele tomou medidas tão drásticas.

Mais uma coisa

Como diz o velho ditado: "Se você não busca pequenos lucros, deve ter grandes planos".

No final de muitas histórias, o maior vilão é muitas vezes inofensivo para humanos e animais, e até mesmo compassivo.

Não está excluído que o objetivo final de Ilya é "criar deuses" (em certo sentido, o poder da AGI é comparável aos deuses dos mitos e lendas chineses e estrangeiros antigos e modernos), e ele também mencionou a superinteligência em muitas entrevistas. Se AGI ou mesmo superinteligência é inevitável, então ele pode querer ser o primeiro a entrar em contato com os "deuses", e se ele encontrar alguma maneira de "domar" AGI, então ele logo se tornará a pessoa mais poderosa do mundo.

Em comparação com tais ambições, fazer dezenas de bilhões de dólares não é um pequeno lucro?

Claro, Ilya pode não ter essa ideia ainda, ele pode apenas querer ser um "ladrão de fogo" da humanidade agora. No entanto, as pessoas podem mudar, especialmente quando confrontadas com grandes tentações.

Lembre-se do filme "O Senhor dos Anéis", diante do "Senhor dos Anéis" de poder absoluto, não importa quão justas as pessoas sejam, elas serão seduzidas por esse direito absoluto.

No filme "Transcendental Hacker", o cientista Will Caster foi muito justo no início, e sua esposa carregou sua consciência para renovar sua vida e integrá-la em uma inteligência artificial. Mais tarde na história, Wilcster "renasceu" no ciberespaço e evoluiu rapidamente, e logo ele poderia controlar a rede financeira humana, e com o estalar de dedos, ele poderia transferir dezenas de bilhões de dólares para uma conta.

Mais tarde, Wilcas estava completamente perdido, traindo a humanidade em busca de sua própria força infinita e eliminando a ameaça que a humanidade lhe representava.

A julgar pelas informações reveladas até agora, a AGI realmente não é mais uma piada. Se houver uma probabilidade real de que a humanidade atinja a IAG em algumas décadas, será definitivamente a coisa mais importante nas próximas décadas, cem vezes mais importante do que as armas nucleares originais.

É um desafio sem precedentes para uma espécie não tão inteligente assumir o controle de algo mais inteligente do que ela mesma. **

Hinton, o pai da aprendizagem profunda, arrependeu-se do que tinha feito e uma vez consolou-se: "Mesmo que não seja eu, haverá outra pessoa." Na verdade, a AGI, uma caixa de "Pandora", será aberta mais cedo ou mais tarde, e mesmo que algumas pessoas a suportem, outro grupo de pessoas não será capaz de suportá-la.

Assim como quando as armas nucleares foram introduzidas pela primeira vez, quase todos poderiam perceber o risco para a humanidade, mas os americanos pensariam: "Mesmo que os Estados Unidos não desenvolvam armas nucleares, a Alemanha e os soviéticos as desenvolverão", e os soviéticos pensarão: "Os americanos têm armas nucleares, e a União Soviética definitivamente as terá". "

O mesmo se aplica em muitos domínios. Por exemplo, as armas biológicas, embora todos as tenham proibido à superfície, deve haver muitas pessoas a fazê-las secretamente. E outros se "consolarão", "mesmo que eu não o faça, outra pessoa o fará". "

Em comparação com todos esses riscos, a AGI é muito mais arriscada. Porque quer se trate de armas nucleares, biológicas ou químicas, elas não são conscientes e, no final, ainda estão nas mãos de seres humanos, o que nada mais é do que a diferença entre esse grupo de pessoas e esse grupo de pessoas. No entanto, uma vez que a AGI é realizada, muitas coisas não estão mais nas mãos dos seres humanos.

Esta questão é demasiado importante e, a julgar pelas informações atuais, já é urgente. Comparado com Altman, Ilya pelo menos presta mais atenção e é mais ansioso, então neste drama de luta palaciano da OpenAI, eu estou com Ilya.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)