Fonte da imagem: Gerada pela ferramenta Unbounded AI
A inteligência artificial (IA) parece estar em todos os cantos da vida moderna, desde música e mídia até negócios e produtividade, e até namoro. São tantas coisas que é difícil acompanhar. Este artigo abordará tudo, desde os últimos grandes desenvolvimentos em IA até os termos e empresas que você precisa conhecer para se manter atualizado sobre o estado das coisas neste campo em rápida evolução.
Primeiro, o que é inteligência artificial?
A inteligência artificial, também conhecida como aprendizado de máquina, é um sistema de software baseado em redes neurais, uma técnica que foi pioneira décadas atrás, mas recentemente floresceu graças a novos e poderosos recursos de computação. Atualmente, a IA alcançou reconhecimento efetivo de fala e imagem, bem como a capacidade de gerar imagens e fala sintéticas. Os pesquisadores estão trabalhando para tornar a inteligência artificial capaz de navegar na web, solicitar ingressos, ajustar receitas e muito mais.
Mas se você está preocupado com um aumento de máquinas no estilo Matrix - não se preocupe. Falaremos sobre isso mais tarde!
Este guia para AI consiste em duas partes principais:
Primeiro, os conceitos mais básicos que você precisa entender e os conceitos importantes mais recentes.
Em seguida, descreva os principais atores da IA e por que eles são importantes.
AI 101
Crédito da imagem: Andrii Shyp/Getty Images
Uma das coisas malucas sobre a IA é que, embora seus conceitos básicos remontem a mais de 50 anos, até recentemente poucas pessoas com conhecimento de tecnologia estavam familiarizadas com seus conceitos. Portanto, não se preocupe se estiver se sentindo perdido - todo mundo está.
Vamos ser claros em uma coisa desde o início: embora seja chamado de "inteligência artificial", o termo é um pouco enganador. Atualmente não existe uma definição unificada de inteligência, mas o que esses sistemas fazem está definitivamente mais próximo de uma calculadora do que de um cérebro, exceto que a entrada e a saída dessa calculadora são mais flexíveis. A IA pode ser como um "coco artificial" - é uma imitação de inteligência.
A seguir estão os termos básicos que você encontrará em qualquer discussão sobre IA.
Redes neurais
Nossos cérebros são compostos em grande parte por células interconectadas chamadas neurônios, que se unem para formar redes complexas que executam tarefas e armazenam informações. As pessoas tentam recriar esse incrível sistema em software desde a década de 1960, mas o poder de processamento necessário não estava amplamente disponível até 15 a 20 anos atrás, quando as GPUs permitiram o florescimento de redes neurais definidas numericamente.
Essencialmente, são apenas muitos pontos e linhas: os pontos são os dados e as linhas são as relações estatísticas entre esses valores. Como no cérebro, isso pode criar um sistema multifuncional que recebe rapidamente uma entrada, a passa pela rede e produz uma saída. Este sistema é chamado de modelo.
Modelo
Um modelo é a coleção real de código que recebe entrada e retorna saída. A semelhança na terminologia com modelos estatísticos, ou sistemas de modelagem que simulam processos naturais complexos, não é acidental. Em IA, um modelo pode se referir a um sistema completo como ChatGPT, ou quase qualquer IA ou construção de aprendizado de máquina, não importa o que ele faça ou produza. Os modelos vêm em vários tamanhos, o que significa quanto espaço de armazenamento eles ocupam e quanto poder de computação eles exigem para serem executados. E tudo depende de como o modelo foi treinado.
trem
Para criar um modelo de IA, as redes neurais que formam a base do sistema são expostas a um monte de informações chamadas de conjunto de dados ou corpus. Ao fazer isso, essas vastas redes criam uma representação estatística desses dados. Esse processo de treinamento é o mais computacionalmente intensivo, o que significa que leva semanas ou meses em computadores enormes e de alta potência. A razão para isso não é apenas que as redes são complexas, mas os conjuntos de dados podem ser muito grandes: bilhões de palavras ou imagens devem ser analisadas e representadas em enormes modelos estatísticos. Por outro lado, uma vez que um modelo é treinado, ele pode ser usado muito menor e menos exigente, um processo chamado de inferência.
Crédito da imagem: Google
Inferência
Quando o modelo realmente funciona, nós o chamamos de inferência, e o significado tradicional da palavra é: afirmar uma conclusão raciocinando sobre as evidências disponíveis. Claro, isso não é exatamente "inferência", mas conecta pontos estatisticamente nos dados que ingere, prevendo o próximo ponto. Por exemplo, diga "complete a seguinte sequência: vermelho, laranja, amarelo..." ele descobrirá que essas palavras correspondem ao início da lista que ingere, ou seja, as cores do arco-íris, e extrapolará o próximo item até que tenha produziu o resto da parte da lista.
A inferência geralmente é muito menos dispendiosa computacionalmente do que o treinamento: pense nisso como navegar em um catálogo de fichas em vez de montá-lo. Modelos grandes ainda precisam rodar em supercomputadores e GPUs, mas modelos menores podem rodar em smartphones ou dispositivos mais simples.
Inteligência Artificial Gerativa
Todo mundo está falando sobre IA generativa, um termo amplo que simplesmente se refere a modelos de IA que geram resultados brutos como imagens ou texto. Alguns AIs resumem, alguns reorganizam, alguns reconhecem e assim por diante - mas AIs que realmente geram algo (se "cria" ou não é discutível) são especialmente populares no momento. Lembre-se, só porque a IA gerou algo, não significa que seja correto ou mesmo que reflita a realidade! Só que não existe até que você peça, como uma história ou uma pintura.
Palavras quentes agora
Além do básico, aqui estão os termos de IA mais relevantes para meados de 2023.
Modelo de linguagem grande (LLM)
Os modelos de linguagem em larga escala são a forma de inteligência artificial mais influente e amplamente utilizada atualmente. Os modelos de linguagem em larga escala são treinados em quase todos os textos que compõem a web e a maior parte da literatura em inglês. A ingestão de tudo isso resulta em um enorme modelo básico (leia mais). Os LLMs são capazes de conversar e responder a perguntas em linguagem natural e imitar documentos escritos de vários estilos e tipos, conforme evidenciado por ferramentas como ChatGPT, Claude e LLaMa.
Embora esses modelos sejam indubitavelmente impressionantes, deve-se ter em mente que eles ainda são mecanismos de reconhecimento de padrões e, quando respondem a uma pergunta, estão tentando completar o padrão identificado, quer esse padrão reflita ou não a realidade. Os LLMs costumam ter alucinações em suas respostas, como veremos em breve.
Se você quiser saber mais sobre LLM e ChatGPT, clique aqui.
Modelo de Fundação
Treinar um modelo enorme do zero em um conjunto de dados enorme é caro e complexo, então você não quer fazer mais do que precisa. Os modelos básicos são grandes modelos do zero que exigem supercomputadores para serem executados, mas, muitas vezes, ao reduzir o número de parâmetros, eles podem ser reduzidos a contêineres menores. Você pode pensar neles como o número total de pontos que o modelo precisa manipular, que pode chegar a milhões, bilhões ou até trilhões atualmente.
afinação
Um modelo básico como o GPT-4 é inteligente, mas também generalista por design - ele absorve tudo, de Dickens a Wittgenstein e as regras de Dungeons and Dragons, mas se você quiser que seja baseado em seu currículo, escreva uma carta de apresentação, essas são inúteis. Felizmente, é possível ajustar o modelo fazendo algum treinamento adicional no modelo usando um conjunto de dados especializado. Por exemplo, existem vários milhares de pedidos de emprego. Isso dá ao modelo uma melhor compreensão de como ajudar o usuário nesse domínio sem descartar o conhecimento geral obtido do restante dos dados de treinamento.
Aprendizagem por Reforço com Feedback Humano (RLHF), é um tipo especial de ajuste fino sobre o qual você ouvirá falar muito — ele usa dados de humanos interagindo com LLMs para melhorar suas habilidades de comunicação.
Difusão
*Em um artigo sobre técnicas avançadas de pós-difusão, você pode ver como reproduzir imagens de dados muito ruidosos. *
A geração de imagens pode ser feita de várias maneiras, mas, de longe, a mais bem-sucedida é a difusão, a técnica central da Stable Diffusion, Midjourney e outras IAs generativas populares. O modelo de difusão é treinado mostrando imagens que são gradualmente degradadas pela adição de ruído digital até que não reste nada da imagem original. Ao observar isso, o modelo de difusão também aprende a realizar o processo ao contrário, adicionando gradualmente detalhes ao ruído puro para formar uma imagem definida arbitrariamente. Começamos a ir além disso nos gráficos, mas a tecnologia é sólida e relativamente fácil de entender, então vai desaparecer rapidamente.
Alucinação
Inicialmente, isso era um problema de algumas imagens no treinamento deslizando para uma saída irrelevante, por exemplo, edifícios que pareciam ser feitos de cachorros devido à prevalência excessiva de imagens de cachorros no conjunto de treinamento. Diz-se agora que a IA é alucinante porque não possui dados suficientes ou conflitantes em seu conjunto de treinamento, apenas inventa as coisas.
Uma IA solicitada a criar arte original ou mesmo derivada é alucinante. Por exemplo, um LLM poderia ser instruído a escrever um poema de amor no estilo de Yogi Berra, e ele faria isso com prazer - mesmo que tal coisa não exista em seu conjunto de dados. Mas isso pode ser um problema quando uma resposta factual é necessária; o modelo apresentará com confiança uma resposta meio real, meio ilusória. Atualmente, não há uma maneira fácil de saber qual é qual, a não ser verificando você mesmo, já que o modelo em si não sabe o que é "verdadeiro" ou "falso", está apenas tentando completar um padrão da melhor maneira possível.
AGI ou Inteligência Artificial Forte
Inteligência Artificial Geral (AGI), ou Inteligência Artificial Forte, não é realmente um conceito bem definido, mas a explicação mais simples é que é uma inteligência poderosa o suficiente não apenas para fazer o que as pessoas fazem, mas também para ser como nós Aprender e melhorar você mesmo. Alguns temem que esse ciclo de aprendizado, integração dessas ideias e aprendizado e crescimento mais rápido seja um ciclo autoperpetuador que levará a um sistema superinteligente que não pode ser limitado ou controlado. Alguns até propuseram atrasar ou limitar os estudos para evitar essa possibilidade.
É um pensamento terrível. E filmes como Matrix e O Exterminador do Futuro exploraram o que poderia acontecer se a inteligência artificial saísse do controle e tentasse exterminar ou escravizar a humanidade. Mas essas histórias não são baseadas na realidade. A aparência de inteligência que vemos em coisas como o ChatGPT é impressionante, mas tem pouco em comum com o raciocínio abstrato e a atividade multidomínio dinâmica que associamos à inteligência "real".
Embora prever desenvolvimentos futuros seja quase impossível, pode ser útil imaginar a AGI como uma viagem espacial interestelar: todos nós entendemos o conceito e parecemos estar trabalhando para alcançá-lo, mas, ao mesmo tempo, ainda há um longo caminho a percorrer para alcançar isto. Assim como o AGI, ninguém o fará por acaso devido aos enormes recursos e ao progresso científico básico necessário!
É divertido pensar em AGI, mas não há necessidade de procurar problemas porque, como os comentaristas apontaram, apesar de suas limitações, a IA já representa uma ameaça real e significativa hoje. Ninguém quer a Skynet, mas você não precisa de uma superinteligência com armas nucleares para causar danos reais: as pessoas estão perdendo seus empregos e sendo enganadas hoje. Se não conseguirmos resolver esses problemas, que chance temos contra o T-1000?
Top Players em Inteligência Artificial
OpenAI
Crédito da imagem: Leon Neal/Getty Images
Se há um nome familiar em IA, é OpenAI. OpenAI, como o nome sugere, é uma organização que pretende realizar pesquisas e tornar os resultados mais ou menos disponíveis ao público. Desde então, reestruturou-se em uma empresa com fins lucrativos mais tradicional que fornece acesso a modelos avançados de linguagem como o ChatGPT por meio de APIs e aplicativos. É liderado por Sam Altman, um tecno-bilionário que, no entanto, soou o alarme sobre os possíveis riscos da inteligência artificial. A OpenAI é uma líder reconhecida na área de LLMs, mas também realiza pesquisas em outras áreas.
microsoft
Como você pode esperar, a Microsoft fez sua parte justa na pesquisa de IA, mas, como outras empresas, falhou mais ou menos em traduzir seus experimentos em produtos principais. Sua jogada mais inteligente foi um investimento inicial na OpenAI, que levou a uma parceria exclusiva de longo prazo com a empresa que agora capacita seus agentes de conversação do Bing. Embora suas próprias contribuições sejam menores e menos diretamente aplicáveis, a empresa tem uma força de pesquisa considerável.
Google
Conhecido por seus moonshots, o Google de alguma forma perdeu a oportunidade para IA, embora seus pesquisadores tenham inventado a tecnologia que leva diretamente à explosão de IA de hoje: Transformers. Agora está tentando desenvolver seus próprios LLMs e outros agentes, mas está claramente tentando recuperar o atraso depois de passar a maior parte da última década promovendo o conceito ultrapassado de "assistentes virtuais" de IA. O CEO Sundar Pichai disse repetidamente que a empresa está firmemente atrás da IA em pesquisa e produtividade.
Antrópico
Após a saída da OpenAI da abertura, Dario e Daniela Amodei deixaram para iniciar a Anthropic, com a intenção de preencher o papel de uma organização de pesquisa de IA aberta e eticamente considerada. Com a quantidade de dinheiro que têm em mãos, eles são concorrentes sérios do OpenAI, mesmo que seus modelos (como Claude) ainda não sejam tão populares ou conhecidos.
Crédito da imagem: Bryce Durbin/TechCrunch
Estabilidade
Controverso, mas inevitável, Stability representa o gênero de código aberto de implementações de IA "o que você quiser" que coletam tudo na Internet e disponibilizam os modelos de IA generativos que treina gratuitamente, desde que você possua o hardware para executá-lo. Isso se encaixa muito bem com a filosofia "a informação quer ser livre", mas também acelera projetos eticamente duvidosos, como gerar imagens pornográficas e usar propriedade intelectual sem consentimento (às vezes simultaneamente).
Elon Musk
Musk não foi exceção, falou abertamente sobre suas preocupações com a IA descontrolada, e algumas uvas verdes depois que suas primeiras contribuições para a OpenAI foram em direções que ele não gostou. Embora Musk não seja um especialista no assunto, como de costume, suas travessuras e comentários recebem muita atenção (ele é signatário da mencionada carta de "pausa de IA") e está tentando construir sua própria presença de pesquisa.
Ver original
O conteúdo serve apenas de referência e não constitui uma solicitação ou oferta. Não é prestado qualquer aconselhamento em matéria de investimento, fiscal ou jurídica. Consulte a Declaração de exoneração de responsabilidade para obter mais informações sobre os riscos.
Guia de IA: uma olhada nos principais conceitos e principais jogadores em IA
Fonte: Techcrunch
Compilação: Babbitt
A inteligência artificial (IA) parece estar em todos os cantos da vida moderna, desde música e mídia até negócios e produtividade, e até namoro. São tantas coisas que é difícil acompanhar. Este artigo abordará tudo, desde os últimos grandes desenvolvimentos em IA até os termos e empresas que você precisa conhecer para se manter atualizado sobre o estado das coisas neste campo em rápida evolução.
Primeiro, o que é inteligência artificial?
A inteligência artificial, também conhecida como aprendizado de máquina, é um sistema de software baseado em redes neurais, uma técnica que foi pioneira décadas atrás, mas recentemente floresceu graças a novos e poderosos recursos de computação. Atualmente, a IA alcançou reconhecimento efetivo de fala e imagem, bem como a capacidade de gerar imagens e fala sintéticas. Os pesquisadores estão trabalhando para tornar a inteligência artificial capaz de navegar na web, solicitar ingressos, ajustar receitas e muito mais.
Mas se você está preocupado com um aumento de máquinas no estilo Matrix - não se preocupe. Falaremos sobre isso mais tarde!
Este guia para AI consiste em duas partes principais:
AI 101
Uma das coisas malucas sobre a IA é que, embora seus conceitos básicos remontem a mais de 50 anos, até recentemente poucas pessoas com conhecimento de tecnologia estavam familiarizadas com seus conceitos. Portanto, não se preocupe se estiver se sentindo perdido - todo mundo está.
Vamos ser claros em uma coisa desde o início: embora seja chamado de "inteligência artificial", o termo é um pouco enganador. Atualmente não existe uma definição unificada de inteligência, mas o que esses sistemas fazem está definitivamente mais próximo de uma calculadora do que de um cérebro, exceto que a entrada e a saída dessa calculadora são mais flexíveis. A IA pode ser como um "coco artificial" - é uma imitação de inteligência.
A seguir estão os termos básicos que você encontrará em qualquer discussão sobre IA.
Redes neurais
Nossos cérebros são compostos em grande parte por células interconectadas chamadas neurônios, que se unem para formar redes complexas que executam tarefas e armazenam informações. As pessoas tentam recriar esse incrível sistema em software desde a década de 1960, mas o poder de processamento necessário não estava amplamente disponível até 15 a 20 anos atrás, quando as GPUs permitiram o florescimento de redes neurais definidas numericamente.
Essencialmente, são apenas muitos pontos e linhas: os pontos são os dados e as linhas são as relações estatísticas entre esses valores. Como no cérebro, isso pode criar um sistema multifuncional que recebe rapidamente uma entrada, a passa pela rede e produz uma saída. Este sistema é chamado de modelo.
Modelo
Um modelo é a coleção real de código que recebe entrada e retorna saída. A semelhança na terminologia com modelos estatísticos, ou sistemas de modelagem que simulam processos naturais complexos, não é acidental. Em IA, um modelo pode se referir a um sistema completo como ChatGPT, ou quase qualquer IA ou construção de aprendizado de máquina, não importa o que ele faça ou produza. Os modelos vêm em vários tamanhos, o que significa quanto espaço de armazenamento eles ocupam e quanto poder de computação eles exigem para serem executados. E tudo depende de como o modelo foi treinado.
trem
Para criar um modelo de IA, as redes neurais que formam a base do sistema são expostas a um monte de informações chamadas de conjunto de dados ou corpus. Ao fazer isso, essas vastas redes criam uma representação estatística desses dados. Esse processo de treinamento é o mais computacionalmente intensivo, o que significa que leva semanas ou meses em computadores enormes e de alta potência. A razão para isso não é apenas que as redes são complexas, mas os conjuntos de dados podem ser muito grandes: bilhões de palavras ou imagens devem ser analisadas e representadas em enormes modelos estatísticos. Por outro lado, uma vez que um modelo é treinado, ele pode ser usado muito menor e menos exigente, um processo chamado de inferência.
Inferência
Quando o modelo realmente funciona, nós o chamamos de inferência, e o significado tradicional da palavra é: afirmar uma conclusão raciocinando sobre as evidências disponíveis. Claro, isso não é exatamente "inferência", mas conecta pontos estatisticamente nos dados que ingere, prevendo o próximo ponto. Por exemplo, diga "complete a seguinte sequência: vermelho, laranja, amarelo..." ele descobrirá que essas palavras correspondem ao início da lista que ingere, ou seja, as cores do arco-íris, e extrapolará o próximo item até que tenha produziu o resto da parte da lista.
A inferência geralmente é muito menos dispendiosa computacionalmente do que o treinamento: pense nisso como navegar em um catálogo de fichas em vez de montá-lo. Modelos grandes ainda precisam rodar em supercomputadores e GPUs, mas modelos menores podem rodar em smartphones ou dispositivos mais simples.
Inteligência Artificial Gerativa
Todo mundo está falando sobre IA generativa, um termo amplo que simplesmente se refere a modelos de IA que geram resultados brutos como imagens ou texto. Alguns AIs resumem, alguns reorganizam, alguns reconhecem e assim por diante - mas AIs que realmente geram algo (se "cria" ou não é discutível) são especialmente populares no momento. Lembre-se, só porque a IA gerou algo, não significa que seja correto ou mesmo que reflita a realidade! Só que não existe até que você peça, como uma história ou uma pintura.
Palavras quentes agora
Além do básico, aqui estão os termos de IA mais relevantes para meados de 2023.
Modelo de linguagem grande (LLM)
Os modelos de linguagem em larga escala são a forma de inteligência artificial mais influente e amplamente utilizada atualmente. Os modelos de linguagem em larga escala são treinados em quase todos os textos que compõem a web e a maior parte da literatura em inglês. A ingestão de tudo isso resulta em um enorme modelo básico (leia mais). Os LLMs são capazes de conversar e responder a perguntas em linguagem natural e imitar documentos escritos de vários estilos e tipos, conforme evidenciado por ferramentas como ChatGPT, Claude e LLaMa.
Embora esses modelos sejam indubitavelmente impressionantes, deve-se ter em mente que eles ainda são mecanismos de reconhecimento de padrões e, quando respondem a uma pergunta, estão tentando completar o padrão identificado, quer esse padrão reflita ou não a realidade. Os LLMs costumam ter alucinações em suas respostas, como veremos em breve.
Se você quiser saber mais sobre LLM e ChatGPT, clique aqui.
Modelo de Fundação
Treinar um modelo enorme do zero em um conjunto de dados enorme é caro e complexo, então você não quer fazer mais do que precisa. Os modelos básicos são grandes modelos do zero que exigem supercomputadores para serem executados, mas, muitas vezes, ao reduzir o número de parâmetros, eles podem ser reduzidos a contêineres menores. Você pode pensar neles como o número total de pontos que o modelo precisa manipular, que pode chegar a milhões, bilhões ou até trilhões atualmente.
afinação
Um modelo básico como o GPT-4 é inteligente, mas também generalista por design - ele absorve tudo, de Dickens a Wittgenstein e as regras de Dungeons and Dragons, mas se você quiser que seja baseado em seu currículo, escreva uma carta de apresentação, essas são inúteis. Felizmente, é possível ajustar o modelo fazendo algum treinamento adicional no modelo usando um conjunto de dados especializado. Por exemplo, existem vários milhares de pedidos de emprego. Isso dá ao modelo uma melhor compreensão de como ajudar o usuário nesse domínio sem descartar o conhecimento geral obtido do restante dos dados de treinamento.
Aprendizagem por Reforço com Feedback Humano (RLHF), é um tipo especial de ajuste fino sobre o qual você ouvirá falar muito — ele usa dados de humanos interagindo com LLMs para melhorar suas habilidades de comunicação.
Difusão
A geração de imagens pode ser feita de várias maneiras, mas, de longe, a mais bem-sucedida é a difusão, a técnica central da Stable Diffusion, Midjourney e outras IAs generativas populares. O modelo de difusão é treinado mostrando imagens que são gradualmente degradadas pela adição de ruído digital até que não reste nada da imagem original. Ao observar isso, o modelo de difusão também aprende a realizar o processo ao contrário, adicionando gradualmente detalhes ao ruído puro para formar uma imagem definida arbitrariamente. Começamos a ir além disso nos gráficos, mas a tecnologia é sólida e relativamente fácil de entender, então vai desaparecer rapidamente.
Alucinação
Inicialmente, isso era um problema de algumas imagens no treinamento deslizando para uma saída irrelevante, por exemplo, edifícios que pareciam ser feitos de cachorros devido à prevalência excessiva de imagens de cachorros no conjunto de treinamento. Diz-se agora que a IA é alucinante porque não possui dados suficientes ou conflitantes em seu conjunto de treinamento, apenas inventa as coisas.
Uma IA solicitada a criar arte original ou mesmo derivada é alucinante. Por exemplo, um LLM poderia ser instruído a escrever um poema de amor no estilo de Yogi Berra, e ele faria isso com prazer - mesmo que tal coisa não exista em seu conjunto de dados. Mas isso pode ser um problema quando uma resposta factual é necessária; o modelo apresentará com confiança uma resposta meio real, meio ilusória. Atualmente, não há uma maneira fácil de saber qual é qual, a não ser verificando você mesmo, já que o modelo em si não sabe o que é "verdadeiro" ou "falso", está apenas tentando completar um padrão da melhor maneira possível.
AGI ou Inteligência Artificial Forte
Inteligência Artificial Geral (AGI), ou Inteligência Artificial Forte, não é realmente um conceito bem definido, mas a explicação mais simples é que é uma inteligência poderosa o suficiente não apenas para fazer o que as pessoas fazem, mas também para ser como nós Aprender e melhorar você mesmo. Alguns temem que esse ciclo de aprendizado, integração dessas ideias e aprendizado e crescimento mais rápido seja um ciclo autoperpetuador que levará a um sistema superinteligente que não pode ser limitado ou controlado. Alguns até propuseram atrasar ou limitar os estudos para evitar essa possibilidade.
É um pensamento terrível. E filmes como Matrix e O Exterminador do Futuro exploraram o que poderia acontecer se a inteligência artificial saísse do controle e tentasse exterminar ou escravizar a humanidade. Mas essas histórias não são baseadas na realidade. A aparência de inteligência que vemos em coisas como o ChatGPT é impressionante, mas tem pouco em comum com o raciocínio abstrato e a atividade multidomínio dinâmica que associamos à inteligência "real".
Embora prever desenvolvimentos futuros seja quase impossível, pode ser útil imaginar a AGI como uma viagem espacial interestelar: todos nós entendemos o conceito e parecemos estar trabalhando para alcançá-lo, mas, ao mesmo tempo, ainda há um longo caminho a percorrer para alcançar isto. Assim como o AGI, ninguém o fará por acaso devido aos enormes recursos e ao progresso científico básico necessário!
É divertido pensar em AGI, mas não há necessidade de procurar problemas porque, como os comentaristas apontaram, apesar de suas limitações, a IA já representa uma ameaça real e significativa hoje. Ninguém quer a Skynet, mas você não precisa de uma superinteligência com armas nucleares para causar danos reais: as pessoas estão perdendo seus empregos e sendo enganadas hoje. Se não conseguirmos resolver esses problemas, que chance temos contra o T-1000?
Top Players em Inteligência Artificial
OpenAI
Se há um nome familiar em IA, é OpenAI. OpenAI, como o nome sugere, é uma organização que pretende realizar pesquisas e tornar os resultados mais ou menos disponíveis ao público. Desde então, reestruturou-se em uma empresa com fins lucrativos mais tradicional que fornece acesso a modelos avançados de linguagem como o ChatGPT por meio de APIs e aplicativos. É liderado por Sam Altman, um tecno-bilionário que, no entanto, soou o alarme sobre os possíveis riscos da inteligência artificial. A OpenAI é uma líder reconhecida na área de LLMs, mas também realiza pesquisas em outras áreas.
microsoft
Como você pode esperar, a Microsoft fez sua parte justa na pesquisa de IA, mas, como outras empresas, falhou mais ou menos em traduzir seus experimentos em produtos principais. Sua jogada mais inteligente foi um investimento inicial na OpenAI, que levou a uma parceria exclusiva de longo prazo com a empresa que agora capacita seus agentes de conversação do Bing. Embora suas próprias contribuições sejam menores e menos diretamente aplicáveis, a empresa tem uma força de pesquisa considerável.
Google
Conhecido por seus moonshots, o Google de alguma forma perdeu a oportunidade para IA, embora seus pesquisadores tenham inventado a tecnologia que leva diretamente à explosão de IA de hoje: Transformers. Agora está tentando desenvolver seus próprios LLMs e outros agentes, mas está claramente tentando recuperar o atraso depois de passar a maior parte da última década promovendo o conceito ultrapassado de "assistentes virtuais" de IA. O CEO Sundar Pichai disse repetidamente que a empresa está firmemente atrás da IA em pesquisa e produtividade.
Antrópico
Após a saída da OpenAI da abertura, Dario e Daniela Amodei deixaram para iniciar a Anthropic, com a intenção de preencher o papel de uma organização de pesquisa de IA aberta e eticamente considerada. Com a quantidade de dinheiro que têm em mãos, eles são concorrentes sérios do OpenAI, mesmo que seus modelos (como Claude) ainda não sejam tão populares ou conhecidos.
Estabilidade
Controverso, mas inevitável, Stability representa o gênero de código aberto de implementações de IA "o que você quiser" que coletam tudo na Internet e disponibilizam os modelos de IA generativos que treina gratuitamente, desde que você possua o hardware para executá-lo. Isso se encaixa muito bem com a filosofia "a informação quer ser livre", mas também acelera projetos eticamente duvidosos, como gerar imagens pornográficas e usar propriedade intelectual sem consentimento (às vezes simultaneamente).
Elon Musk
Musk não foi exceção, falou abertamente sobre suas preocupações com a IA descontrolada, e algumas uvas verdes depois que suas primeiras contribuições para a OpenAI foram em direções que ele não gostou. Embora Musk não seja um especialista no assunto, como de costume, suas travessuras e comentários recebem muita atenção (ele é signatário da mencionada carta de "pausa de IA") e está tentando construir sua própria presença de pesquisa.