AI New Intelligence Circle丨Daily Must Read: Nvidia B100 AI chip será lançado no próximo ano, Alibaba Intelligent Information Business Group lançou modelo quark large
Resumo: O Alibaba Intelligent Information Business Group lançou oficialmente um modelo de quark grande de parâmetros de nível 100 bilhões totalmente desenvolvido, que será aplicado à pesquisa geral, medicina e saúde, educação e aprendizagem, escritório no local de trabalho e outros cenários. A Nvidia revelou recentemente que a GPU B100 da arquitetura Blackwell lançada em 2024 superará as A100, H100 e H200 em termos de benchmarks de desempenho de inferência GPT-3 175B, e seu desempenho de desempenho de IA será mais do que o dobro da GPU H200 da arquitetura Hopper.
Fonte da imagem: Gerada por Unbounded AI
Notícias quentes:
NVIDIA: B100 será lançado no próximo ano, desempenho de IA mais do que duas vezes melhor do que H200
De acordo com um relatório do "Science and Technology Innovation Board Daily" em 14 de novembro, a Nvidia revelou recentemente que a GPU B100 da arquitetura Blackwell lançada em 2024 superará A100, H100 e H200 em termos de benchmark de desempenho de inferência GPT-3 175B, e seu desempenho de IA será mais do que o dobro da GPU H200 da arquitetura Hopper. O mercado espera que a Nvidia confie a TSMC às GPUs OEM Blackwell com um processo de 3nm, e a Nvidia planeja adiantar o ponto de tempo de produção para o segundo trimestre de 2024. A GPU Blackwell será o primeiro acelerador HPC/AI da NVIDIA projetado com chiplets.
Alibaba Intelligent Information Business Group lança 100 bilhões de parâmetros Quark Large Model
De acordo com um relatório da Financial Associated Press em 14 de novembro, o grupo de negócios de informação inteligente do Alibaba lançou oficialmente um modelo de quark grande de parâmetros de nível 100 bilhões totalmente desenvolvido, que será aplicado à pesquisa geral, saúde médica, educação e aprendizagem, escritório no local de trabalho e outros cenários, e o aplicativo quark também será totalmente atualizado com a ajuda deste grande modelo.
CEO da OpenAI: Modelo de IA de próxima geração GPT-5 já está em treinamento e precisa de mais dados
De acordo com um relatório da AI New Intelligence em 14 de novembro, o CEO da OpenAI, Sam Altman, revelou recentemente mais dos próximos passos da OpenAI em uma entrevista ao FT. Altman disse que a empresa está desenvolvendo a próxima geração do modelo de IA, GPT-5. Mas ele não se comprometeu a divulgar o cronograma. Altman diz que isso exigirá mais dados para treinar, que virão de conjuntos de dados publicamente disponíveis na internet, bem como dados proprietários da empresa. A OpenAI lançou recentemente um apelo para conjuntos de dados em grande escala, especialmente aqueles que "não são publicamente e facilmente acessíveis na internet hoje", especialmente escrita de forma longa ou conversas em qualquer formato.
Altman também disse que, para treinar seus modelos, a OpenAI, como a maioria das outras grandes empresas de IA, usa os avançados chips H100 da Nvidia. Ele mencionou que houve "tensões sérias" este ano devido à escassez de chips da Nvidia. No entanto, enquanto outras empresas como Google, Microsoft, AMD e Intel se preparam para lançar chips de IA rivais, a dependência da Nvidia pode não durar muito tempo.
Além disso, apesar do sucesso do consumidor da OpenAI, Altman disse que a empresa busca progredir na construção de inteligência geral artificial. Ele argumenta que os grandes modelos de linguagem (LLMs), os modelos que sustentam o ChatGPT, são "uma das partes centrais da construção do AGI, mas há muitas outras partes em cima dele". Ele também destacou a importância da linguagem como compressão de informações, um fator que ele acredita que empresas como o Google DeepMind estão negligenciando.
Google e UC Berkeley lançam uma nova abordagem de IA generativa, "Idempotent Generative Network", que pode gerar imagens fotorrealistas em uma única etapa
De acordo com um relatório da IT House em 14 de novembro, o Google recentemente se uniu à Universidade da Califórnia, Berkeley (UC Berkeley) para desenvolver um novo método de IA generativa chamado "Idempotent Generative Network (IGN)" que pode substituir modelos de difusão.
Incluindo redes generativas adversariais (GANs), modelos de difusão e modelos de consistência lançados pela OpenAI em março deste ano, os atuais modelos de IA generativa mainstream são gerados com entradas como ruído aleatório, esboços ou imagens de baixa resolução ou de outra forma corrompidas, mapeadas para saídas (geralmente imagens naturais) correspondentes a uma determinada distribuição de dados de destino. No caso de um modelo de difusão, a distribuição de dados de destino é aprendida durante o treinamento e, em seguida, o "denoised" é realizado em várias etapas.
A equipe de pesquisa do Google criou um novo modelo generativo chamado Idempotent Generation Network (IGN) para gerar uma imagem adequada a partir de qualquer forma de entrada, idealmente em uma única etapa. O modelo pode ser pensado como uma espécie de "projetor global" que projeta quaisquer dados de entrada na distribuição de dados de destino, ao contrário de outros algoritmos de modelo existentes, e não está limitado a uma entrada específica.
Kai-Fu Lee's AI company "Zero One Everything" modelo de código aberto Yi grande modelo é acusado de plagiar LLaMA
De acordo com a IT Home em 14 de novembro, Kai-Fu Lee, presidente e CEO da Sinovation Works, fundou a empresa startup de modelos grandes de IA "Zero One Everything" este ano, que lançou dois grandes modelos de código aberto, Yi-34 B e Yi-6 B, alegando estar completamente aberto à pesquisa acadêmica e aplicações comerciais gratuitas ao mesmo tempo. No entanto, na página inicial de código aberto Hugging Face do Yi-34 B, o desenvolvedor ehartford questionou que o modelo usa a arquitetura do Meta LLaMA, com apenas dois nomes tensores modificados, input_layernorm e post_attention_layernorm.
Além disso, há um círculo de amigos de Jia Yangqing, o ex-cientista-chefe de IA do Alibaba, circulando na Internet hoje, que diz que "o novo modelo de um grande fabricante nacional é exatamente a arquitetura do LLaMA, mas para representar a diferença, a nomenclatura no código foi alterada de LLaMA para seu nome, e então mudou o nome de várias variáveis".
Zero Uma Coisa Responde à Controvérsia: O grande modelo desenvolvido é baseado na estrutura madura do GPT, e muito trabalho foi feito na compreensão do modelo e treinamento
De acordo com um relatório do Science and Technology Innovation Board Daily em 14 de novembro, o modelo de código aberto da empresa de IA Zero One Everything de Kai-Fu Lee foi acusado de usar a arquitetura LLaMA inteiramente e apenas modificar os nomes de dois tensores. A este respeito, Zero One Everything disse: GPT é uma arquitetura madura reconhecida pela indústria, e Llama resumiu sobre GPT. O projeto estrutural do modelo de pesquisa e desenvolvimento é baseado na estrutura madura do GPT, com base nas principais realizações públicas da indústria, porque o desenvolvimento da tecnologia de modelo de grande porte ainda está no estágio muito inicial, a estrutura que é consistente com o mainstream da indústria é mais propícia para a adaptação geral e iteração futura. Ao mesmo tempo, a equipa 0100000 World tem feito muito trabalho na compreensão de modelos e formação, e também continua a explorar os avanços essenciais ao nível da estrutura do modelo.
Zhang Yueguang, o chefe do produto da câmera Miao Ya, renunciou, e a popularidade dos aplicativos de IA de celebridades da Internet esfriou
De acordo com um relatório do Tech Planet em 13 de novembro, Zhang Yueguang, o chefe do produto de câmera Miao Ya da Ali Da Entertainment, deixou seu posto, e participou do planejamento dos projetos "Jiwufu" e "Xiuyixi" do Festival de primavera do Alipay, e trabalhou na Byte, Ali e outras empresas.
Miao Ya câmera é um produto AIGC que está fora do círculo no nível C-end, desde que você carregue mais de 20 fotos contendo rostos, pague 9,9 yuan, e depois escolha o modelo e a forma que você gosta, você pode fazer seu próprio "clone digital", de modo a obter um trabalho fotográfico. Miao Ya câmera "dominou" a lista de produtos de aplicação por um período de tempo, mas o ranking subsequente caiu todo o caminho. Em 13 de novembro, os dados mais recentes da Qimai mostram que a lista "social" do iOS da Miao Ya Camera ocupa a 64ª posição. Atualmente, a forma de formar uma procura a longo prazo de produtos AIGC tornou-se um problema difícil a nível do mercado.
A startup de IA Silo AI lança o modelo de linguagem de código aberto "Poro" para a Europa, abrangendo 24 línguas na UE
A Silo AI, uma startup de inteligência artificial com sede em Helsínquia, na Finlândia, lançou esta semana um novo modelo de linguagem de código aberto "Poro" que visa aumentar as capacidades de IA multilingue das línguas europeias, informou a VentureBeat. Poro é o primeiro modelo de código aberto no plano para eventualmente cobrir todas as 24 línguas oficiais da União Europeia. Os modelos foram desenvolvidos pela Silo AI's SiloGen Generative AI Unit e pelo grupo de pesquisa TurkuNLP da Universidade de Turku.
Com 34,2 bilhões de parâmetros, o modelo Poro 34B é nomeado após a palavra finlandesa para "renas". Ele foi treinado em uma partição de um conjunto de dados multilíngue de token de 21 trilhões que abrange inglês, finlandês e linguagens de programação como Python e Java.
Peter Sarlin, CEO da Silo AI, disse que o Poro foi projetado para resolver o principal desafio do treinamento com desempenho superior para idiomas com poucos recursos na Europa, como o finlandês. Ao alavancar métodos de treinamento entre idiomas, os modelos são capazes de aproveitar dados de idiomas com recursos elevados, como o inglês.
Grupo Rakuten faz parceria com OpenAI para lançar plataforma Rakuten AI for Business
Em 14 de novembro, o Rakuten Group anunciou uma cooperação estratégica com a OpenAI e lançou uma nova plataforma de inteligência artificial, Rakuten AI for Business. É relatado que a plataforma suporta uma variedade de funções essenciais de negócios, incluindo marketing, vendas, suporte ao cliente, operações, planejamento estratégico e engenharia, e atualmente está disponível apenas por convite, com planos de expandir o escopo de serviços em 2024 e além.
Pesquisa: Empresas de IA enfrentam crise de esgotamento de dados de treinamento, dados de alta qualidade se esgotarão até 2026
Rita Matulionyte, professora de direito da tecnologia da informação na Universidade Macquarie, na Austrália, observou em um artigo na revista The Conversation que os pesquisadores de IA têm soado o alarme sobre a escassez de fornecimento de dados há quase um ano, conforme relatado pela Webmaster's House em 14 de novembro. De acordo com um estudo do grupo de previsão de inteligência artificial da Epoch AI no ano passado, as empresas de IA podem ficar sem dados de treinamento de texto de alta qualidade até 2026, enquanto os dados de texto e imagem de baixa qualidade podem ser esgotados entre 2030 e 2060.
Para empresas de IA ávidas por dados, o treinamento com dados sintéticos gerados por modelos de IA pode não ser uma solução viável. A pesquisa mostrou que treinar um modelo de IA para usar conteúdo gerado por IA pode levar a um efeito de deformidade intrínseco no modelo, tornando a saída confusa e bizarra. Diante desse problema potencial, a menos que existam fazendas de conteúdo humano em grande escala, a solução pode estar em parcerias de dados. Isso significa que empresas ou instituições com dados abundantes e de alta qualidade celebram acordos com empresas de IA para trocar dados em troca de dinheiro.
Unicórnio tecnológico vietnamita VNG planeja lançar serviço de IA semelhante ao ChatGPT
A startup vietnamita de jogos VNG planeja lançar um serviço de IA semelhante ao ChatGPT adaptado para usuários de língua vietnamita, conforme relatado pelo Nikkei Asia em 14 de novembro. O unicórnio de tecnologia, apoiado pela Tencent e pelo Ant Financial Group do Alibaba, já tem um aplicativo de bate-papo que é mais popular do que o Facebook em seu mercado doméstico, e recentemente adicionou um recurso de tradução. A VNG diz que o próximo passo será adicionar recursos gerados por IA que permitirão aos usuários fazer tudo, desde compor e-mails até encontrar respostas para consultas.
Fontes dizem que a OpenAI está tentando roubar o talento de IA do Google com um pacote de compensação de US$ 10 milhões
A OpenAI está em uma guerra por talentos com o Google, que está atraindo alguns dos melhores pesquisadores do Google com pacotes de remuneração multimilionários, bem como recursos tecnológicos de alto nível, como chips aceleradores de IA para executar testes, de acordo com a IT House, citando o The Information.
AIGC Leitura Recomendada:
"O chip de treinamento de modelo mais poderoso H200 lançado!141G grande memória, inferência AI até 90%, também compatível com H100"
Nvidia Lao Huang explodiu novamente com uma nova geração de chips GPUH200. O site oficial disse sem cerimônia: "A GPU mais poderosa do mundo, construída para IA e supercomputação". Ouvi dizer que todas as empresas de IA reclamam da falta de memória? Desta vez, a memória grande é diretamente 141GB, que é diretamente aumentada em 76% em comparação com os 80GB de H100. Como a primeira GPU a ser equipada com memória HBM3e, a largura de banda da memória também foi aumentada de 3,35 TB/s para 4,8 TB/s, um aumento de 43%. O que isso significa para a IA?
"Musk's ChatGPT "Grok", como funciona?
Atualmente, o Grok ainda está em fase beta inicial e só está disponível para um pequeno número de usuários nos Estados Unidos, e aqueles que quiserem participar também podem se inscrever através do site xAI, mas em um futuro próximo, o Grok estará disponível para todos os usuários "X Premium +" na plataforma X. Então, o que há de tão especial no Grok em comparação com assistentes de IA como o ChatGPT?
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
AI New Intelligence Circle丨Daily Must Read: Nvidia B100 AI chip será lançado no próximo ano, Alibaba Intelligent Information Business Group lançou modelo quark large
Resumo: O Alibaba Intelligent Information Business Group lançou oficialmente um modelo de quark grande de parâmetros de nível 100 bilhões totalmente desenvolvido, que será aplicado à pesquisa geral, medicina e saúde, educação e aprendizagem, escritório no local de trabalho e outros cenários. A Nvidia revelou recentemente que a GPU B100 da arquitetura Blackwell lançada em 2024 superará as A100, H100 e H200 em termos de benchmarks de desempenho de inferência GPT-3 175B, e seu desempenho de desempenho de IA será mais do que o dobro da GPU H200 da arquitetura Hopper.
Notícias quentes:
NVIDIA: B100 será lançado no próximo ano, desempenho de IA mais do que duas vezes melhor do que H200
De acordo com um relatório do "Science and Technology Innovation Board Daily" em 14 de novembro, a Nvidia revelou recentemente que a GPU B100 da arquitetura Blackwell lançada em 2024 superará A100, H100 e H200 em termos de benchmark de desempenho de inferência GPT-3 175B, e seu desempenho de IA será mais do que o dobro da GPU H200 da arquitetura Hopper. O mercado espera que a Nvidia confie a TSMC às GPUs OEM Blackwell com um processo de 3nm, e a Nvidia planeja adiantar o ponto de tempo de produção para o segundo trimestre de 2024. A GPU Blackwell será o primeiro acelerador HPC/AI da NVIDIA projetado com chiplets.
Alibaba Intelligent Information Business Group lança 100 bilhões de parâmetros Quark Large Model
De acordo com um relatório da Financial Associated Press em 14 de novembro, o grupo de negócios de informação inteligente do Alibaba lançou oficialmente um modelo de quark grande de parâmetros de nível 100 bilhões totalmente desenvolvido, que será aplicado à pesquisa geral, saúde médica, educação e aprendizagem, escritório no local de trabalho e outros cenários, e o aplicativo quark também será totalmente atualizado com a ajuda deste grande modelo.
CEO da OpenAI: Modelo de IA de próxima geração GPT-5 já está em treinamento e precisa de mais dados
De acordo com um relatório da AI New Intelligence em 14 de novembro, o CEO da OpenAI, Sam Altman, revelou recentemente mais dos próximos passos da OpenAI em uma entrevista ao FT. Altman disse que a empresa está desenvolvendo a próxima geração do modelo de IA, GPT-5. Mas ele não se comprometeu a divulgar o cronograma. Altman diz que isso exigirá mais dados para treinar, que virão de conjuntos de dados publicamente disponíveis na internet, bem como dados proprietários da empresa. A OpenAI lançou recentemente um apelo para conjuntos de dados em grande escala, especialmente aqueles que "não são publicamente e facilmente acessíveis na internet hoje", especialmente escrita de forma longa ou conversas em qualquer formato.
Altman também disse que, para treinar seus modelos, a OpenAI, como a maioria das outras grandes empresas de IA, usa os avançados chips H100 da Nvidia. Ele mencionou que houve "tensões sérias" este ano devido à escassez de chips da Nvidia. No entanto, enquanto outras empresas como Google, Microsoft, AMD e Intel se preparam para lançar chips de IA rivais, a dependência da Nvidia pode não durar muito tempo.
Além disso, apesar do sucesso do consumidor da OpenAI, Altman disse que a empresa busca progredir na construção de inteligência geral artificial. Ele argumenta que os grandes modelos de linguagem (LLMs), os modelos que sustentam o ChatGPT, são "uma das partes centrais da construção do AGI, mas há muitas outras partes em cima dele". Ele também destacou a importância da linguagem como compressão de informações, um fator que ele acredita que empresas como o Google DeepMind estão negligenciando.
Google e UC Berkeley lançam uma nova abordagem de IA generativa, "Idempotent Generative Network", que pode gerar imagens fotorrealistas em uma única etapa
De acordo com um relatório da IT House em 14 de novembro, o Google recentemente se uniu à Universidade da Califórnia, Berkeley (UC Berkeley) para desenvolver um novo método de IA generativa chamado "Idempotent Generative Network (IGN)" que pode substituir modelos de difusão.
Incluindo redes generativas adversariais (GANs), modelos de difusão e modelos de consistência lançados pela OpenAI em março deste ano, os atuais modelos de IA generativa mainstream são gerados com entradas como ruído aleatório, esboços ou imagens de baixa resolução ou de outra forma corrompidas, mapeadas para saídas (geralmente imagens naturais) correspondentes a uma determinada distribuição de dados de destino. No caso de um modelo de difusão, a distribuição de dados de destino é aprendida durante o treinamento e, em seguida, o "denoised" é realizado em várias etapas.
A equipe de pesquisa do Google criou um novo modelo generativo chamado Idempotent Generation Network (IGN) para gerar uma imagem adequada a partir de qualquer forma de entrada, idealmente em uma única etapa. O modelo pode ser pensado como uma espécie de "projetor global" que projeta quaisquer dados de entrada na distribuição de dados de destino, ao contrário de outros algoritmos de modelo existentes, e não está limitado a uma entrada específica.
Kai-Fu Lee's AI company "Zero One Everything" modelo de código aberto Yi grande modelo é acusado de plagiar LLaMA
De acordo com a IT Home em 14 de novembro, Kai-Fu Lee, presidente e CEO da Sinovation Works, fundou a empresa startup de modelos grandes de IA "Zero One Everything" este ano, que lançou dois grandes modelos de código aberto, Yi-34 B e Yi-6 B, alegando estar completamente aberto à pesquisa acadêmica e aplicações comerciais gratuitas ao mesmo tempo. No entanto, na página inicial de código aberto Hugging Face do Yi-34 B, o desenvolvedor ehartford questionou que o modelo usa a arquitetura do Meta LLaMA, com apenas dois nomes tensores modificados, input_layernorm e post_attention_layernorm.
Além disso, há um círculo de amigos de Jia Yangqing, o ex-cientista-chefe de IA do Alibaba, circulando na Internet hoje, que diz que "o novo modelo de um grande fabricante nacional é exatamente a arquitetura do LLaMA, mas para representar a diferença, a nomenclatura no código foi alterada de LLaMA para seu nome, e então mudou o nome de várias variáveis".
Zero Uma Coisa Responde à Controvérsia: O grande modelo desenvolvido é baseado na estrutura madura do GPT, e muito trabalho foi feito na compreensão do modelo e treinamento
De acordo com um relatório do Science and Technology Innovation Board Daily em 14 de novembro, o modelo de código aberto da empresa de IA Zero One Everything de Kai-Fu Lee foi acusado de usar a arquitetura LLaMA inteiramente e apenas modificar os nomes de dois tensores. A este respeito, Zero One Everything disse: GPT é uma arquitetura madura reconhecida pela indústria, e Llama resumiu sobre GPT. O projeto estrutural do modelo de pesquisa e desenvolvimento é baseado na estrutura madura do GPT, com base nas principais realizações públicas da indústria, porque o desenvolvimento da tecnologia de modelo de grande porte ainda está no estágio muito inicial, a estrutura que é consistente com o mainstream da indústria é mais propícia para a adaptação geral e iteração futura. Ao mesmo tempo, a equipa 0100000 World tem feito muito trabalho na compreensão de modelos e formação, e também continua a explorar os avanços essenciais ao nível da estrutura do modelo.
Zhang Yueguang, o chefe do produto da câmera Miao Ya, renunciou, e a popularidade dos aplicativos de IA de celebridades da Internet esfriou
De acordo com um relatório do Tech Planet em 13 de novembro, Zhang Yueguang, o chefe do produto de câmera Miao Ya da Ali Da Entertainment, deixou seu posto, e participou do planejamento dos projetos "Jiwufu" e "Xiuyixi" do Festival de primavera do Alipay, e trabalhou na Byte, Ali e outras empresas.
Miao Ya câmera é um produto AIGC que está fora do círculo no nível C-end, desde que você carregue mais de 20 fotos contendo rostos, pague 9,9 yuan, e depois escolha o modelo e a forma que você gosta, você pode fazer seu próprio "clone digital", de modo a obter um trabalho fotográfico. Miao Ya câmera "dominou" a lista de produtos de aplicação por um período de tempo, mas o ranking subsequente caiu todo o caminho. Em 13 de novembro, os dados mais recentes da Qimai mostram que a lista "social" do iOS da Miao Ya Camera ocupa a 64ª posição. Atualmente, a forma de formar uma procura a longo prazo de produtos AIGC tornou-se um problema difícil a nível do mercado.
A startup de IA Silo AI lança o modelo de linguagem de código aberto "Poro" para a Europa, abrangendo 24 línguas na UE
A Silo AI, uma startup de inteligência artificial com sede em Helsínquia, na Finlândia, lançou esta semana um novo modelo de linguagem de código aberto "Poro" que visa aumentar as capacidades de IA multilingue das línguas europeias, informou a VentureBeat. Poro é o primeiro modelo de código aberto no plano para eventualmente cobrir todas as 24 línguas oficiais da União Europeia. Os modelos foram desenvolvidos pela Silo AI's SiloGen Generative AI Unit e pelo grupo de pesquisa TurkuNLP da Universidade de Turku.
Com 34,2 bilhões de parâmetros, o modelo Poro 34B é nomeado após a palavra finlandesa para "renas". Ele foi treinado em uma partição de um conjunto de dados multilíngue de token de 21 trilhões que abrange inglês, finlandês e linguagens de programação como Python e Java.
Peter Sarlin, CEO da Silo AI, disse que o Poro foi projetado para resolver o principal desafio do treinamento com desempenho superior para idiomas com poucos recursos na Europa, como o finlandês. Ao alavancar métodos de treinamento entre idiomas, os modelos são capazes de aproveitar dados de idiomas com recursos elevados, como o inglês.
Grupo Rakuten faz parceria com OpenAI para lançar plataforma Rakuten AI for Business
Em 14 de novembro, o Rakuten Group anunciou uma cooperação estratégica com a OpenAI e lançou uma nova plataforma de inteligência artificial, Rakuten AI for Business. É relatado que a plataforma suporta uma variedade de funções essenciais de negócios, incluindo marketing, vendas, suporte ao cliente, operações, planejamento estratégico e engenharia, e atualmente está disponível apenas por convite, com planos de expandir o escopo de serviços em 2024 e além.
Pesquisa: Empresas de IA enfrentam crise de esgotamento de dados de treinamento, dados de alta qualidade se esgotarão até 2026
Rita Matulionyte, professora de direito da tecnologia da informação na Universidade Macquarie, na Austrália, observou em um artigo na revista The Conversation que os pesquisadores de IA têm soado o alarme sobre a escassez de fornecimento de dados há quase um ano, conforme relatado pela Webmaster's House em 14 de novembro. De acordo com um estudo do grupo de previsão de inteligência artificial da Epoch AI no ano passado, as empresas de IA podem ficar sem dados de treinamento de texto de alta qualidade até 2026, enquanto os dados de texto e imagem de baixa qualidade podem ser esgotados entre 2030 e 2060.
Para empresas de IA ávidas por dados, o treinamento com dados sintéticos gerados por modelos de IA pode não ser uma solução viável. A pesquisa mostrou que treinar um modelo de IA para usar conteúdo gerado por IA pode levar a um efeito de deformidade intrínseco no modelo, tornando a saída confusa e bizarra. Diante desse problema potencial, a menos que existam fazendas de conteúdo humano em grande escala, a solução pode estar em parcerias de dados. Isso significa que empresas ou instituições com dados abundantes e de alta qualidade celebram acordos com empresas de IA para trocar dados em troca de dinheiro.
Unicórnio tecnológico vietnamita VNG planeja lançar serviço de IA semelhante ao ChatGPT
A startup vietnamita de jogos VNG planeja lançar um serviço de IA semelhante ao ChatGPT adaptado para usuários de língua vietnamita, conforme relatado pelo Nikkei Asia em 14 de novembro. O unicórnio de tecnologia, apoiado pela Tencent e pelo Ant Financial Group do Alibaba, já tem um aplicativo de bate-papo que é mais popular do que o Facebook em seu mercado doméstico, e recentemente adicionou um recurso de tradução. A VNG diz que o próximo passo será adicionar recursos gerados por IA que permitirão aos usuários fazer tudo, desde compor e-mails até encontrar respostas para consultas.
Fontes dizem que a OpenAI está tentando roubar o talento de IA do Google com um pacote de compensação de US$ 10 milhões
A OpenAI está em uma guerra por talentos com o Google, que está atraindo alguns dos melhores pesquisadores do Google com pacotes de remuneração multimilionários, bem como recursos tecnológicos de alto nível, como chips aceleradores de IA para executar testes, de acordo com a IT House, citando o The Information.
AIGC Leitura Recomendada:
"O chip de treinamento de modelo mais poderoso H200 lançado!141G grande memória, inferência AI até 90%, também compatível com H100"
Nvidia Lao Huang explodiu novamente com uma nova geração de chips GPUH200. O site oficial disse sem cerimônia: "A GPU mais poderosa do mundo, construída para IA e supercomputação". Ouvi dizer que todas as empresas de IA reclamam da falta de memória? Desta vez, a memória grande é diretamente 141GB, que é diretamente aumentada em 76% em comparação com os 80GB de H100. Como a primeira GPU a ser equipada com memória HBM3e, a largura de banda da memória também foi aumentada de 3,35 TB/s para 4,8 TB/s, um aumento de 43%. O que isso significa para a IA?
"Musk's ChatGPT "Grok", como funciona?
Atualmente, o Grok ainda está em fase beta inicial e só está disponível para um pequeno número de usuários nos Estados Unidos, e aqueles que quiserem participar também podem se inscrever através do site xAI, mas em um futuro próximo, o Grok estará disponível para todos os usuários "X Premium +" na plataforma X. Então, o que há de tão especial no Grok em comparação com assistentes de IA como o ChatGPT?