Na era atual de rápido desenvolvimento tecnológico, o ChatGPT da OpenAI tornou-se, sem dúvida, uma estrela brilhante no campo da inteligência artificial. No entanto, com o aumento no número de seus usuários, um problema que não pode ser ignorado surgiu gradualmente - uma escassez de poder de computação. Este não é apenas um desafio para a OpenAI, mas um problema para toda a indústria de IA.
Nesta análise aprofundada, exploraremos as causas profundas da escassez de poder de computação e como isso afeta o desenvolvimento de grandes modelos e o futuro da indústria. Ao mesmo tempo, também exploraremos possíveis maneiras de abordar essa questão, incluindo o desenvolvimento de GPUs domésticas e seu possível impacto no mercado global.
A falta de poder de computação tem assolado a OpenAI
A escassez de poder de computação sempre foi um problema espinhoso que a OpenAI tem que enfrentar em sua rápida ascensão. Recentemente, esta questão tornou-se mais proeminente devido a um incidente de grande visibilidade. A OpenAI realizou um evento de exposição em grande escala apelidado de "Gala do Festival da primavera de Ciência e Tecnologia", apresentando as últimas conquistas de sua tecnologia, que atraiu grande atenção em todo o mundo. Como resultado, uma enxurrada de usuários migraram para a plataforma da OpenAI, especialmente seu produto estrela, o ChatGPT.
No entanto, há um enorme desafio por trás dessa mania. O crescimento explosivo do número de usuários rapidamente excedeu a capacidade de computação da OpenAI. Apenas dois dias após a conferência, um fato chocante surgiu: o servidor ChatGPT caiu. Inúmeros internautas relataram que não conseguem usar as APIs fornecidas pelo ChatGPT e OpenAI normalmente.
Diante dessa crise, a OpenAI teve que tomar uma decisão que chocou o mercado: suspender o registro de novos usuários do ChatGPT Plus. O custo econômico por trás dessa decisão é enorme, com 100 milhões de novos usuários gerando US $ 2 bilhões em receita por mês para a OpenAI a uma taxa de assinatura mensal de US $ 20. Um benefício potencial tão grande, mas ter que desistir devido à escassez de poder de computação, é, sem dúvida, uma escolha extremamente passiva.
Na verdade, a escassez de poder de computação não é apenas um fenômeno recente. Desde o lançamento do ChatGPT, a questão do poder de computação tem sido uma sombra persistente. Por exemplo, em abril, o ChatGPT Plus também foi forçado a suspender a compra de itens pagos. Isso acontece de tempos em tempos, e parece ter se tornado uma norma no caminho do crescimento da OpenAI.
Esses eventos revelam um fato indiscutível: no contexto do atual desenvolvimento tecnológico, o poder de computação tornou-se um grande gargalo que limita a inovação tecnológica de IA e a expansão de aplicações comerciais. Para a OpenAI, este não é apenas um desafio técnico, mas também estratégico. Como encontrar um equilíbrio entre a demanda do mercado em rápida expansão e os recursos de computação limitados tornou-se um problema difícil para a OpenAI. Este desafio não se prende apenas com os lucros a curto prazo da empresa, mas também com a sua posição no mercado a longo prazo e a sua liderança tecnológica.
A família do proprietário não tem excedente de cereais
A OpenAI anunciou repetidamente que o poder de computação não é suficiente.
Você deve saber que a OpenAI é uma empresa estrela com grandes modelos, com enorme financiamento e um grande número de recursos de computação. Além disso, há também um "pai de ouro" da Microsoft, que fornece uma gama completa de suporte de poder de computação. A Microsoft tem o segundo maior recurso de computação em nuvem do mundo.
Deste ponto de vista, pode-se dizer que a OpenAI é o "senhorio" do poder de computação. Mas a realidade é que a família do senhorio não tem excedentes alimentares. Então, por que uma empresa com enorme financiamento e um forte apoio como a Microsoft entrou nessa situação?
Devemos reconhecer que a demanda por poder de computação para grandes modelos é sem precedentes. Esses modelos são baseados em centenas de bilhões de redes neurais, e cada computação é um enorme teste de poder de computação. Em termos simples, estamos agora confrontados com um novo nível de necessidades de computação que não foram correspondidas na história do desenvolvimento de software. Os recursos de computação tradicionais, como CPUs, não são suficientes aqui, e a GPU, que precisa ser confiada, é, sem dúvida, a linha de frente dessa revolução tecnológica.
O problema com as GPUs, no entanto, é que elas não são apenas produtos de tecnologia emergente, mas também enfrentam os desafios duplos de iteração de design e restrições de capacidade. Apesar da crescente demanda por GPUs no mundo da tecnologia, a capacidade mundial de fabricação de chips não acompanhou o ritmo. Os sistemas de fabricação e embalagem e teste de semicondutores existentes são projetados principalmente em torno de CPUs e, para as GPUs emergentes, eles obviamente não estão totalmente adaptados. Isso significa que ainda há um longo caminho a percorrer em termos de aumento da capacidade da GPU e adaptação às novas necessidades tecnológicas.
A tecnologia GPU continua a avançar, com cada nova geração se esforçando para melhorar o desempenho e a eficiência, o que requer investimento contínuo em pesquisa e desenvolvimento e inovação tecnológica. No entanto, esta iteração contínua da tecnologia também significa aumentar os custos de I&D, bem como aumentar a complexidade do processo de fabrico.
Além da questão da capacidade de produção, o custo das GPUs também é uma questão que não pode ser ignorada. Para construir um cluster de computação GPU que possa suportar modelos de computação em larga escala, é necessário não só tecnologia, mas também um enorme investimento de capital. Mesmo para um gigante da tecnologia como a OpenAI, este é um fardo significativo. Encontrar um equilíbrio entre custo e benefício é uma escolha difícil.
Se até mesmo a OpenAI está lutando com a escassez de poder de computação, o que acontecerá com outras empresas? Este não é apenas um desafio para a OpenAI, mas também um desafio para toda a indústria de IA. O que estamos testemunhando é uma grande mudança: uma mudança da computação tradicional para a computação orientada por IA. Nessa transformação, o poder de computação tornou-se o gargalo mais crítico.
Não podemos ignorar o facto de que esta escassez não aconteceu de um dia para o outro, mas é o resultado de um desfasamento entre os desenvolvimentos tecnológicos a longo prazo e a procura do mercado. As restrições de produção, o desenvolvimento tecnológico e as questões de custo dos chips GPU são multifacetados, envolvendo cadeias de suprimentos globais, inovações tecnológicas e modelos econômicos. Os requisitos de alto poder de computação de aplicativos de modelos grandes representam desafios sem precedentes para as arquiteturas de tecnologia existentes, forçando toda a indústria a repensar como projetar, construir e otimizar recursos de computação.
Quando o aplicativo B-end é ampliado, o problema da falta de poder de computação será mais sério
Há outra questão que é muito importante, mas que é fácil de ignorar.
Quando falamos sobre a escassez de poder de computação, geralmente nos concentramos na experiência atual do usuário do lado C. No entanto, esta é apenas a ponta do icebergue. Um problema ainda mais sério, mas muitas vezes negligenciado, espreita na escala das aplicações do lado B. No momento, embora grandes modelos como o ChatGPT sirvam principalmente aos usuários C-end, isso é apenas o começo. Com o crescimento gradual e a maturidade das aplicações B-end, enfrentaremos um aumento sem precedentes na demanda de poder de computação.
No mercado chinês, essa tendência já começa a surgir. Embora produtos como Baidu Wenxin Yiyan e Ali Tongyi Qianwen estejam atualmente servindo principalmente usuários C-end, sua exploração de aplicações B-end já está a caminho. Atualmente, a maioria destes produtos encontra-se na fase de desenvolvimento do produto, mas quando entrarem na fase comercial em grande escala, a situação será completamente diferente. A complexidade do negócio do lado B é muito maior do que a do lado C. No lado C, a interação do usuário com o sistema é geralmente tão simples quanto a execução de consultas ou comandos. No lado B, no entanto, cada processo de negócios pode envolver processos mais complexos de processamento de dados, análise e tomada de decisão. Estes processos não só exigem mais recursos de computação, mas também têm requisitos mais elevados para a qualidade e estabilidade do poder de computação.
O que é mais notável é que o consumo de energia de computação dos serviços B-end não se reflete apenas na complexidade de uma única interação, mas também na frequência das chamadas. No lado B, a aplicação de modelos grandes tende a ser contínua e de alta frequência, em contraste com a consulta e uso ocasionais no lado C. Por exemplo, em setores como finanças, saúde e manufatura, grandes modelos precisam processar continuamente grandes quantidades de dados para fornecer análise em tempo real e suporte à decisão. Esse tipo de demanda de computação de alta frequência e alta carga coloca uma enorme pressão sobre o poder de computação.
É previsível que, com a popularização de grandes modelos no lado B, sua demanda por poder de computação ultrapasse rapidamente a do lado C. Esta mudança pode ser subtil, mas o seu impacto é de longo alcance. Por um lado, o aumento da demanda por poder de computação impulsionará o desenvolvimento de tecnologias relacionadas, como GPUs mais eficientes e arquiteturas de computação mais otimizadas. Por outro lado, terá também um impacto significativo na afetação de recursos, na estrutura de custos e no modelo de negócio da indústria no seu conjunto.
No processo, podemos ver algumas empresas forçadas a sair do mercado porque não podem arcar com esse custo de poder de computação, ou podemos ver algumas empresas se destacarem com tecnologias avançadas de gerenciamento e otimização de energia de computação.
A China está enfrentando um duplo gargalo de poder de computação
Globalmente, a escassez de poder de computação tornou-se um grande gargalo no desenvolvimento da inteligência artificial e, para a China, esse desafio é particularmente grave. As empresas de modelos de grande escala da China têm de lidar não só com a escassez global de poder de computação ("desastres naturais"), mas também com restrições únicas de oferta de mercado ("desastres provocados pelo homem"), o que torna as perspetivas de desenvolvimento da China no campo dos grandes modelos complexas e desafiadoras.
Temos de reconhecer as limitações das empresas-modelo de grande escala da China em termos de recursos informáticos. Embora empresas como Baidu, Alibaba, ByteDance, Tencent e Huawei tenham feito conquistas notáveis no desenvolvimento de grandes modelos, os desafios de computação que enfrentam são reais e urgentes. Atualmente, devido à falta geral de desenvolvimento da indústria global de GPUs, as empresas chinesas têm encontrado grandes obstáculos na obtenção de recursos de computação suficientes. Este tipo de problema do tipo "catástrofe natural" é o único caminho para o desenvolvimento tecnológico e a modernização industrial, e leva tempo e enorme investimento para resolver.
O que é mais complicado é que as empresas de modelos de grande escala da China também estão enfrentando "desastres causados pelo homem" do mercado internacional - especialmente as restrições de fornecimento de gigantes internacionais como a Nvidia para o mercado chinês. Esta restrição de política afetou diretamente a capacidade das empresas chinesas de obter chips GPU high-end, exacerbando assim a escassez de recursos de computação. Esta dupla restrição acrescentou, sem dúvida, incertezas e desafios adicionais ao desenvolvimento das empresas-modelo de grande escala da China.
Atualmente, embora o número de usuários de produtos como Wenxin Yiyan do Baidu e Tongyi Qianwen do Alibaba não tenha atingido a escala de 100 milhões do ChatGPT, isso não significa que as empresas chinesas possam lidar facilmente com os desafios de computação existentes. Com o desenvolvimento desses produtos e a expansão do mercado, especialmente quando eles começam a ser amplamente utilizados no mercado B-end, a demanda por poder de computação aumentará drasticamente. Neste momento, o problema da falta de poder de computação se tornará mais proeminente, o que pode restringir seriamente o desenvolvimento da grande indústria de modelos da China.
A longo prazo, se a China não conseguir lidar eficazmente com este duplo estrangulamento informático, então o desenvolvimento da sua grande indústria de modelos poderá ser limitado a um nível baixo. Isso não só afetará a competitividade do mercado interno, mas também limitará a influência da China no campo da inteligência artificial em escala global. Portanto, resolver o problema da escassez de poder de computação é crucial para o desenvolvimento futuro da grande indústria de modelos da China, que não é apenas uma questão técnica, mas também uma questão estratégica, que está relacionada com a posição e o futuro da China na competição global de IA.
Em meio aos desafios de computação dupla que a China enfrenta, houve alguns sinais positivos encorajadores recentemente, especialmente no desenvolvimento de GPUs domésticas. As principais empresas de tecnologia domésticas, como Baidu, Alibaba, 360, etc., começaram a cooperar com fabricantes nacionais de GPUs, como a Huawei.
O aumento das GPUs domésticas é de grande importância para resolver o problema da escassez de energia de computação na China. Se essas GPUs domésticas puderem ser comparáveis à líder do setor NVIDIA em termos de desempenho, e o gargalo no nível de fabricação for efetivamente resolvido, isso trará oportunidades sem precedentes para a grande indústria de modelos da China. Historicamente, uma vez que uma tecnologia nacional amadurece, ela geralmente pode entrar no mercado a um preço mais competitivo. Isso significa que, se as GPUs domésticas puderem ser bem-sucedidas, elas provavelmente oferecerão desempenho semelhante ou até melhor a um preço muito mais baixo do que as marcas internacionais.
Esta vantagem de custo não só aliviará a atual escassez de poder de computação, mas também terá o potencial de revolucionar o cenário do mercado. Atualmente, o preço caro das GPUs tem sido um fator importante que limita a popularidade e a aplicação da tecnologia de grandes modelos. Se as GPUs domésticas puderem fornecer poder de computação de alto desempenho a um preço mais baixo, isso promoverá muito a aplicação da tecnologia de grandes modelos em todas as esferas da vida e acelerará o desenvolvimento da China no campo da inteligência artificial.
Mais importante ainda, este desenvolvimento pode permitir à China "transformar a derrota em vitória" na corrida global da IA. Em termos de poder de computação e aplicações de modelos em larga escala, a China pode não só recuperar o atraso, mas até ultrapassar países líderes como os Estados Unidos.
Claro, tudo isso ainda está no início do desenvolvimento, e o sucesso das GPUs domésticas ainda precisa superar os desafios técnicos. No entanto, houve sinais positivos de que a China deu passos sólidos no caminho para a autonomia computacional. Nos próximos anos, espera-se que testemunhemos a maturidade e a aplicação em larga escala da tecnologia de GPU doméstica, e como ela promoverá o rápido desenvolvimento da indústria de grandes modelos da China.
Em resumo, na jornada de explorar o desafio global da escassez de poder de computação, não apenas testemunhamos o avanço contínuo das fronteiras tecnológicas, mas também experimentamos profundamente os complexos desafios enfrentados pelo desenvolvimento da indústria. Da história da OpenAI ao duplo dilema das empresas de modelos de grande escala da China, à ascensão da tecnologia de GPU doméstica, tudo isso revela uma verdade central: o poder de computação tornou-se um recurso estratégico fundamental no caminho de desenvolvimento futuro da inteligência artificial. Não se trata apenas de uma competição a nível técnico, mas também de um investimento e de uma configuração das forças científicas e tecnológicas globais para o futuro.
Olhando para o futuro, com os avanços tecnológicos e a evolução das exigências do mercado, temos razões para acreditar que o problema da falta de poder de computação acabará por ser resolvido. Neste processo, a inovação, a cooperação e o ajustamento estratégico serão os temas-chave que todos os participantes terão de enfrentar. Em última análise, este desafio de poder de computação definirá o futuro da tecnologia de IA e moldará o nosso mundo digital.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
A OpenAI está paralisada, a tecnologia negra da China pode salvar a IA global?
Fonte original: Data Ape
Na era atual de rápido desenvolvimento tecnológico, o ChatGPT da OpenAI tornou-se, sem dúvida, uma estrela brilhante no campo da inteligência artificial. No entanto, com o aumento no número de seus usuários, um problema que não pode ser ignorado surgiu gradualmente - uma escassez de poder de computação. Este não é apenas um desafio para a OpenAI, mas um problema para toda a indústria de IA.
Nesta análise aprofundada, exploraremos as causas profundas da escassez de poder de computação e como isso afeta o desenvolvimento de grandes modelos e o futuro da indústria. Ao mesmo tempo, também exploraremos possíveis maneiras de abordar essa questão, incluindo o desenvolvimento de GPUs domésticas e seu possível impacto no mercado global.
A falta de poder de computação tem assolado a OpenAI
A escassez de poder de computação sempre foi um problema espinhoso que a OpenAI tem que enfrentar em sua rápida ascensão. Recentemente, esta questão tornou-se mais proeminente devido a um incidente de grande visibilidade. A OpenAI realizou um evento de exposição em grande escala apelidado de "Gala do Festival da primavera de Ciência e Tecnologia", apresentando as últimas conquistas de sua tecnologia, que atraiu grande atenção em todo o mundo. Como resultado, uma enxurrada de usuários migraram para a plataforma da OpenAI, especialmente seu produto estrela, o ChatGPT.
No entanto, há um enorme desafio por trás dessa mania. O crescimento explosivo do número de usuários rapidamente excedeu a capacidade de computação da OpenAI. Apenas dois dias após a conferência, um fato chocante surgiu: o servidor ChatGPT caiu. Inúmeros internautas relataram que não conseguem usar as APIs fornecidas pelo ChatGPT e OpenAI normalmente.
Diante dessa crise, a OpenAI teve que tomar uma decisão que chocou o mercado: suspender o registro de novos usuários do ChatGPT Plus. O custo econômico por trás dessa decisão é enorme, com 100 milhões de novos usuários gerando US $ 2 bilhões em receita por mês para a OpenAI a uma taxa de assinatura mensal de US $ 20. Um benefício potencial tão grande, mas ter que desistir devido à escassez de poder de computação, é, sem dúvida, uma escolha extremamente passiva.
Na verdade, a escassez de poder de computação não é apenas um fenômeno recente. Desde o lançamento do ChatGPT, a questão do poder de computação tem sido uma sombra persistente. Por exemplo, em abril, o ChatGPT Plus também foi forçado a suspender a compra de itens pagos. Isso acontece de tempos em tempos, e parece ter se tornado uma norma no caminho do crescimento da OpenAI.
Esses eventos revelam um fato indiscutível: no contexto do atual desenvolvimento tecnológico, o poder de computação tornou-se um grande gargalo que limita a inovação tecnológica de IA e a expansão de aplicações comerciais. Para a OpenAI, este não é apenas um desafio técnico, mas também estratégico. Como encontrar um equilíbrio entre a demanda do mercado em rápida expansão e os recursos de computação limitados tornou-se um problema difícil para a OpenAI. Este desafio não se prende apenas com os lucros a curto prazo da empresa, mas também com a sua posição no mercado a longo prazo e a sua liderança tecnológica.
A família do proprietário não tem excedente de cereais
A OpenAI anunciou repetidamente que o poder de computação não é suficiente.
Você deve saber que a OpenAI é uma empresa estrela com grandes modelos, com enorme financiamento e um grande número de recursos de computação. Além disso, há também um "pai de ouro" da Microsoft, que fornece uma gama completa de suporte de poder de computação. A Microsoft tem o segundo maior recurso de computação em nuvem do mundo.
Deste ponto de vista, pode-se dizer que a OpenAI é o "senhorio" do poder de computação. Mas a realidade é que a família do senhorio não tem excedentes alimentares. Então, por que uma empresa com enorme financiamento e um forte apoio como a Microsoft entrou nessa situação?
Devemos reconhecer que a demanda por poder de computação para grandes modelos é sem precedentes. Esses modelos são baseados em centenas de bilhões de redes neurais, e cada computação é um enorme teste de poder de computação. Em termos simples, estamos agora confrontados com um novo nível de necessidades de computação que não foram correspondidas na história do desenvolvimento de software. Os recursos de computação tradicionais, como CPUs, não são suficientes aqui, e a GPU, que precisa ser confiada, é, sem dúvida, a linha de frente dessa revolução tecnológica.
O problema com as GPUs, no entanto, é que elas não são apenas produtos de tecnologia emergente, mas também enfrentam os desafios duplos de iteração de design e restrições de capacidade. Apesar da crescente demanda por GPUs no mundo da tecnologia, a capacidade mundial de fabricação de chips não acompanhou o ritmo. Os sistemas de fabricação e embalagem e teste de semicondutores existentes são projetados principalmente em torno de CPUs e, para as GPUs emergentes, eles obviamente não estão totalmente adaptados. Isso significa que ainda há um longo caminho a percorrer em termos de aumento da capacidade da GPU e adaptação às novas necessidades tecnológicas.
A tecnologia GPU continua a avançar, com cada nova geração se esforçando para melhorar o desempenho e a eficiência, o que requer investimento contínuo em pesquisa e desenvolvimento e inovação tecnológica. No entanto, esta iteração contínua da tecnologia também significa aumentar os custos de I&D, bem como aumentar a complexidade do processo de fabrico.
Além da questão da capacidade de produção, o custo das GPUs também é uma questão que não pode ser ignorada. Para construir um cluster de computação GPU que possa suportar modelos de computação em larga escala, é necessário não só tecnologia, mas também um enorme investimento de capital. Mesmo para um gigante da tecnologia como a OpenAI, este é um fardo significativo. Encontrar um equilíbrio entre custo e benefício é uma escolha difícil.
Se até mesmo a OpenAI está lutando com a escassez de poder de computação, o que acontecerá com outras empresas? Este não é apenas um desafio para a OpenAI, mas também um desafio para toda a indústria de IA. O que estamos testemunhando é uma grande mudança: uma mudança da computação tradicional para a computação orientada por IA. Nessa transformação, o poder de computação tornou-se o gargalo mais crítico.
Não podemos ignorar o facto de que esta escassez não aconteceu de um dia para o outro, mas é o resultado de um desfasamento entre os desenvolvimentos tecnológicos a longo prazo e a procura do mercado. As restrições de produção, o desenvolvimento tecnológico e as questões de custo dos chips GPU são multifacetados, envolvendo cadeias de suprimentos globais, inovações tecnológicas e modelos econômicos. Os requisitos de alto poder de computação de aplicativos de modelos grandes representam desafios sem precedentes para as arquiteturas de tecnologia existentes, forçando toda a indústria a repensar como projetar, construir e otimizar recursos de computação.
Quando o aplicativo B-end é ampliado, o problema da falta de poder de computação será mais sério
Há outra questão que é muito importante, mas que é fácil de ignorar.
Quando falamos sobre a escassez de poder de computação, geralmente nos concentramos na experiência atual do usuário do lado C. No entanto, esta é apenas a ponta do icebergue. Um problema ainda mais sério, mas muitas vezes negligenciado, espreita na escala das aplicações do lado B. No momento, embora grandes modelos como o ChatGPT sirvam principalmente aos usuários C-end, isso é apenas o começo. Com o crescimento gradual e a maturidade das aplicações B-end, enfrentaremos um aumento sem precedentes na demanda de poder de computação.
No mercado chinês, essa tendência já começa a surgir. Embora produtos como Baidu Wenxin Yiyan e Ali Tongyi Qianwen estejam atualmente servindo principalmente usuários C-end, sua exploração de aplicações B-end já está a caminho. Atualmente, a maioria destes produtos encontra-se na fase de desenvolvimento do produto, mas quando entrarem na fase comercial em grande escala, a situação será completamente diferente. A complexidade do negócio do lado B é muito maior do que a do lado C. No lado C, a interação do usuário com o sistema é geralmente tão simples quanto a execução de consultas ou comandos. No lado B, no entanto, cada processo de negócios pode envolver processos mais complexos de processamento de dados, análise e tomada de decisão. Estes processos não só exigem mais recursos de computação, mas também têm requisitos mais elevados para a qualidade e estabilidade do poder de computação.
O que é mais notável é que o consumo de energia de computação dos serviços B-end não se reflete apenas na complexidade de uma única interação, mas também na frequência das chamadas. No lado B, a aplicação de modelos grandes tende a ser contínua e de alta frequência, em contraste com a consulta e uso ocasionais no lado C. Por exemplo, em setores como finanças, saúde e manufatura, grandes modelos precisam processar continuamente grandes quantidades de dados para fornecer análise em tempo real e suporte à decisão. Esse tipo de demanda de computação de alta frequência e alta carga coloca uma enorme pressão sobre o poder de computação.
É previsível que, com a popularização de grandes modelos no lado B, sua demanda por poder de computação ultrapasse rapidamente a do lado C. Esta mudança pode ser subtil, mas o seu impacto é de longo alcance. Por um lado, o aumento da demanda por poder de computação impulsionará o desenvolvimento de tecnologias relacionadas, como GPUs mais eficientes e arquiteturas de computação mais otimizadas. Por outro lado, terá também um impacto significativo na afetação de recursos, na estrutura de custos e no modelo de negócio da indústria no seu conjunto.
No processo, podemos ver algumas empresas forçadas a sair do mercado porque não podem arcar com esse custo de poder de computação, ou podemos ver algumas empresas se destacarem com tecnologias avançadas de gerenciamento e otimização de energia de computação.
A China está enfrentando um duplo gargalo de poder de computação
Globalmente, a escassez de poder de computação tornou-se um grande gargalo no desenvolvimento da inteligência artificial e, para a China, esse desafio é particularmente grave. As empresas de modelos de grande escala da China têm de lidar não só com a escassez global de poder de computação ("desastres naturais"), mas também com restrições únicas de oferta de mercado ("desastres provocados pelo homem"), o que torna as perspetivas de desenvolvimento da China no campo dos grandes modelos complexas e desafiadoras.
Temos de reconhecer as limitações das empresas-modelo de grande escala da China em termos de recursos informáticos. Embora empresas como Baidu, Alibaba, ByteDance, Tencent e Huawei tenham feito conquistas notáveis no desenvolvimento de grandes modelos, os desafios de computação que enfrentam são reais e urgentes. Atualmente, devido à falta geral de desenvolvimento da indústria global de GPUs, as empresas chinesas têm encontrado grandes obstáculos na obtenção de recursos de computação suficientes. Este tipo de problema do tipo "catástrofe natural" é o único caminho para o desenvolvimento tecnológico e a modernização industrial, e leva tempo e enorme investimento para resolver.
O que é mais complicado é que as empresas de modelos de grande escala da China também estão enfrentando "desastres causados pelo homem" do mercado internacional - especialmente as restrições de fornecimento de gigantes internacionais como a Nvidia para o mercado chinês. Esta restrição de política afetou diretamente a capacidade das empresas chinesas de obter chips GPU high-end, exacerbando assim a escassez de recursos de computação. Esta dupla restrição acrescentou, sem dúvida, incertezas e desafios adicionais ao desenvolvimento das empresas-modelo de grande escala da China.
Atualmente, embora o número de usuários de produtos como Wenxin Yiyan do Baidu e Tongyi Qianwen do Alibaba não tenha atingido a escala de 100 milhões do ChatGPT, isso não significa que as empresas chinesas possam lidar facilmente com os desafios de computação existentes. Com o desenvolvimento desses produtos e a expansão do mercado, especialmente quando eles começam a ser amplamente utilizados no mercado B-end, a demanda por poder de computação aumentará drasticamente. Neste momento, o problema da falta de poder de computação se tornará mais proeminente, o que pode restringir seriamente o desenvolvimento da grande indústria de modelos da China.
A longo prazo, se a China não conseguir lidar eficazmente com este duplo estrangulamento informático, então o desenvolvimento da sua grande indústria de modelos poderá ser limitado a um nível baixo. Isso não só afetará a competitividade do mercado interno, mas também limitará a influência da China no campo da inteligência artificial em escala global. Portanto, resolver o problema da escassez de poder de computação é crucial para o desenvolvimento futuro da grande indústria de modelos da China, que não é apenas uma questão técnica, mas também uma questão estratégica, que está relacionada com a posição e o futuro da China na competição global de IA.
Em meio aos desafios de computação dupla que a China enfrenta, houve alguns sinais positivos encorajadores recentemente, especialmente no desenvolvimento de GPUs domésticas. As principais empresas de tecnologia domésticas, como Baidu, Alibaba, 360, etc., começaram a cooperar com fabricantes nacionais de GPUs, como a Huawei.
O aumento das GPUs domésticas é de grande importância para resolver o problema da escassez de energia de computação na China. Se essas GPUs domésticas puderem ser comparáveis à líder do setor NVIDIA em termos de desempenho, e o gargalo no nível de fabricação for efetivamente resolvido, isso trará oportunidades sem precedentes para a grande indústria de modelos da China. Historicamente, uma vez que uma tecnologia nacional amadurece, ela geralmente pode entrar no mercado a um preço mais competitivo. Isso significa que, se as GPUs domésticas puderem ser bem-sucedidas, elas provavelmente oferecerão desempenho semelhante ou até melhor a um preço muito mais baixo do que as marcas internacionais.
Esta vantagem de custo não só aliviará a atual escassez de poder de computação, mas também terá o potencial de revolucionar o cenário do mercado. Atualmente, o preço caro das GPUs tem sido um fator importante que limita a popularidade e a aplicação da tecnologia de grandes modelos. Se as GPUs domésticas puderem fornecer poder de computação de alto desempenho a um preço mais baixo, isso promoverá muito a aplicação da tecnologia de grandes modelos em todas as esferas da vida e acelerará o desenvolvimento da China no campo da inteligência artificial.
Mais importante ainda, este desenvolvimento pode permitir à China "transformar a derrota em vitória" na corrida global da IA. Em termos de poder de computação e aplicações de modelos em larga escala, a China pode não só recuperar o atraso, mas até ultrapassar países líderes como os Estados Unidos.
Claro, tudo isso ainda está no início do desenvolvimento, e o sucesso das GPUs domésticas ainda precisa superar os desafios técnicos. No entanto, houve sinais positivos de que a China deu passos sólidos no caminho para a autonomia computacional. Nos próximos anos, espera-se que testemunhemos a maturidade e a aplicação em larga escala da tecnologia de GPU doméstica, e como ela promoverá o rápido desenvolvimento da indústria de grandes modelos da China.
Em resumo, na jornada de explorar o desafio global da escassez de poder de computação, não apenas testemunhamos o avanço contínuo das fronteiras tecnológicas, mas também experimentamos profundamente os complexos desafios enfrentados pelo desenvolvimento da indústria. Da história da OpenAI ao duplo dilema das empresas de modelos de grande escala da China, à ascensão da tecnologia de GPU doméstica, tudo isso revela uma verdade central: o poder de computação tornou-se um recurso estratégico fundamental no caminho de desenvolvimento futuro da inteligência artificial. Não se trata apenas de uma competição a nível técnico, mas também de um investimento e de uma configuração das forças científicas e tecnológicas globais para o futuro.
Olhando para o futuro, com os avanços tecnológicos e a evolução das exigências do mercado, temos razões para acreditar que o problema da falta de poder de computação acabará por ser resolvido. Neste processo, a inovação, a cooperação e o ajustamento estratégico serão os temas-chave que todos os participantes terão de enfrentar. Em última análise, este desafio de poder de computação definirá o futuro da tecnologia de IA e moldará o nosso mundo digital.