A nova empresa de chips dos EUA Cerebras Systems deve avançar com um IPO usando o ticker CBRS. O diretor de pesquisa de ativos digitais da VanEck, Matthew Sigel, publicou recentemente um post afirmando que a Cerebras pode ser o IPO de semicondutores com mais atenção do mercado desde que a Arm abriu capital em 2023. Segundo Sigel, a Cerebras pretende vender 28 milhões de ações por US$ 115 a US$ 125 cada, levantando cerca de US$ 3,5 bilhões; já o VanEck Onchain Economy ETF (NODE), da VanEck, pediu aos underwriters uma “colocação total” para subscrição.
Vale notar que a VanEck não é a underwriter do IPO da Cerebras. O ponto do artigo de Sigel é que, como investidora, a VanEck quer obter cotas da distribuição do IPO, e não atuar como parte que garante a operação. Ele também revelou no fim do texto que a VanEck já apresentou um pedido para alocar ações no IPO da Cerebras e que pelo menos um profissional de investimentos da VanEck deteve ações da Cerebras no mercado privado; por isso, a VanEck tem interesse financeiro direto no preço e no resultado de emissão desse IPO.
Por que a Cerebras está sendo bem vista? OpenAI transfere rápido raciocínio das mãos da Nvidia
Matthew Sigel afirma que o modelo de negócios da Cerebras é completamente diferente do da Arm. O valor da Arm vem de licenças de arquitetura e royalties, crescendo em ritmo composto à medida que a arquitetura se infiltra em mais dispositivos; a Cerebras, por sua vez, é uma empresa de produto altamente focada, cujo produto central é um chip no nível de wafer, dedicado a resolver problemas de velocidade do AI inference (inferência).
Sigel aponta que o mercado de infraestrutura de IA está se dividindo em duas frentes: de um lado, cargas de trabalho de treinamento e inferência com foco em cluster de GPUs, buscando processamento em lote e throughput; do outro, um mercado de inferência extremamente sensível a latência, como AI agents, assistentes de código, aplicações em tempo real e produtos altamente interativos. Nessa última frente, a velocidade de inferência não é apenas questão de custo — ela afeta diretamente a experiência do usuário, a capacidade de precificação do produto e a taxa de retenção.
Ele cita o que disse o CEO da Cerebras, Andrew Feldman: “É bem claro que a NVIDIA não quer perder o negócio de quick inference (rápida inferência) da OpenAI, e nós tiramos essa parte deles.”
Sigel acredita que essa frase destaca o significado estratégico da Cerebras: se a demanda de inferência de baixa latência da OpenAI começar a ser atendida pela Cerebras, o CBRS pode deixar de ser apenas mais uma empresa de infraestrutura de IA e virar um termômetro de uma “nova categoria de hardware”.
A Cerebras coloca modelos dentro do chip em SRAM, contornando o gargalo de largura de banda de memória da GPU
Sigel resume a vantagem técnica da Cerebras como “chip no nível de wafer” e “SRAM no chip” (on-chip). Diferente de clusters tradicionais de GPU, que precisam mover dados entre várias peças de chips e uma memória externa, o design da Cerebras permite que o modelo permaneça em grande quantidade dentro da SRAM do próprio chip, reduzindo o gargalo de largura de banda da memória e as oscilações de latência.
De acordo com Sigel, isso permite à Cerebras superar em até 15 vezes a solução de GPU em velocidade de inferência, além de entregar um desempenho de latência mais estável e previsível. Para AI agents, assistentes de coding em tempo real, interação por voz, serviços de busca e inferência de baixa latência, uma “latência determinística” desse tipo tende a se tornar cada vez mais valiosa.
Ele também menciona que a liderança da Cerebras já reajustou preços por excesso de demanda, o que indica que o problema principal da empresa não é falta de demanda, e sim restrição de oferta.
A OpenAI vira a maior base: contrato de US$ 20 bilhões sustenta piso de receita
O principal argumento de investimento do artigo de Sigel é o contrato de longo prazo assinado entre a Cerebras e a OpenAI.
Segundo ele, o acordo entre Cerebras e OpenAI é um take-or-pay de US$ 20 bilhões, cobrindo capacidade de 750MW até 2028; a OpenAI também tem uma opção para expandir a capacidade para cerca de 2GW, com valor adicional de contrato de cerca de US$ 34 bilhões, a um preço de aproximadamente US$ 27 milhões por MW.
Sigel afirma que esse contrato é sustentado por uma estrutura com empréstimo de capital de giro de US$ 1 bilhão e warrants, formando a base do fluxo de receita futuro da Cerebras. A RPO atual da Cerebras — ou seja, obrigações remanescentes de desempenho — é de cerca de US$ 24,6 bilhões. A empresa espera reconhecer cerca de 15% no total entre 2026 e 2027, o que equivale a cerca de US$ 3,7 bilhões; e reconhecer mais 43% entre 2028 e 2029, o que equivale a cerca de US$ 10,6 bilhões.
Codex Spark como proxy de uso da OpenAI
Sigel também comenta que investidores externos não conseguem observar diretamente a taxa de utilização da capacidade da Cerebras, então ele vê o Codex Spark da OpenAI como o proxy público mais próximo.
De acordo com ele, o Codex Spark é uma versão de baixa latência do Codex coding agent da OpenAI, rodando na infraestrutura da Cerebras. O produto tinha cerca de 600 mil usuários ativos em janeiro de 2026 e, até agora, já passou de 4 milhões. Em quatro meses, cresceu cerca de 7 vezes e, atualmente, ainda está disponível apenas para usuários do ChatGPT Pro.
Sigel acredita que, se o Spark for expandido para todos os usuários pagos do ChatGPT, a base potencial de usuários pode crescer de forma bem expressiva em pouco tempo. Isso não só elevaria a utilização da capacidade do contrato de 750MW como também aumentaria a probabilidade de a OpenAI exercer a opção de expansão adicional de 1,25GW.
AWS, Meta, Oracle e IBM também entram na lista de clientes da Cerebras
Além da OpenAI, Sigel também cita AWS, Meta, Oracle e IBM como parceiros importantes da Cerebras. A relação com a AWS é especialmente relevante, porque a Cerebras pode entrar no mercado de clientes empresariais via Amazon Bedrock, sem depender totalmente de uma equipe própria de vendas diretas.
Ele também menciona que a AWS fez um investimento acionário de US$ 270 milhões na Cerebras, e que a Meta pode usar a Cerebras para inferência do modelo Llama. Isso significa que, se a Cerebras conseguir comprovar que os cenários da OpenAI são escaláveis, ainda há chance de a empresa expandir no futuro a partir da base de um único grande cliente para demandas mais amplas de empresas e plataformas de nuvem.
ZK proof: Cerebras pode virar hardware de computação verificável para blockchain
Vale notar que Sigel, como diretor de pesquisas da VanEck, também interpreta a Cerebras especificamente pelo ângulo da economia on-chain.
Ele acredita que a arquitetura de chips da Cerebras tem uma grande quantidade de SRAM no chip, altíssima largura de banda de memória e capacidade de computação altamente paralelizável; por isso, ela não é adequada apenas para inferência de IA, mas também pode se tornar um acelerador de hardware para geração de zero-knowledge proof (ZK proof).
A ZK proof é uma tecnologia importante para escalabilidade de blockchain e computação verificável: é intensiva em computação e sensível à latência. Sigel diz que, à medida que verifiable compute caminhar para a instantaneidade, a Cerebras pode se encaixar naturalmente nesse tipo de carga de trabalho — e esse é um dos motivos pelos quais a VanEck Onchain Economy ETF (NODE) quer alocar em CBRS.
Sigel também reconhece que a Cerebras tem, atualmente, uma margem bruta baixa, abaixo de 40%, o que parece menor do que a faixa comum de 55% a 70% entre empresas de semicondutores e nuvem. No entanto, ele acredita que essa comparação não é totalmente justa.
O motivo é que a Cerebras não vende apenas chips; ela também pode oferecer implantação em nuvem, instalação de sistemas no ambiente do cliente e, inclusive, ajudar a construir capacidade de data center dedicado conforme a necessidade do cliente. Isso permite que a Cerebras capture valor econômico tanto na camada de chips quanto na de hosting, mas faz com que a margem bruta nos demonstrativos fique menor do que em empresas puramente de chips.
A premissa básica de Sigel é que, com a expansão de escala, melhora do custo do chip no nível de wafer e aumento da participação de software e serviços de nuvem, a margem bruta da Cerebras tem chance de chegar a cerca de 50% em 2030. No cenário otimista, como o backlog atual de US$ 24,6 bilhões deve ser aproveitado com uma margem bruta de aproximadamente 60%, a margem bruta da Cerebras pode até se aproximar de 60%.
Valuation caro, mas com três estruturas de alta: múltiplo de receita, TAM de inferência e valor por MW no mercado
Sigel não evita o problema de o valuation do IPO da Cerebras estar alto. Com base em US$ 125 por ação, a CBRS fica em cerca de 52 vezes a receita de 2025; e a avaliação retrospectiva não é barata.
Mas ele argumenta que, para uma empresa cuja receita futura pode crescer de forma significativa até 2027 por conta do backlog de contratos, o múltiplo retrospectivo tem pouco significado. Considerando a receita estimada de 2026, a CBRS fica em cerca de 16,7 vezes forward revenue, perto da mediana do setor de semicondutores.
Sigel propõe três estruturas de valuation
Primeiro, valuation por múltiplo de receita em 2028. O cenário-base assume que a receita da Cerebras em 2028 atinge US$ 5,5 bilhões; aplicando um múltiplo de 10 vezes de receita, isso equivale a cerca de US$ 258 por ação, acima de aproximadamente 107% em relação ao preço médio do IPO. No cenário otimista, a receita seria de US$ 6,5 bilhões, com 12,5 vezes de receita, o que corresponderia a cerca de US$ 381 por ação.
Segundo, cálculo pelo TAM do mercado de inferência. Sigel cita dados da Bloomberg Intelligence afirmando que o tamanho do mercado de inferência em 2028 será de cerca de US$ 201 bilhões, e em 2029 de cerca de US$ 292 bilhões. Se a receita de 2028 da Cerebras chegar a US$ 5,5 bilhões, isso representaria apenas cerca de 2,7% do mercado de inferência; se chegar a US$ 6,5 bilhões, cerca de 3,2%. Ele considera que essa não é uma hipótese de market share excessivamente agressiva.
Terceiro, estimativa pelo valor de capacidade por MW. Ele usa como referência o valuation de mercado da CoreWeave em aproximadamente US$ 20 milhões por MW, aplicando a capacidade do contrato de 750MW da Cerebras com a OpenAI. Só o contrato da OpenAI, na base, pode sustentar cerca de US$ 15 bilhões de enterprise value; se a OpenAI exercer a opção e expandir para 2GW, isso pode corresponder a cerca de US$ 40 bilhões de enterprise value.
Sigel enfatiza que a CoreWeave é, essencialmente, um locador de infraestrutura de computação em GPU, enquanto a Cerebras tem, ao mesmo tempo, IP de chips desenvolvidos internamente, stack de software e economia de escala de data center; portanto, em teoria, ela não deveria valer menos do que a avaliação por MW de uma empresa de infraestrutura puramente.
Principais riscos: concentração de clientes, ramp-up de capacidade, cadeia de suprimentos da TSMC e moat tecnológico
Sigel também lista os principais riscos da Cerebras. Primeiro, a concentração de clientes. Em 2025, G42 e MBZUAI — esses dois clientes ligados a Abu Dhabi — somaram cerca de 86% da receita, o que à primeira vista sugere alta concentração.
No entanto, ele acredita que o contrato com a OpenAI substituirá estruturalmente o problema anterior de concentração entre os clientes dos Emirados Árabes Unidos no período de 2026 a 2028, e que a AWS e outros parceiros também ajudarão a dispersar ainda mais.
Os riscos verdadeiramente mais importantes incluem: se a Cerebras conseguirá concluir o ramp-up de capacidade no prazo, se a cadeia de suprimentos de fabricação em nível de wafer da TSMC será estável, e se a próxima geração de GPU — ou outra arquitetura de IA — pode reduzir a diferença de latência, enfraquecendo o moat tecnológico da Cerebras.
Por fim, Sigel diz que a VanEck, por ser uma das maiores gestoras de ETFs de semicondutores dos EUA (SMH), faz pesquisas de longo prazo sobre o setor de semicondutores; além disso, a VanEck teve relação de implantação de capacidade com a Cerebras via WhiteFiber (WYFI), chegando mais cedo à visão sobre a expansão operacional real da Cerebras.
Ele afirma que a VanEck Onchain Economy ETF (NODE) já solicitou aos underwriters uma alocação total para o IPO da Cerebras. O motivo não é apenas a aposta no mercado de inferência de IA, mas também o fato de que a Cerebras pode se tornar, no futuro, uma camada de hardware crucial para blockchain ZK proof, computação verificável em tempo real e infraestrutura on-chain.
Este artigo: “VacEck analisa por que a valuation é caro; ainda estou otimista com o desafiante da Nvidia: IPO da Cerebras” aparece primeiro no ABMedia, um portal de notícias sobre blockchain.