Jin10 dados, 29 de setembro, a Cambricon anunciou em seu WeChat que, em 29 de setembro de 2025, a Cambricon já havia realizado a adaptação do mais recente modelo da empresa DeepSeek, o DeepSeek-V3.2-Exp, e liberado o Código-fonte do motor de inferência de grande modelo vLLM-MLU. Em relação à nova arquitetura do modelo DeepSeek-V3.2-Exp, a Cambricon implementou uma rápida adaptação através do operador Triton e utilizou o operador de fusão BangC para alcançar uma otimização de desempenho extrema, e com base na estratégia de paralelismo entre computação e comunicação, alcançou novamente um nível de eficiência computacional líder na indústria.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Camberra Day 0 adaptado para DeepSeek-V3.2-Exp, sincronização do motor de inferência Código aberto vLLM-MLU
Jin10 dados, 29 de setembro, a Cambricon anunciou em seu WeChat que, em 29 de setembro de 2025, a Cambricon já havia realizado a adaptação do mais recente modelo da empresa DeepSeek, o DeepSeek-V3.2-Exp, e liberado o Código-fonte do motor de inferência de grande modelo vLLM-MLU. Em relação à nova arquitetura do modelo DeepSeek-V3.2-Exp, a Cambricon implementou uma rápida adaptação através do operador Triton e utilizou o operador de fusão BangC para alcançar uma otimização de desempenho extrema, e com base na estratégia de paralelismo entre computação e comunicação, alcançou novamente um nível de eficiência computacional líder na indústria.