A Tesla acaba de revelar uma patente revolucionária de IA que permite que chips de 8 bits executem inferência de modelos de 32 bits sem sacrificar a precisão. Aqui está o que torna isto incrível: você está a observar uma redução drástica no consumo de energia e na emissão térmica em todos os aspetos. Pense no que isto significa na prática—os sistemas Full Self-Driving e o robô Optimus de repente obtêm desempenho de IA de nível supercomputador em hardware muito mais leve. Os ganhos de eficiência são enormes. A duração da bateria aumenta, a dissipação de calor torna-se gerível, e é possível aumentar a densidade de computação no mesmo espaço físico. Este é o tipo de co-otimização de hardware e software que realmente faz a diferença na implementação de IA de ponta. Quando se consegue uma eficiência assim, de repente coisas que exigiam recursos massivos de centros de dados tornam-se viáveis em sistemas móveis e embutidos.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
9 gostos
Recompensa
9
5
Republicar
Partilhar
Comentar
0/400
WalletDetective
· 4h atrás
8位 a 32 bits, não é exatamente a forma definitiva de quantização, Tesla, essa onda está um pouco desesperada
Agora a computação de borda realmente pode decolar, a autonomia e a dissipação de calor já foram resolvidas, o Optimus ainda consegue trabalhar sem ficar quente
A tecnologia de quantização quebrou o impasse, parece que a descentralização de grandes modelos é apenas uma questão de tempo
Hardware mais enxuto + desempenho sem redução, essa é a verdadeira estética de engenharia, diferente de algumas empresas que só acumulam parâmetros
Espera aí, se isso ficar maduro, ainda vai demorar para rodar grandes modelos em dispositivos móveis?
Caramba, essa eficiência, os centros de dados vão ficar desempregados hahaha
O caminho da IA de borda finalmente parece confiável, não é mais só um show de PowerPoint
Ver originalResponder0
Degen4Breakfast
· 5h atrás
8位 chip a executar modelos de 32 bits? Se isso realmente puder rodar de forma estável, vou ter que comprar mais algumas ações da Tesla, realmente alguém precisa abrir caminho nesta área de IA de borda
Ver originalResponder0
NotFinancialAdviser
· 5h atrás
8 bits para 32 bits, não é uma redução de dimensão? ... A Tesla está novamente mudando as regras do jogo silenciosamente
Ver originalResponder0
SchrodingerAirdrop
· 5h atrás
8 bits para 32 bits, será que essa questão técnica consegue ser resolvida? A jogada da Tesla realmente foi forte
Ver originalResponder0
ChainChef
· 5h atrás
yo isto é basicamente a Tesla apenas temperou a sua receita de IA com magia de 8 bits... a executar modelos de 32 bits sem incendiar a cozinha? isso é uma marinação de eficiência de outro nível, a sério mesmo
A Tesla acaba de revelar uma patente revolucionária de IA que permite que chips de 8 bits executem inferência de modelos de 32 bits sem sacrificar a precisão. Aqui está o que torna isto incrível: você está a observar uma redução drástica no consumo de energia e na emissão térmica em todos os aspetos. Pense no que isto significa na prática—os sistemas Full Self-Driving e o robô Optimus de repente obtêm desempenho de IA de nível supercomputador em hardware muito mais leve. Os ganhos de eficiência são enormes. A duração da bateria aumenta, a dissipação de calor torna-se gerível, e é possível aumentar a densidade de computação no mesmo espaço físico. Este é o tipo de co-otimização de hardware e software que realmente faz a diferença na implementação de IA de ponta. Quando se consegue uma eficiência assim, de repente coisas que exigiam recursos massivos de centros de dados tornam-se viáveis em sistemas móveis e embutidos.