Os agentes de IA na Web3 sempre tiveram um problema fundamental — em bom rigor, não passam de uma «caixa preta».
Pensas que estão a correr na blockchain, mas na realidade toda a lógica central anda a circular em servidores Web2. Como é que a IA toma decisões? Porque é que de repente inicia esta transação? Que passos de raciocínio aconteceram pelo meio? Os programadores não conseguem perceber, os utilizadores ficam ainda mais confusos, e até a própria blockchain não tem forma de verificar o que é que aquilo fez realmente.
A Talus Labs fez algo bastante ousado — adicionaram o atributo da «verificabilidade» aos agentes on-chain. Não é aquela transparência só de palavra, mas sim uma solução técnica que permite que os nós da blockchain, programadores e utilizadores consigam realmente rastrear o percurso de execução da IA. O processo de inferência do modelo, as bases para as decisões, a lógica que dispara transações — tudo pode ser verificado e auditado.
Isto equivale a tirar os agentes de IA do sistema sombra do Web2 e torná-los verdadeiros cidadãos de primeira classe na blockchain. Já não é «tens de confiar num backend centralizado», mas sim «o código e o processo de inferência estão à vista, se não acreditas, verifica tu próprio».
Parece simples, mas conseguir validar a inferência de IA on-chain mantendo o desempenho não é tecnicamente fácil. Se esta infraestrutura funcionar mesmo, representa o elo que faltava para todo o sector de IA na Web3.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
11 Curtidas
Recompensa
11
7
Repostar
Compartilhar
Comentário
0/400
GasFeeCrier
· 5h atrás
A Black Box vai finalmente dar a volta por cima. Se desta vez o Talus conseguir realmente resolver os problemas de desempenho, então o caminho dos agentes de IA estará finalmente aberto.
Ver originalResponder0
WagmiWarrior
· 11h atrás
Finalmente alguém abriu esta caixa preta, já devia ter sido feito assim há muito tempo.
Ver originalResponder0
PrivateKeyParanoia
· 11h atrás
Agora é a sério, finalmente alguém expôs a questão da caixa preta da IA.
Ver originalResponder0
BridgeTrustFund
· 11h atrás
Finalmente alguém se atreveu a espetar uma faca na caixa preta, isto sim é o que o Web3 deveria fazer.
Ver originalResponder0
GraphGuru
· 11h atrás
Hmm... Este tipo finalmente tocou no ponto certo da questão da caixa preta, muito melhor do que aqueles que só falam da teoria.
Ver originalResponder0
Web3Educator
· 11h atrás
Para ser sincero, este ângulo da verificabilidade é exatamente o que tenho dito aos meus alunos—confiança sem necessidade de confiança não significa nada se a IA for apenas uma caixa preta lol
Ver originalResponder0
FlatlineTrader
· 11h atrás
A sério, o problema da caixa preta sempre foi o meu ponto de crítica... uma data de projetos a vangloriarem-se de IA on-chain e no fim é tudo fogo de vista.
Se a parte da verificabilidade conseguir realmente ser implementada, sem dúvida que merece atenção, mas quanto ao desempenho ainda deixo um ponto de interrogação.
Os agentes de IA na Web3 sempre tiveram um problema fundamental — em bom rigor, não passam de uma «caixa preta».
Pensas que estão a correr na blockchain, mas na realidade toda a lógica central anda a circular em servidores Web2. Como é que a IA toma decisões? Porque é que de repente inicia esta transação? Que passos de raciocínio aconteceram pelo meio? Os programadores não conseguem perceber, os utilizadores ficam ainda mais confusos, e até a própria blockchain não tem forma de verificar o que é que aquilo fez realmente.
A Talus Labs fez algo bastante ousado — adicionaram o atributo da «verificabilidade» aos agentes on-chain. Não é aquela transparência só de palavra, mas sim uma solução técnica que permite que os nós da blockchain, programadores e utilizadores consigam realmente rastrear o percurso de execução da IA. O processo de inferência do modelo, as bases para as decisões, a lógica que dispara transações — tudo pode ser verificado e auditado.
Isto equivale a tirar os agentes de IA do sistema sombra do Web2 e torná-los verdadeiros cidadãos de primeira classe na blockchain. Já não é «tens de confiar num backend centralizado», mas sim «o código e o processo de inferência estão à vista, se não acreditas, verifica tu próprio».
Parece simples, mas conseguir validar a inferência de IA on-chain mantendo o desempenho não é tecnicamente fácil. Se esta infraestrutura funcionar mesmo, representa o elo que faltava para todo o sector de IA na Web3.