À medida que mais protocolos começam a incorporar IA como componente central, uma questão fundamental começa a surgir: a blockchain pode realmente confiar numa saída de modelo que não pode ser verificada?
A aparição do @inference_labs é precisamente para resolver essa contradição. Ela mudou de forma genuína a maneira como as aplicações na cadeia utilizam inteligência artificial.
No passado, a maioria da IA em blockchains consistia em colocar o modelo fora da cadeia, executar e depois escrever o resultado de volta na cadeia, deixando os utilizadores apenas na posição de confiar no fornecedor do serviço.
A Inference Labs constrói uma infraestrutura de raciocínio verificável, através de provas criptográficas e ambientes de execução reproduzíveis, permitindo que o processo de raciocínio do modelo seja verificado por terceiros, e não apenas validar uma saída.
Isso significa que, quando protocolos DeFi usam modelos de risco ou quando mercados preditivos utilizam aprendizagem de máquina para julgar probabilidades, os contratos na cadeia podem, pela primeira vez, confirmar que essas conclusões de IA não foram adulteradas.
Para todo o ecossistema Web3, isso transforma a IA de uma caixa preta em uma infraestrutura confiável que os contratos podem confiar.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
À medida que mais protocolos começam a incorporar IA como componente central, uma questão fundamental começa a surgir: a blockchain pode realmente confiar numa saída de modelo que não pode ser verificada?
A aparição do @inference_labs é precisamente para resolver essa contradição. Ela mudou de forma genuína a maneira como as aplicações na cadeia utilizam inteligência artificial.
No passado, a maioria da IA em blockchains consistia em colocar o modelo fora da cadeia, executar e depois escrever o resultado de volta na cadeia, deixando os utilizadores apenas na posição de confiar no fornecedor do serviço.
A Inference Labs constrói uma infraestrutura de raciocínio verificável, através de provas criptográficas e ambientes de execução reproduzíveis, permitindo que o processo de raciocínio do modelo seja verificado por terceiros, e não apenas validar uma saída.
Isso significa que, quando protocolos DeFi usam modelos de risco ou quando mercados preditivos utilizam aprendizagem de máquina para julgar probabilidades, os contratos na cadeia podem, pela primeira vez, confirmar que essas conclusões de IA não foram adulteradas.
Para todo o ecossistema Web3, isso transforma a IA de uma caixa preta em uma infraestrutura confiável que os contratos podem confiar.
@KaitoAI #Yap @easydotfunX