IA Verificável: A chave para equilibrar inovação e confiança na política de IA

O seguinte é um post de convidado de Felix Xu, Fundador da ARPA Network.

A abordagem do governo dos EUA em relação à inteligência artificial (AI) mudou dramaticamente, enfatizando a inovação acelerada em vez da supervisão regulatória. Em particular, a ordem executiva do Presidente Donald Trump, Removendo Barreiras à Liderança Americana em Inteligência Artificial, estabeleceu um novo tom para o desenvolvimento de IA, enraizado na promoção da liberdade de expressão e no avanço do progresso tecnológico. Da mesma forma, a recusa do Vice-Presidente dos EUA JD Vance em endossar um acordo global de segurança em IA sinaliza que a América priorizará a inovação sem comprometer sua vantagem competitiva.

No entanto, à medida que os sistemas de IA se tornam cada vez mais influentes nos mercados financeiros, na infraestrutura crítica e no discurso público, a questão permanece: Como podemos garantir confiança e fiabilidade nas decisões e resultados impulsionados por modelos de IA sem sufocar a inovação?

É aqui que a IA Verificável entra, oferecendo uma abordagem transparente e criptograficamente segura à IA que garante responsabilidade sem regulamentação excessiva.

O Desafio da IA Sem Transparência

O rápido avanço da IA trouxe uma nova era de agentes de IA inteligentes capazes de tomada de decisão complexa e autónoma. Mas sem transparência, esses sistemas podem tornar-se imprevisíveis e irresponsáveis.

Por exemplo, agentes de IA financeira, que dependem de sofisticados modelos de aprendizagem de máquina para analisar vastos conjuntos de dados, estão agora a operar sob menos requisitos de divulgação. Embora isso encoraje a inovação, também levanta uma lacuna de confiança: sem uma visão sobre como esses agentes de IA chegam às suas conclusões, as empresas e os utilizadores podem ter dificuldades em verificar a sua precisão e fiabilidade.

Um colapso de mercado desencadeado pela tomada de decisão falha de um modelo de IA não é apenas um risco teórico, é uma possibilidade se os modelos de IA forem implementados sem salvaguardas verificáveis. O desafio não é desacelerar o progresso da IA, mas garantir que suas saídas possam ser provadas, validadas e confiáveis.

Como disse o renomado psicólogo de Harvard B.F. Skinner, "O verdadeiro problema não é se as máquinas pensam, mas se os homens pensam." Na IA, a questão chave não é apenas quão inteligentes são esses sistemas, mas como os humanos podem verificar e confiar em sua inteligência.

Como a IA Verificável Preenche a Lacuna de Confiança

Russel Wald, diretor executivo do Stanford Institute for Human-Centered Artificial Intelligence, resume a abordagem de IA dos EUA:

“A segurança não vai ser o foco principal, mas sim, vai ser a inovação acelerada e a crença de que a tecnologia é uma oportunidade.”

É precisamente por isso que a IA Verificável é crucial. Ela permite a inovação em IA sem comprometer a confiança, garantindo que os resultados da IA possam ser validados de uma maneira descentralizada e que preserva a privacidade.

A IA verificável aproveita técnicas criptográficas como o Zero-Knowledge Proofs (ZKPs) e o Zero-Knowledge Machine Learning (ZKML) para fornecer aos usuários confiança nas decisões de IA sem expor dados proprietários.

  • ZKPs permitem que sistemas de IA gerem provas criptográficas que confirmam que uma saída é legítima sem revelar os dados ou processos subjacentes. Isso garante integridade mesmo em um ambiente com supervisão regulatória mínima.
  • ZKML traz modelos de IA verificáveis em cadeia, permitindo saídas de IA sem confiança que são matematicamente comprováveis. Isto é particularmente crítico para oráculos de IA e tomada de decisões baseadas em dados em indústrias como finanças, saúde e governação.
  • ZK-SNARKs convertem cálculos de IA em provas verificáveis, garantindo que os modelos de IA operem de forma segura, protegendo os direitos de propriedade intelectual e a privacidade do usuário.

Em essência, a IA Verificável fornece uma camada de verificação independente, garantindo que os sistemas de IA permaneçam transparentes, responsáveis e provavelmente precisos.

IA Verificável: O Futuro da Responsabilidade da IA

A trajetória da IA na América está definida para inovação agressiva. Mas, em vez de depender apenas da supervisão do governo, a indústria deve defender soluções tecnológicas que garantam tanto o progresso quanto a confiança.

Algumas empresas podem tirar proveito de regulações de IA mais flexíveis para lançar produtos sem verificações de segurança adequadas. No entanto, a Verifiable AI oferece uma alternativa poderosa que capacita organizações e indivíduos a construir sistemas de IA que são comprováveis, confiáveis e resistentes ao uso indevido.

Num mundo onde a IA está a tomar decisões cada vez mais consequentes, a solução não é abrandar o progresso, mas sim tornar a IA verificável. Essa é a chave para garantir que a IA continue a ser uma força para a inovação, confiança e impacto global a longo prazo.

Mencionado neste artigo
Ver original
O conteúdo é apenas para referência, não uma solicitação ou oferta. Nenhum aconselhamento fiscal, de investimento ou jurídico é fornecido. Consulte a isenção de responsabilidade para obter mais informações sobre riscos.
  • Recompensa
  • Comentário
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate.io
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • ไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)