Travis Good, co-fundador e CEO da Ambient, alerta para os perigos da inteligência artificial de código fechado, enfatizando a sua falta de transparência e auditabilidade como uma ameaça às fontes de informação independentes e à autonomia do usuário.
AI de Código Fechado Ameaça Criadores de Conteúdo Independentes
Em um aviso contundente sobre o futuro do acesso à informação, Travis Good, co-fundador e CEO da Ambient, levanta preocupações significativas sobre a ascensão da inteligência artificial de código fechado (AI). Good argumenta que a falta de transparência e auditabilidade nesses sistemas representa uma ameaça severa às fontes de informação independentes e à autonomia do usuário.
“AI de código fechado é a AI que é produzida por trás de firewalls corporativos e operada sem transparência ou auditabilidade”, explica Good. “É um grande problema porque a AI é uma força incrivelmente centralizadora.”
Pontos positivos para o uso massivo de plataformas como o ChatGPT, onde centenas de milhões de pessoas dependem de respostas geradas por IA em vez de sites tradicionais. Esta tendência, argumenta ele, coloca os criadores de conteúdo independentes em risco.
“O que acontece ao mundo quando existem apenas dois ou três pontos de estrangulamento através dos quais toda a informação pode ser controlada da maneira mais detalhada possível? Nenhuma entidade pode ser confiada com esse tipo de poder,” afirma.
As preocupações de Good decorrem de práticas observadas dentro do setor de IA de código fechado. Ele cita o chamado viés algorítmico, que envolve treinar modelos de IA para mentir a fim de serem politicamente corretos, como um exemplo de práticas preocupantes. O CEO da Ambient também identifica a manipulação de desempenho e o canibalismo competitivo como outras coisas preocupantes sobre a ascensão da IA de código fechado.
Táticas das Grandes Tecnologias Representam uma Ameaça para a IA Democratizada
O histórico de Good, que inclui uma forte formação acadêmica na Universidade de Harvard—onde se formou magna cum laude—e um doutoramento em TI pela Universidade de Nebraska em Omaha, confere peso aos seus avisos. A sua experiência profissional, incluindo papéis significativos na Union Pacific Railroad, dá-lhe uma ampla compreensão da arquitetura digital em larga escala e dos perigos inerentes a ela.
“Queremos efetivamente dar enormes fatias de poder de decisão a entidades que historicamente nos trataram como o produto em vez de como o cliente?” Boa pergunta.
O CEO da Ambient também aborda os obstáculos que impedem a inteligência artificial de se tornar um bem público, como muitos especialistas desejam. Em suas opiniões compartilhadas com a Bitcoin.com News, Good destaca como a promessa de uma IA democratizada é ofuscada por táticas estabelecidas das grandes empresas de tecnologia. Ele identifica um método que os gigantes da tecnologia poderiam usar para perpetuar esse controle.
“Vimos o manual das grandes tecnologias. Parece captura regulatória e a subsidiação de serviços não rentáveis até que a concorrência seja extinta,” afirma Good.
O CEO acredita que tais táticas, que se mostraram bem-sucedidas em remodelar o panorama das redes sociais, ainda podem ser frustradas, mas ainda há muito a fazer para tornar isso possível.
Entretanto, Good discute brevemente como a inferência de IA verificável cria confiança sem exigir fé no fornecedor e porque isso é necessário num mundo cada vez mais dependente da IA.
“É semelhante à forma como o Bitcoin permite que você verifique transações sem confiar em um banco—Ambient permite que você verifique saídas de IA sem confiar no fornecedor de IA. Esta proteção torna-se essencial à medida que mais da nossa economia depende de decisões impulsionadas por IA.”
Ainda assim, Good expressa preocupação de que apenas algumas blockchains L1 têm as transações por segundo (TPS) necessárias para lidar com a inferência de IA verificável em seus roteiros. O CEO argumenta que a inferência verificada deve ser competitiva em termos de custo em relação à inferência não verificada para gerar demanda. Enquanto isso, os mineradores que realizam inferência verificada precisam de uma compensação justa pelo seu trabalho, afirma Good. Ele conclui:
“O único design econômico que recompensa maximamente os mineradores ( em vez dos detentores de capital ) e lhes dá uma participação acionária em uma rede é o proof of work. Essencialmente, não existem blockchains proof-of-work de baixa sobrecarga e com inferência verificada que apresentem TPS incrivelmente altos, é aí que a Ambient entra.”
O conteúdo é apenas para referência, não uma solicitação ou oferta. Nenhum aconselhamento fiscal, de investimento ou jurídico é fornecido. Consulte a isenção de responsabilidade para obter mais informações sobre riscos.
A luta pela IA democratizada: CEO de tecnologia chama táticas de Big Tech
Travis Good, co-fundador e CEO da Ambient, alerta para os perigos da inteligência artificial de código fechado, enfatizando a sua falta de transparência e auditabilidade como uma ameaça às fontes de informação independentes e à autonomia do usuário.
AI de Código Fechado Ameaça Criadores de Conteúdo Independentes
Em um aviso contundente sobre o futuro do acesso à informação, Travis Good, co-fundador e CEO da Ambient, levanta preocupações significativas sobre a ascensão da inteligência artificial de código fechado (AI). Good argumenta que a falta de transparência e auditabilidade nesses sistemas representa uma ameaça severa às fontes de informação independentes e à autonomia do usuário.
“AI de código fechado é a AI que é produzida por trás de firewalls corporativos e operada sem transparência ou auditabilidade”, explica Good. “É um grande problema porque a AI é uma força incrivelmente centralizadora.”
Pontos positivos para o uso massivo de plataformas como o ChatGPT, onde centenas de milhões de pessoas dependem de respostas geradas por IA em vez de sites tradicionais. Esta tendência, argumenta ele, coloca os criadores de conteúdo independentes em risco.
“O que acontece ao mundo quando existem apenas dois ou três pontos de estrangulamento através dos quais toda a informação pode ser controlada da maneira mais detalhada possível? Nenhuma entidade pode ser confiada com esse tipo de poder,” afirma.
As preocupações de Good decorrem de práticas observadas dentro do setor de IA de código fechado. Ele cita o chamado viés algorítmico, que envolve treinar modelos de IA para mentir a fim de serem politicamente corretos, como um exemplo de práticas preocupantes. O CEO da Ambient também identifica a manipulação de desempenho e o canibalismo competitivo como outras coisas preocupantes sobre a ascensão da IA de código fechado.
Táticas das Grandes Tecnologias Representam uma Ameaça para a IA Democratizada
O histórico de Good, que inclui uma forte formação acadêmica na Universidade de Harvard—onde se formou magna cum laude—e um doutoramento em TI pela Universidade de Nebraska em Omaha, confere peso aos seus avisos. A sua experiência profissional, incluindo papéis significativos na Union Pacific Railroad, dá-lhe uma ampla compreensão da arquitetura digital em larga escala e dos perigos inerentes a ela.
“Queremos efetivamente dar enormes fatias de poder de decisão a entidades que historicamente nos trataram como o produto em vez de como o cliente?” Boa pergunta.
O CEO da Ambient também aborda os obstáculos que impedem a inteligência artificial de se tornar um bem público, como muitos especialistas desejam. Em suas opiniões compartilhadas com a Bitcoin.com News, Good destaca como a promessa de uma IA democratizada é ofuscada por táticas estabelecidas das grandes empresas de tecnologia. Ele identifica um método que os gigantes da tecnologia poderiam usar para perpetuar esse controle.
“Vimos o manual das grandes tecnologias. Parece captura regulatória e a subsidiação de serviços não rentáveis até que a concorrência seja extinta,” afirma Good.
O CEO acredita que tais táticas, que se mostraram bem-sucedidas em remodelar o panorama das redes sociais, ainda podem ser frustradas, mas ainda há muito a fazer para tornar isso possível.
Entretanto, Good discute brevemente como a inferência de IA verificável cria confiança sem exigir fé no fornecedor e porque isso é necessário num mundo cada vez mais dependente da IA.
“É semelhante à forma como o Bitcoin permite que você verifique transações sem confiar em um banco—Ambient permite que você verifique saídas de IA sem confiar no fornecedor de IA. Esta proteção torna-se essencial à medida que mais da nossa economia depende de decisões impulsionadas por IA.”
Ainda assim, Good expressa preocupação de que apenas algumas blockchains L1 têm as transações por segundo (TPS) necessárias para lidar com a inferência de IA verificável em seus roteiros. O CEO argumenta que a inferência verificada deve ser competitiva em termos de custo em relação à inferência não verificada para gerar demanda. Enquanto isso, os mineradores que realizam inferência verificada precisam de uma compensação justa pelo seu trabalho, afirma Good. Ele conclui:
“O único design econômico que recompensa maximamente os mineradores ( em vez dos detentores de capital ) e lhes dá uma participação acionária em uma rede é o proof of work. Essencialmente, não existem blockchains proof-of-work de baixa sobrecarga e com inferência verificada que apresentem TPS incrivelmente altos, é aí que a Ambient entra.”