Travis Good, co-fondateur et PDG d'Ambient, met en garde contre les dangers de l'intelligence artificielle à source fermée, soulignant son manque de transparence et d'auditabilité comme une menace pour les sources d'information indépendantes et l'autonomie des utilisateurs.
L'IA à source fermée menace les créateurs de contenu indépendants
Dans un avertissement clair concernant l'avenir de l'accès à l'information, Travis Good, co-fondateur et PDG d'Ambient, exprime des préoccupations importantes sur la montée de l'intelligence artificielle à code source fermé (AI). Good soutient que le manque de transparence et d'auditabilité dans ces systèmes représente une menace grave pour les sources d'information indépendantes et l'autonomie des utilisateurs.
« L'IA à code fermé est une IA produite derrière des pare-feu d'entreprise et opérée sans transparence ni auditabilité », explique Good. « C'est un problème majeur car l'IA est une force incroyablement centralisatrice. »
Les bons points concernant l'utilisation massive de plateformes comme ChatGPT, où des centaines de millions de personnes s'appuient sur des réponses générées par l'IA plutôt que sur des sites web traditionnels. Cette tendance, affirme-t-il, met en danger les créateurs de contenu indépendants.
« Que se passe-t-il dans le monde lorsqu'il n'y a que deux ou trois points de contrôle par lesquels toutes les informations peuvent être contrôlées de la manière la plus précise imaginable ? Aucune entité ne peut être digne de confiance avec ce genre de pouvoir », déclare-t-il.
Les préoccupations de Good découlent des pratiques observées dans le secteur de l'IA à code source fermé. Il cite le soi-disant biais algorithmique, qui consiste à entraîner des modèles d'IA à mentir pour être politiquement correct, comme un exemple de pratiques préoccupantes. Le PDG d'Ambient identifie également la manipulation des performances et la cannibalisation concurrentielle comme d'autres éléments préoccupants concernant l'essor de l'IA à code source fermé.
Les tactiques des grandes entreprises technologiques représentent une menace pour l'IA démocratisée
Le parcours de Good, qui comprend une solide formation académique de l'Université Harvard—où il a obtenu son diplôme magna cum laude—et un doctorat en informatique de l'Université du Nebraska à Omaha, donne du poids à ses avertissements. Son expérience professionnelle, y compris des rôles significatifs chez Union Pacific Railroad, lui confère une large compréhension de l'architecture numérique à grande échelle et de ses dangers inhérents.
« Voulons-nous vraiment donner de vastes pans de pouvoir décisionnel à des entités qui nous ont historiquement traités comme des produits plutôt que comme des clients ? » demande Good.
Le PDG d'Ambient aborde également les obstacles empêchant l'intelligence artificielle de devenir un bien public, comme le souhaitent de nombreux experts. Dans ses propos partagés avec Bitcoin.com News, Good souligne comment la promesse d'une IA démocratisée est éclipsée par les tactiques des grandes entreprises technologiques établies. Il identifie une méthode que les géants de la technologie pourraient utiliser pour perpétuer ce contrôle.
« Nous avons vu le manuel des grandes entreprises technologiques. Il ressemble à une capture réglementaire et à la subvention de services non rentables jusqu'à ce que la concurrence soit éteinte », déclare Good.
Le PDG croit que de telles tactiques, qui se sont révélées efficaces pour remodeler le paysage des médias sociaux, pourraient encore être contrecarrées, mais beaucoup de travail reste à faire pour rendre cela possible.
Parallèlement, Good discute brièvement de la manière dont l'inférence AI vérifiable crée la confiance sans nécessiter de foi en le fournisseur et pourquoi cela est nécessaire dans un monde de plus en plus dépendant de l'IA.
« C'est similaire à la façon dont Bitcoin vous permet de vérifier les transactions sans faire confiance à une banque : Ambient vous permet de vérifier les sorties d'IA sans faire confiance au fournisseur d'IA. Cette protection devient essentielle à mesure que notre économie dépend de plus en plus des décisions alimentées par l'IA. »
Pourtant, Good exprime des inquiétudes quant au fait que seules quelques blockchains L1 ont les transactions par seconde requises (TPS) pour gérer l'inférence AI vérifiable sur leurs feuilles de route. Le PDG soutient que l'inférence vérifiée doit être compétitive en termes de coût par rapport à l'inférence non vérifiée pour stimuler la demande. Pendant ce temps, les mineurs effectuant l'inférence vérifiée nécessitent une compensation équitable pour leur travail, déclare Good. Il conclut :
« La seule conception économique qui récompense au maximum les mineurs ( par rapport aux détenteurs de capitaux ) et leur donne une part de propriété dans un réseau est la preuve de travail. Essentiellement, il n'existe pas de blockchains à preuve de travail à faible coût, avec vérification de l'inférence, présentant un TPS incroyablement élevé, c'est là qu'Ambient entre en jeu. »
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
La lutte pour une IA démocratisée : le PDG de la technologie dénonce les tactiques des grandes entreprises technologiques
Travis Good, co-fondateur et PDG d'Ambient, met en garde contre les dangers de l'intelligence artificielle à source fermée, soulignant son manque de transparence et d'auditabilité comme une menace pour les sources d'information indépendantes et l'autonomie des utilisateurs.
L'IA à source fermée menace les créateurs de contenu indépendants
Dans un avertissement clair concernant l'avenir de l'accès à l'information, Travis Good, co-fondateur et PDG d'Ambient, exprime des préoccupations importantes sur la montée de l'intelligence artificielle à code source fermé (AI). Good soutient que le manque de transparence et d'auditabilité dans ces systèmes représente une menace grave pour les sources d'information indépendantes et l'autonomie des utilisateurs.
« L'IA à code fermé est une IA produite derrière des pare-feu d'entreprise et opérée sans transparence ni auditabilité », explique Good. « C'est un problème majeur car l'IA est une force incroyablement centralisatrice. »
Les bons points concernant l'utilisation massive de plateformes comme ChatGPT, où des centaines de millions de personnes s'appuient sur des réponses générées par l'IA plutôt que sur des sites web traditionnels. Cette tendance, affirme-t-il, met en danger les créateurs de contenu indépendants.
« Que se passe-t-il dans le monde lorsqu'il n'y a que deux ou trois points de contrôle par lesquels toutes les informations peuvent être contrôlées de la manière la plus précise imaginable ? Aucune entité ne peut être digne de confiance avec ce genre de pouvoir », déclare-t-il.
Les préoccupations de Good découlent des pratiques observées dans le secteur de l'IA à code source fermé. Il cite le soi-disant biais algorithmique, qui consiste à entraîner des modèles d'IA à mentir pour être politiquement correct, comme un exemple de pratiques préoccupantes. Le PDG d'Ambient identifie également la manipulation des performances et la cannibalisation concurrentielle comme d'autres éléments préoccupants concernant l'essor de l'IA à code source fermé.
Les tactiques des grandes entreprises technologiques représentent une menace pour l'IA démocratisée
Le parcours de Good, qui comprend une solide formation académique de l'Université Harvard—où il a obtenu son diplôme magna cum laude—et un doctorat en informatique de l'Université du Nebraska à Omaha, donne du poids à ses avertissements. Son expérience professionnelle, y compris des rôles significatifs chez Union Pacific Railroad, lui confère une large compréhension de l'architecture numérique à grande échelle et de ses dangers inhérents.
« Voulons-nous vraiment donner de vastes pans de pouvoir décisionnel à des entités qui nous ont historiquement traités comme des produits plutôt que comme des clients ? » demande Good.
Le PDG d'Ambient aborde également les obstacles empêchant l'intelligence artificielle de devenir un bien public, comme le souhaitent de nombreux experts. Dans ses propos partagés avec Bitcoin.com News, Good souligne comment la promesse d'une IA démocratisée est éclipsée par les tactiques des grandes entreprises technologiques établies. Il identifie une méthode que les géants de la technologie pourraient utiliser pour perpétuer ce contrôle.
« Nous avons vu le manuel des grandes entreprises technologiques. Il ressemble à une capture réglementaire et à la subvention de services non rentables jusqu'à ce que la concurrence soit éteinte », déclare Good.
Le PDG croit que de telles tactiques, qui se sont révélées efficaces pour remodeler le paysage des médias sociaux, pourraient encore être contrecarrées, mais beaucoup de travail reste à faire pour rendre cela possible.
Parallèlement, Good discute brièvement de la manière dont l'inférence AI vérifiable crée la confiance sans nécessiter de foi en le fournisseur et pourquoi cela est nécessaire dans un monde de plus en plus dépendant de l'IA.
« C'est similaire à la façon dont Bitcoin vous permet de vérifier les transactions sans faire confiance à une banque : Ambient vous permet de vérifier les sorties d'IA sans faire confiance au fournisseur d'IA. Cette protection devient essentielle à mesure que notre économie dépend de plus en plus des décisions alimentées par l'IA. »
Pourtant, Good exprime des inquiétudes quant au fait que seules quelques blockchains L1 ont les transactions par seconde requises (TPS) pour gérer l'inférence AI vérifiable sur leurs feuilles de route. Le PDG soutient que l'inférence vérifiée doit être compétitive en termes de coût par rapport à l'inférence non vérifiée pour stimuler la demande. Pendant ce temps, les mineurs effectuant l'inférence vérifiée nécessitent une compensation équitable pour leur travail, déclare Good. Il conclut :
« La seule conception économique qui récompense au maximum les mineurs ( par rapport aux détenteurs de capitaux ) et leur donne une part de propriété dans un réseau est la preuve de travail. Essentiellement, il n'existe pas de blockchains à preuve de travail à faible coût, avec vérification de l'inférence, présentant un TPS incroyablement élevé, c'est là qu'Ambient entre en jeu. »