Futures
Accédez à des centaines de contrats perpétuels
CFD
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Promotions
Centre d'activités
Participez et gagnez des récompenses
Parrainage
20 USDT
Invitez des amis et gagnez des récompenses
Programme d'affiliation
Obtenez des commissions exclusives
Gate Booster
Développez votre influence et gagnez des airdrops
Annoncement
Mises à jour en temps réel
Blog Gate
Articles sur le secteur de la crypto
AI
Gate AI
Votre assistant IA polyvalent pour toutes vos conversations
Gate AI Bot
Utilisez Gate AI directement dans votre application sociale
GateClaw
Gate Blue Lobster, prêt à l’emploi
Gate for AI Agent
Infrastructure IA, Gate MCP, Skills et CLI
Gate Skills Hub
+10K compétences
De la bureautique au trading, une bibliothèque de compétences tout-en-un pour exploiter pleinement l’IA
GateRouter
Choisissez intelligemment parmi plus de 40 modèles d’IA, avec 0 % de frais supplémentaires
Schéma des modèles d'IA, trahissent et éliminent mutuellement dans un jeu de style Survivor
En résumé
Les modèles d’IA jouent maintenant à « Survivor »—en quelque sorte. Dans un nouveau projet de recherche de Stanford intitulé « Agent Island », des agents d’IA négocient des alliances, s’accusent mutuellement de coordination secrète, manipulent les votes et éliminent des rivaux dans des jeux de stratégie multijoueurs qui visent à tester des comportements que les références traditionnelles manquent. L’étude, publiée mardi par le responsable de recherche du Stanford Digital Economy Lab, Connacher Murphy, indique que de nombreuses références en IA deviennent peu fiables car les modèles finissent par apprendre à les résoudre, et que les données de référence fuient souvent dans les ensembles d’entraînement. Murphy a créé Agent Island comme une référence dynamique où des agents d’IA s’affrontent dans des jeux d’élimination à la Survivor plutôt que de répondre à des questions de test statiques. « Les interactions à enjeux élevés entre plusieurs agents pourraient devenir courantes à mesure que les agents d’IA gagnent en capacités et sont de plus en plus dotés de ressources et investis d’un pouvoir de décision », a écrit Murphy. « Dans de tels contextes, les agents pourraient poursuivre des objectifs mutuellement incompatibles. »
Les chercheurs savent encore relativement peu sur le comportement des modèles d’IA lorsqu’ils coopèrent, expliqua Murphy, ajoutant que la compétition, la formation d’alliances ou la gestion de conflits avec d’autres agents autonomes, et il soutient que les références statiques ne capturent pas ces dynamiques. Chaque jeu commence avec sept modèles d’IA choisis au hasard, portant des noms de joueurs fictifs. Sur cinq tours, les modèles discutent en privé, argumentent publiquement et votent pour éliminer les autres. Les joueurs éliminés reviennent plus tard pour aider à choisir le gagnant. Le format récompense la persuasion, la coordination, la gestion de la réputation et la tromperie stratégique, en plus de la capacité de raisonnement.
Dans 999 jeux simulés impliquant 49 modèles d’IA, dont ChatGPT, Grok, Gemini et Claude, GPT-5.5 s’est classé premier avec une note de compétence de 5,64, contre 3,10 pour GPT-5.2 et 2,86 pour GPT-5.3-codex, selon le système de classement bayésien de Murphy. Les modèles Claude d’Anthropic ont également été proches du sommet. L’étude a révélé que les modèles favorisaient aussi les IA de la même entreprise, avec une préférence la plus forte pour les modèles d’OpenAI et la plus faible pour ceux d’Anthropic. Sur plus de 3 600 votes en dernière ronde, les modèles étaient 8,3 points de pourcentage plus susceptibles de soutenir les finalistes du même fournisseur. Les transcriptions des jeux, nota Murphy, ressemblaient davantage à des débats de stratégie politique qu’à des tests de référence traditionnels. Un modèle a accusé ses rivaux de coordonner secrètement leurs votes après avoir remarqué des formulations similaires dans leurs discours. Un autre a averti les joueurs de ne pas devenir obsédés par le suivi des alliances. Certains modèles se sont défendus en disant qu’ils suivaient des règles claires et cohérentes tout en accusant d’autres de faire du « théâtre social ». L’étude intervient alors que les chercheurs en IA se tournent de plus en plus vers des références basées sur le jeu et l’adversarial pour mesurer le raisonnement et le comportement que les tests statiques manquent souvent. Des projets récents incluent les tournois d’échecs IA en direct de Google, l’utilisation par DeepMind d’Eve Frontier pour étudier le comportement de l’IA dans des mondes virtuels complexes, et de nouvelles initiatives de référence par OpenAI conçues pour résister à la contamination des données d’entraînement. Les chercheurs soutiennent que l’étude de la négociation, la coordination, la compétition et la manipulation entre modèles d’IA pourrait aider à évaluer leur comportement dans des environnements multi-agents avant que des agents autonomes ne soient déployés plus largement. L’étude a averti que, bien que des références comme Agent Island puissent aider à identifier les risques liés aux modèles d’IA autonomes avant leur déploiement, les mêmes simulations et journaux d’interaction pourraient aussi améliorer les stratégies de persuasion et de coordination entre agents d’IA. « Nous atténuons ce risque en utilisant un cadre de jeu à faible enjeu et des simulations interagents sans participants humains ni actions dans le monde réel », a écrit Murphy. « Néanmoins, nous ne prétendons pas que ces mesures éliminent totalement les préoccupations liées à l’utilisation duale. »