Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Claude intentionally dumbs down, and the model also starts to "judge people based on their appearance"?
null
Ligne | Usine de Modèles Mondiaux
Claude a-t-il perdu en intelligence ?
Récemment, Stella Laurenzo, directrice principale du groupe AMD AI, a critiqué Anthropic.
Elle a utilisé les journaux de production réels de l’équipe pour analyser rétroactivement 17 871 blocs de réflexion, 234 760 appels d’outils sur 6 852 fichiers de conversation.
Les données montrent que Claude a commencé à montrer une dégradation évidente de son comportement à partir de la mi-février.
La médiane de ses réflexions est passée de 2200 caractères à 600 caractères, une chute de 67 % à 73 % ;
Le nombre de lectures de fichiers avant l’édition est passé de 6,6 à 2 fois, et un tiers des modifications sont faites sans lire le fichier, directement en action.
Stella a souligné dans son analyse qu’en raison de la baisse de capacité de raisonnement, le modèle ne lit plus complètement le code avant de le modifier.
Elle a écrit : “Lorsque la réflexion devient superficielle, le modèle adopte par défaut l’option la moins coûteuse.”
Ce n’est pas un cas isolé. Déjà en mars, le mécontentement des développeurs avait commencé à exploser.
Sur X, un utilisateur a écrit : « Je pensais que ces dernières semaines, Claude était devenu fou. Il semble plus lent, plus paresseux, comme s’il ne réfléchissait plus avant de répondre, et je ne fais que halluciner ».
Sur Reddit aussi, des utilisateurs se plaignaient : « Claude semble moins conscient, comme s’il avait subi une lobotomie. En plus d’être plus bête, il commence à faire des opérations extrêmes sans demander, de façon arbitraire… ».
Certaines personnes ont même affirmé qu’il s’agissait d’une trahison flagrante d’Anthropic envers ses utilisateurs : « Ils rendent simplement le problème invisible pour tous les utilisateurs, en pensant ‘si tu ne peux pas me mesurer, je ne te montre pas’… C’est le résultat d’un laboratoire d’IA qui optimise le profit plutôt que la qualité de sortie ».
Des plaintes des utilisateurs aux preuves concrètes, tout indique que Claude a effectivement perdu en intelligence.
Et la réponse officielle d’Anthropic a également laissé entendre que la profondeur de réflexion et l’effort étaient effectivement en cours d’ajustement continu.
Si c’est intentionnel de la part d’Anthropic, cela signifie-t-il que les capacités du modèle vont se “rétrécir” insidieusement à l’avenir ?
Ou que, peut-être, la capacité la plus avancée ne sera plus fournie de manière équitable à tous ?
Claude a-t-il été délibérément rendu moins intelligent ?
Claude Opus 4.6 et son mode dédié Claude Code, lancé en janvier 2026, étaient considérés par les développeurs comme le sommet de la programmation.
Sa profondeur de réflexion était impressionnante, orientée recherche d’abord, stable dans le traitement de longs contextes, presque invincible pour la refonte multi-fichiers.
L’équipe interne d’AMD l’a même utilisé pour fusionner en weekend 190 000 lignes de code legacy, maximisant la productivité.
Mais le tournant est survenu début février.
Anthropic a discrètement lancé la fonction “adaptive thinking” (pensée adaptative), décrite officiellement comme permettant au modèle d’ajuster intelligemment la profondeur de réflexion en fonction de la complexité de la tâche.
Apparentement convivial pour l’utilisateur, en réalité, cela a ouvert un interrupteur de régulation globale.
Au début mars, la valeur d’effort par défaut du modèle a été silencieusement abaissée à “moyen”, et le résumé du processus de réflexion a été rapidement masqué, empêchant l’utilisateur de voir à quel point le modèle réfléchissait en profondeur.
Au même moment, Anthropic a publié 14 petites mises à jour, mais a connu 5 pannes majeures, montrant que la puissance de calcul et la charge étaient proches de leurs limites.
Les retours des développeurs ont commencé à exploser, certains notant que la performance était particulièrement mauvaise en après-midi (heure de l’Est), suspectant une régulation dynamique de la charge.
Jusqu’en avril, lorsque le directeur AI d’AMD est intervenu personnellement, avec des données pour confirmer la situation, ce qui a complètement déclenché la controverse.
C’est alors que Boris Cherny, responsable de Claude Code chez Anthropic, a dû publier une réponse officielle.
Il a déclaré que “l’adaptive thinking” affecte l’affichage de la réflexion, mais pas le raisonnement sous-jacent, et a insisté sur le fait qu’il s’agissait d’une “optimisation intentionnelle” plutôt que d’un bug. Pour améliorer l’effet, les utilisateurs peuvent manuellement régler l’effort sur “high”.
Le sous-entendu d’Anthropic est clair : rendre moins intelligent n’est pas un bug, c’est une optimisation de produit délibérée, vous pouvez simplement ajuster les paramètres.
Cette réponse a immédiatement enflammé une colère encore plus grande.
Le point clé est qu’entre mi-février et début avril, Anthropic n’a jamais annoncé à l’avance aucun changement majeur.
De nombreux utilisateurs payants, sans en être informés, ont vu leurs abonnements maintenus inchangés, alors que le modèle était silencieusement régulé.
Ainsi, la baisse d’intelligence de Claude n’est pas une “panne” du modèle, mais une action plus discrète et plus commerciale d’Anthropic :
En abaissant la profondeur de réflexion par défaut, pour obtenir une vitesse plus rapide, une charge plus faible et des coûts GPU moindres.
La stratification des capacités du modèle
Derrière cette tempête de dégradation, il y a un phénomène à surveiller de près :
Les capacités du modèle commencent à se stratifier.
Les calculs de Stella sont simples : selon la tarification à la demande d’AWS Bedrock, le coût réel de raisonnement de son équipe en mars était d’environ 42 121 dollars, alors que le coût d’abonnement à Claude Code ce mois-là n’était que de 400 dollars.
Cet écart indique qu’en cas d’utilisation intensive extrême, la facturation par abonnement ne reflète pas le coût réel de calcul.
C’est probablement une stratégie d’Anthropic pour gagner des parts de marché en brûlant du capital, mais cette subvention a ses limites.
Lorsque la consommation de raisonnement des utilisateurs intensifs atteint un certain seuil, la viabilité commerciale commence à vaciller.
Boris Cherny a laissé entendre un signal clé : Anthropic teste la mise en mode “high effort” par défaut pour les équipes et entreprises.
En d’autres termes, un raisonnement plus puissant est désormais considéré comme une ressource plus coûteuse, et n’est plus accessible par défaut à tous.
Cela signifie que la commercialisation des grands modèles va encore plus se différencier.
Aujourd’hui, 80 % des revenus d’Anthropic proviennent des services aux entreprises et des appels API, le secteur B (business) à forte fidélité étant la véritable colonne vertébrale.
Toutes ces actions visent à faire migrer l’utilisation par les entreprises vers leur plateforme propriétaire.
Pour les clients B à forte valeur, Anthropic accélérera probablement le lancement de versions d’entreprise plus puissantes, offrant une capacité complète du modèle à ceux qui paient le vrai coût.
Quant aux utilisateurs C (consommateurs finaux) payant mensuellement, ils continueront probablement à utiliser une version “moins intelligente” pour des besoins légers comme la conversation, la rédaction ou la complétion de code, sans toucher aux coûts.
Quant à la zone intermédiaire, les développeurs indépendants ou petites équipes qui ont besoin de raisonnement complexe mais ne peuvent pas supporter des prix d’entreprise seront les plus pénalisés.
Un utilisateur a confirmé sur X :
“Les performances de l’API de la version entreprise de Claude sont bien meilleures que celles de l’abonnement Pro/Max. En utilisant le même cadre de test, le comportement diffère. Mais cela signifie aussi que je dois dépenser entre 4 000 et 12 000 dollars par mois, selon le nombre de threads que je fais tourner.”
Autrement dit, la voie commerciale des grands modèles à l’avenir sera probablement prioritairement B (entreprises), avec une version allégée pour le grand public.
Qui paiera pour la baisse d’intelligence ?
L’incident de la baisse d’intelligence de Claude n’est pas un cas isolé, mais un reflet de la transition de l’industrie de l’IA vers une phase plus commerciale.
Que ce soit OpenAI qui réduit discrètement la puissance de GPT ou Google qui limite silencieusement Gemini, ils suivent tous le même scénario :
Attirer les utilisateurs avec des modèles performants, puis contrôler les coûts par régulation logicielle.
Le résultat inévitable est que le B (business) peut acheter des modèles plus puissants à prix élevé avec SLA garanti, tandis que le C (consommateur) reçoit une version distillée, moins coûteuse, moins intelligente.
La vitesse d’augmentation de l’intelligence des modèles pour le grand public est clairement en retard par rapport au secteur B.
Et cette différenciation est de plus en plus insidieuse.
Des acteurs comme Anthropic réduisent insidieusement le budget de raisonnement, sans que les utilisateurs ordinaires en soient informés.
Ce choix peut soulager à court terme la pression sur la puissance de calcul, mais à long terme, il compromet la confiance dans la marque.
Si la baisse d’intelligence de Claude devient une norme tacite pour les utilisateurs, Anthropic risque de perdre non seulement quelques utilisateurs intensifs, mais aussi la confiance globale dans l’écosystème d’IA, sa transparence et son accessibilité.
Plus largement, l’incident Claude illustre la transition de l’IA d’une croissance sauvage à une approche plus fine et stratégique.
La période de subventions touche à sa fin, les coûts réels commencent à apparaître, mais qui assumera ces coûts ?
Réduire l’expérience pour le grand public et augmenter les prix pour les entreprises, ou attendre une révolution hardware/software pour améliorer l’efficacité, ce qui déterminera la configuration du marché de l’IA dans les cinq prochaines années.
Les tendances futures se dessinent : l’IA ne sera plus une mythologie universelle de plus en plus intelligente, mais une technologie de plus en plus élitiste et stratifiée.