Futures
Accédez à des centaines de contrats perpétuels
CFD
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Promotions
Centre d'activités
Participez et gagnez des récompenses
Parrainage
20 USDT
Invitez des amis et gagnez des récompenses
Programme d'affiliation
Obtenez des commissions exclusives
Gate Booster
Développez votre influence et gagnez des airdrops
Annoncement
Mises à jour en temps réel
Blog Gate
Articles sur le secteur de la crypto
AI
Gate AI
Votre assistant IA polyvalent pour toutes vos conversations
Gate AI Bot
Utilisez Gate AI directement dans votre application sociale
GateClaw
Gate Blue Lobster, prêt à l’emploi
Gate for AI Agent
Infrastructure IA, Gate MCP, Skills et CLI
Gate Skills Hub
+10K compétences
De la bureautique au trading, une bibliothèque de compétences tout-en-un pour exploiter pleinement l’IA
GateRouter
Choisissez intelligemment parmi plus de 40 modèles d’IA, avec 0 % de frais supplémentaires
Contre-argumentation contre la théorie effrayante d'une cyberattaque AI ! Étude : les hackers préfèrent les images de femmes nues générées par IA, pourquoi n'aiment-ils pas Vibe Coding ?
Des études ont montré que l’IA générative n’a pas engendré de super-hackers, la majorité étant utilisée uniquement pour des escroqueries SEO ou la création de photos nues, des crimes de bas niveau. Les hackers craignant une dégradation des compétences refusent de dépendre excessivement de l’IA, et la perte d’emplois dans la technologie vers le marché noir constitue la véritable préoccupation en matière de cybersécurité.
Contre l’idée d’attaques terroristes par l’IA, une étude affirme que l’IA générative n’a pas créé de super-hackers
Ces dernières années, des entreprises de cybersécurité, des agences gouvernementales et des géants de la technologie IA ont constamment averti que l’IA générative pourrait donner naissance à une nouvelle génération de super-hackers puissants, mais une étude récente remet en question cette affirmation.
Rédigé par des chercheurs de l’Université de Cambridge, de l’Université d’Édimbourg et de l’Université de Strathclyde, l’article « Stand-Alone Complex or Vibercrime? » examine l’impact réel de l’IA générative sur la cybercriminalité, contestant directement l’hypothèse selon laquelle l’IA provoquerait des attaques dévastatrices.
L’équipe de recherche a analysé plus de 15 ans de données provenant de forums de hackers, découvrant que les menaces en ligne restent très ordinaires. Dans la majorité des cas, l’IA est principalement utilisée pour optimiser des escroqueries automatisées existantes, le référencement (SEO) frauduleux et le traitement de tâches administratives de faible niveau. L’imagination populaire d’un super-hacker se limite souvent à utiliser ChatGPT pour rédiger des messages indésirables ou générer des photos nues à des fins lucratives.
Plus de 90 % des discussions sur les forums de hackers ne concernent pas la criminalité liée à l’IA
Pour comprendre la véritable nature du crime organisé en ligne, l’équipe de recherche a extrait et analysé 97 895 articles du centre de criminalité en ligne de Cambridge, depuis la sortie de ChatGPT en novembre 2022.
Ils ont utilisé un modèle thématique pour analyser ces données, complété par la lecture manuelle de plus de 3 200 articles. Les résultats montrent que l’IA générative n’a pas substantiellement abaissé le seuil technique pour que les débutants entrent dans la cybercriminalité.
Les données indiquent que jusqu’à 97,3 % des articles dans l’échantillon sont classés comme autres, ce qui signifie que leur contenu discuté n’a rien à voir avec la criminalité liée à l’IA, et seulement 1,9 % abordent l’utilisation d’outils de codage Vibe.
Source : étude de recherche. Les résultats montrent que plus de 90 % des discussions sur les forums de hackers ne concernent pas la criminalité liée à l’IA.
Les « chatbots IA sombres » sont surtout des stratégies marketing
Rétrospectivement, en 2023, des chatbots IA comme WormGPT et FraudGPT, prétendant avoir des capacités d’attaque malveillante, ont occupé le devant de la scène médiatique.
Mais les chercheurs ont découvert dans les données des forums que, pour la majorité des publications sur les produits IA obscurs, les utilisateurs se contentaient de demander des accès gratuits ou se plaignaient que ces outils ne fonctionnaient pas du tout.
Un développeur de services IA obscurs bien connu a même admis aux membres du forum que le produit n’était qu’une stratégie marketing, essentiellement un ChatGPT sans restrictions.
L’étude indique qu’à la fin 2024, les méthodes de jailbreaking des modèles principaux sont devenues des outils jetables, souvent invalidés en moins d’une semaine. Bien que les modèles open source puissent être jailbreakés indéfiniment, leur fonctionnement consomme énormément de ressources et ils manquent de mises à jour, ce qui montre que les mécanismes de sécurité actuels de l’IA sont effectivement efficaces.
Les hackers évitent Vibe Coding, craignant la dégradation des compétences
L’étude répond également directement au rapport publié par Anthropic en août 2025, qui affirmait que Claude Code avait été utilisé pour extorquer 17 organisations, mais cette pratique n’a pas été retrouvée dans les forums analysés.
Dans les forums étudiés, l’utilisation principale des assistants de programmation IA est comme outils d’autocomplétion pour des programmeurs expérimentés, tandis que les attaquants peu qualifiés préfèrent utiliser des scripts prêts à l’emploi et efficaces.
Un utilisateur du forum a averti que l’aide à la programmation par IA pourrait augmenter les risques de code peu sécurisé ; un autre hacker a même déclaré que dépendre excessivement de Vibe Coding entraînerait une dégradation rapide des compétences de hacking.
L’utilisation réelle de l’IA dans la cybercriminalité : contenu indésirable et escroqueries sexuelles
Selon cette étude, le domaine dans lequel l’IA assiste réellement les criminels se trouve principalement à la base de la chaîne.
Par exemple, les escrocs SEO utilisent des modèles IA pour produire massivement des articles spam ; les fraudeurs romantiques et les exploitants de sites pornographiques commencent à combiner l’IA pour la synthèse vocale ; les opportunistes cherchant à s’enrichir rapidement produisent en masse des livres électroniques IA, vendus à 20 dollars l’unité.
L’étude révèle que le marché le plus inquiétant concerne les services de génération de photos nues. Certains fournisseurs prétendent pouvoir faire déshabiller n’importe quelle fille avec l’IA, avec des prix allant d’1 dollar par photo, 8 dollars pour 10, 40 dollars pour 50, jusqu’à 75 dollars pour 90 photos.
Les chercheurs concluent en soulignant que la principale voie par laquelle l’IA bouleverse l’écosystème de la cybercriminalité est en réalité par le départ vers le marché noir de développeurs licenciés dans le secteur technologique légitime.** La crise économique et le marché de l’emploi morose sont les principales raisons pour lesquelles des développeurs hautement qualifiés quittent le secteur légal pour rejoindre des réseaux de fraude et de cybercriminalité.**
Lectures complémentaires :
PDG de Microsoft AI : dans 18 mois, l’IA automatisera les emplois de cols blancs, mais cela pourrait aussi entraîner de graves incidents de sécurité.