Frapper la théorie de l'attaque terroriste d'IA ! Étude : les hackers préfèrent les images de femmes nues générées par l'IA, pourquoi n'aiment-ils pas Vibe Coding ?

Les recherches indiquent que l’IA générative n’a pas engendré de super-hackers, la majorité étant simplement utilisée pour des escroqueries SEO ou la génération de photos nues, des crimes de faible niveau. Les hackers craignant une dégradation des compétences refusent de dépendre excessivement de l’IA, et la fuite de talents technologiques vers le marché noir constitue la véritable préoccupation en matière de cybersécurité.

Contre l’idée d’attaques terroristes par l’IA, une étude affirme que l’IA générative n’a pas créé de super-hackers

Ces dernières années, les entreprises de cybersécurité, les agences gouvernementales et les géants de la technologie IA ont constamment averti que l’IA générative pourrait donner naissance à une nouvelle génération de super-hackers puissants, mais une étude récente remet en question cette affirmation.

Rédigé par des chercheurs de l’Université de Cambridge, de l’Université d’Édimbourg et de l’Université de Strathclyde, l’article « Stand-Alone Complex or Vibercrime? » examine l’impact réel de l’IA générative sur la criminalité en ligne, contestant directement l’hypothèse selon laquelle l’IA provoquerait des cyberattaques dévastatrices.

L’équipe de recherche a analysé plus de 15 ans de données provenant de forums de hackers, découvrant que les menaces en ligne restent très ordinaires. Dans la majorité des cas, l’IA est principalement utilisée pour optimiser des escroqueries automatisées existantes, le référencement (SEO) frauduleux et le traitement de tâches administratives de faible niveau. L’imagination populaire d’un super-hacker se limite souvent à utiliser ChatGPT pour rédiger des messages indésirables ou générer des photos nues à des fins lucratives.

Plus de 90 % des discussions sur les forums de hackers ne concernent pas la criminalité liée à l’IA

Pour comprendre la véritable nature du crime organisé en ligne, l’équipe de recherche a extrait et analysé 97 895 articles du forum de la Cambridge Cybercrime Centre, depuis la sortie de ChatGPT en novembre 2022.

Ils ont utilisé un modèle thématique pour l’analyse, complété par la lecture manuelle de plus de 3 200 articles. Les résultats montrent que l’IA générative n’a pas substantiellement abaissé le seuil technique pour que les débutants entrent dans la criminalité en ligne.

Les données indiquent que jusqu’à 97,3 % des articles dans l’échantillon sont classés comme autres, ce qui signifie que ces discussions ne concernent pas du tout l’utilisation de l’IA pour commettre des crimes, seulement 1,9 % évoquent l’utilisation d’outils de codage Vibe.

Source : étude de recherche. Les résultats montrent que plus de 90 % des discussions sur les forums de hackers ne concernent pas la criminalité liée à l’IA.

Les « chatbots IA obscurs » sont surtout des stratégies marketing

En 2023, des chatbots IA tels que WormGPT et FraudGPT, prétendant avoir des capacités d’attaque malveillante, ont occupé le devant de la scène médiatique.

Mais les chercheurs ont découvert, à partir des données des forums, que les publications sur les produits IA obscurs sont majoritairement des utilisateurs suppliant pour obtenir un accès gratuit ou se plaignant de l’impossibilité de faire fonctionner ces outils.

Un développeur de services IA obscurs bien connu a même admis aux membres du forum que le produit n’était qu’une stratégie marketing, essentiellement un ChatGPT sans restrictions.

L’étude indique qu’à la fin 2024, les méthodes de jailbreaking des modèles principaux sont devenues des outils jetables, souvent invalidés en moins d’une semaine. Bien que les modèles open source puissent être jailbreakés indéfiniment, leur fonctionnement consomme énormément de ressources et manque de mises à jour, ce qui montre que les mécanismes de sécurité actuels des systèmes IA sont effectivement efficaces.

Les hackers évitent Vibe Coding, craignant la dégradation des compétences

L’étude répond également directement au rapport publié par Anthropic en août 2025, qui affirmait que Claude Code avait été utilisé pour extorquer 17 organisations via des attaques de type « hacking d’ambiance », mais cette pratique n’a pas été retrouvée dans les forums analysés.

Dans les forums étudiés, l’utilisation principale des assistants de programmation IA est comme outils d’autocomplétion pour des programmeurs expérimentés, tandis que les attaquants peu qualifiés préfèrent utiliser des scripts prêts à l’emploi et efficaces.

Un utilisateur du forum a averti que l’assistance à la programmation par IA pourrait augmenter les risques de code peu sécurisé ; un autre hacker a même déclaré que la dépendance excessive à Vibe Coding pourrait entraîner une dégradation rapide des compétences de hacking.

L’utilisation réelle de l’IA dans la criminalité en ligne : contenu indésirable et escroqueries sexuelles

Selon cette étude, le domaine dans lequel l’IA aide réellement les criminels se trouve principalement à la base de la chaîne.

Par exemple, les escrocs SEO utilisent des modèles IA pour produire massivement des articles spam ; les opérateurs de scams romantiques et de pornographie en ligne commencent à combiner l’IA de clonage vocal ; les opportunistes cherchant à s’enrichir rapidement produisent en masse des livres électroniques IA, vendus à 20 dollars chacun.

L’étude révèle que le marché le plus inquiétant concerne les services de génération de photos nues. Certains fournisseurs prétendent pouvoir faire déshabiller n’importe quelle fille avec l’IA, avec des prix allant d’1 dollar par photo, 8 dollars pour 10, 40 dollars pour 50, jusqu’à 75 dollars pour 90 photos.

Les chercheurs concluent en soulignant que la principale voie par laquelle l’IA bouleverse l’écosystème de la criminalité en ligne est en réalité la fuite de développeurs licenciés du secteur technologique légitime vers le marché noir.** La récession économique et le marché de l’emploi morose sont les principales raisons pour lesquelles des développeurs hautement qualifiés rejoignent les réseaux de fraude et de cybercriminalité.**

Lectures complémentaires :
PDG de Microsoft AI : dans 18 mois, l’IA automatisera les emplois de bureau, mais cela pourrait aussi entraîner de graves incidents de sécurité.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler