L'intelligence artificielle, nouvel atout des cybercriminels

Depuis l'avènement de ChatGPT fin 2022, l'intelligence artificielle (IA) a franchi un cap décisif, démocratisant des outils jusqu'alors réservés à des spécialistes. Si ces avancées ouvrent des perspectives prometteuses pour les entreprises et la recherche, elles représentent également une aubaine pour les cybercriminels, qui n'ont pas tardé à s'en emparer
Je m'abonneEn modifiant profondément les techniques d'attaque, l'IA redéfinit les rapports de force dans le cyberespace. Chaque phase d'une cyberattaque bénéficie aujourd'hui des apports de l'IA. Dès la reconnaissance, des bots d'IA scrutent les réseaux sociaux, extraient des milliers de profils en un temps record et croisent ces données avec des bases issues de fuites massives de données personnelles. Cette capacité à traiter rapidement d'énormes volumes d'informations permet aux attaquants de dresser un portrait détaillé de leurs cibles.
Des outils comme Nmap.ai transforment les scans réseaux en rapports exploitables instantanément, facilitant la cartographie des vulnérabilités et des infrastructures des entreprises visées. Là où l'analyse de ces données nécessitait autrefois une expertise avancée, l'IA réduit désormais considérablement les barrières techniques, rendant ces opérations accessibles à un plus large éventail d'acteurs.
Accès initial et ingénierie sociale
L'IA optimise également la phase d'intrusion. Les campagnes de phishing deviennent hyper-ciblées grâce aux modèles de traitement du langage naturel. Les messages frauduleux sont désormais rédigés sans fautes, adaptés au contexte et au profil psychologique de la victime. Selon une étude récente, plus de 82% des campagnes de phishing observées début 2025 exploitent des contenus générés par IA, rendant la détection humaine de plus en plus difficile.
L'ingénierie sociale se perfectionne encore avec les deepfakes. Voix et visages peuvent être clonés à un niveau de réalisme sidérant, comme l'illustre l'arnaque ayant coûté 25 millions de dollars à une entreprise britannique en 2024. Des malware comme GoldPickaxe.iOS vont jusqu'à capturer des données biométriques pour alimenter ces simulations et contourner des systèmes d'authentification avancés. L'intégration de deepfakes en temps réel dans des attaques multicanales (emails, appels vidéo et audio, réseaux sociaux) préfigure un nouveau type de compromission, plus immersif et manipulateur.
Exploitation, déploiement et obfuscation
Mais l'IA ne se limite pas à la manipulation psychologique : elle pénètre aussi les couches techniques des attaques. Des modèles spécialisés comme VulBERTa analysent des milliers de descriptions de vulnérabilités pour détecter automatiquement les failles exploitables et suggérer les meilleures stratégies d'exploitation. L'IA devient ici un véritable conseiller tactique pour les attaquants.
Des outils de développement détournés, tels que Codex d'OpenAI, pourraient demain générer des malware adaptatifs capables de modifier leur code à l'exécution pour échapper aux antivirus. L'automatisation de la génération de code malveillant et l'apparition de malware polymorphes capables d'ajuster dynamiquement leur structure rendent les systèmes de détection classiques largement obsolètes. Certains chercheurs évoquent même des agents autonomes coopératifs, capables de coordonner leurs actions, d'apprendre en temps réel et d'orchestrer des attaques complexes sans supervision humaine.
De la sécurité des modèles d'IA
L'IA elle-même devient une cible stratégique. Les attaques adversariales exploitent les failles des modèles pour fausser leurs prédictions ou contaminer leurs jeux de données d'entraînement. L'exploitation massive de données , comme celles collectées par Meta en Europe, accroît le risque d'empoisonnement collaboratif où des contenus biaisés seraient introduits volontairement dans les bases d'entraînement.
Des vers informatiques de nouvelle génération, à l'image de Morris II, démontrent la capacité d'un code malveillant à se propager au sein d'écosystèmes d'agents IA interconnectés, sans interaction humaine directe. L'IA devient ainsi à la fois une arme offensive et une surface d'attaque critique, redoublant les défis de sécurité pour les entreprises et les gouvernements.
Face à cette menace évolutive, la défense doit elle aussi s'appuyer sur l'IA. Les dispositifs d'analyse comportementale, le modèle Zero Trust, la supervision continue des flux réseau et la détection prédictive des vulnérabilités deviennent incontournables. L'automatisation des contre-mesures, couplée à des capacités d'auto-apprentissage défensif, pourrait devenir le prochain terrain de cette course technologique. Mais cette révolution impose aussi un impératif absolu : garantir la robustesse des modèles et la qualité des données utilisées. Car au coeur de cette nouvelle ère de la cybersécurité, c'est désormais l'intégrité même de l'intelligence artificielle qui devient la clef de voûte de la résilience numérique. Nul doute que l'intelligence artificielle devrait donc profondément transformer le paysage de la défense en cybersécurité, en réponse à la sophistication croissante des attaques automatisées.
Marc Béhar, PDG Fondateur du cabinet de conseil en cybersécurité, XMCO