L’IA, accélérateur de cyber-menaces en 2026 : agents IA détournés, attaques autonomes et robots hackés
L’IA accélère et automatise les attaques informatiques. État des lieux des menaces actuelles.
L’intelligence artificielle transforme la menace cyber en accélérant et en automatisant les attaques : phishing 4,5 fois plus efficace, malwares autonomes et outils accessibles aux hackers dès 100 $/mois. On assiste également à de nouvelles surfaces d’attaque qui émergent avec les agents IA, les navigateurs boostés et les robots humanoïdes, qui constituent autant de nouveaux vecteurs. Pourtant, l’IA offre aussi des solutions pour les cyberdéfenseurs : détection et correction de vulnérabilités, réduction des coûts… On fait le point à la suite de la conférence donnée par l’excellent Gérôme Billois lors de l’évènement Panocrime 2026 du Clusif.
I. L’IA renouvelle les attaques classiques
1) L’IA accélèrent les cyberattaques
Un phishing réalisé avec l’aide de l’intelligence artificielle est 4,5 fois plus efficace qu’un phishing classique nous indique le dernier rapport de Microsoft sur la défense numérique de 2025.
Les attaquants ont d’ailleurs développé toute une panoplie d’outils et de cas d’usages permettant de faire du phishing ou de l’écriture de codes malveillants :

Les cybercriminels revendent cher ses outils, pour des tarifs accessibles, à partir de $100 par mois et qui créent grâce à l’IA, de nouvelles sources de revenus.

2) Les attaques IA deviennent de plus en plus automatisées
On commence à voir des agents IA qui pilotent des attaques sous le contrôle de cybercriminels. Les chercheurs d’Anthropic, éditeur de Claude, ont observé une attaque matérialisée par le diagramme ci-dessous :

Lors de la première phase de reconnaissance, l’attaquant définit la cible qu’il souhaite attaquer. Il laisse ensuite l’IA réaliser les différentes opérations de manières automatiques : découverte de la surface d’attaque et test de vulnérabilité. Selon Anthropic, l’attaquant aurait ainsi gagné des dizaines d’heures dans la réalisation de cette attaque.
3) Des premières attaques autonomes menées par des IA
La première attaque autonome connue a touché l’Ukraine et concerne le malware Prompt Steal qui contenait des instructions vers un modèle IA Opensource. Ce malware, qui a été détecté par le CERT Ukrainien, s’installe sur son hôte et réalise des prompts vers des systèmes d’IA pour récupérer des instructions qui lui permettent de réaliser des attaques adaptées au contexte de l’entreprise, le tout en temps réel.
Prompt Flux est un autre malware qui une fois installé, va réécrire à chaque fois de manière différentes ses codes d’executions à l’aide de l’IA pour les rendre plus difficile à détecter.
Cependant, les chercheurs de Google nuancent la dangerosité de ses malwares car on arrive à les détecter encore assez facilement actuellement.
II. Exploration de nouvelles surfaces d’attaques
1) Des agents IA détournés par des instructions malveillantes
Des travaux de recherche d’aim labs ont démontré la première attaque zéro-clic qui a fonctionné sur l’agent d’IA Copilot de Microsoft. Le principe est simple : un email envoyé masque un prompt destiné à l’agent IA. L’utilisateur demande par exemple à Copilot d’avoir un résumé de ses emails de la journée. Les emails sont analysés par l’agent IA, qui interprète le prompt caché dans l’email (par exemple, un prompt écrit en blanc sur fond blanc, invisible à l’œil nu). Le prompt est ensuite exécuté par l’agent légitime qui réalise un résumé d’un certain nombre d’informations sensibles et qui en suivant les instructions exfiltre les données.

Google Gemini est également concerné. En fin d’année dernière, une attaque localisée dans une invitation de réunion a été envoyée à l’agent IA qui en l’analysant va construire les différentes actions menant à l’exfiltration de données.
2) Attaques via les navigateurs IA
Les navigateurs boostés à l’intelligence artificielle sont apparus en 2025 : Comet (perlexity) ou Atlas (OpenAI) peuvent également être un vecteur d’attaques. Les instructions sont cachés dans les sites web ou les URL. Lorsque le navigateur clic et interprète ce qu’il voit, il peut exécuter une instruction malveillante.
Le modèle de sécurité de nos navigateurs est historiquement basé sur une séparation (un cloisonnement) de nos pages de navigation. L’usage de navigateurs IA remet en cause ce modèle de sécurité, à tel point que le Gartner conseille de faire une pause dans l’adoption des navigateurs boostés à l’IA de part le problème fondamental de révision du modèle de confiance auquel on avait l’habitude.
3) Attaques via les robots humanoïdes
Les modèles actuels d’IA, qu’ils soient embarqués dans des agents IA, des navigateurs boostés ou des robots, reposent tous sur des IA génératives avec lesquelles on interagit. La manière dont ont configure et on utilise ces outils passent par le même canal. On configure par un prompt. On utilise l’IA par un prompt. Cela constitue un changement de paradigme alors qu’avant, la console d’administration était séparée de la console d’utilisation.
Il est nécessaire aujourd’hui d’intégrer la sécurité au cœur même de la construction de ces modèles d’intelligence artificielle.
III. Mais, l’intelligence artificielle est aussi un véritable accélérateur pour les défenseurs
Des agents IA ont la capacité de trouver aujourd’hui des vulnérabilités voir même à les corriger. Certaines arrivent même à finir premières lors de bug bounty !
Le projet AIxCC de la DARPA vise à identifier et corriger par l’IA des vulnérabilités sur plus de 80+ projets opensource. Le résultat : Près de 70 % des bugs identifiés et des correctifs trouvés dans 61 % des cas.
En moyenne , il ne faut que 45 minutes à l’agent IA entre l’analyse du code source, l’identification de la vulnérabilité, la correction, le tests et la compilation du code source, pour un coût moyen estimé de 450 $ (de puissance informatique). Imbattable.
Enfin, terminons par une ressource utile pour le organisations qui souhaitent démarrer la sécurisation des modèles, la gestions des identifiés ou encore la protection des données en intégrant l’IA dans leur PSSI, via le modèle offert par le CLUSIF.
L’article L’IA, accélérateur de cyber-menaces en 2026 : agents IA détournés, attaques autonomes et robots hackés est apparu en premier sur Clement Donzel.



