Cybercriminalité et intelligence artificielle : l’Europe mise sur la régulation et la coopération

Culture tech.

Comment l'Europe répond à l'industrialisation des cyberattaques ?

PRIM'X - Cybercriminalité et intelligence artificielle : l’Europe mise sur la régulation et la coopération

L’intelligence artificielle transforme en profondeur la cybercriminalité, en accélérant les attaques et en renforçant leur capacité d’adaptation. Face à cette évolution, l’Europe réagit. Entre prospective, coopération opérationnelle et renforcement du cadre réglementaire, elle organise une réponse structurée pour réduire l’asymétrie entre attaquants et défenseurs, et renforcer la résilience des organisations.

Comment l’IA accélère les cyberattaques à grande échelle ?

L’intelligence artificielle connaît une montée en puissance spectaculaire depuis trois ans, révolutionnant les pratiques cybercriminelles. En réduisant les coûts d’entrée pour les attaquants, elle accélère la chaîne offensive. La génération de phishing ciblé, les scans automatisés de vulnérabilités et l’exploitation plus rapide des failles deviennent accessibles à grande échelle. Ces attaques atteignent un niveau de sophistication suffisant pour déjouer les dispositifs de sécurité traditionnels.

Quant aux modèles génératifs, ils permettent de produire des contenus de plus en plus crédibles, multilingues et contextualisés. Les attaques par usurpation d’identité gagnent en précision, en particulier via l’email, la messagerie instantanée et la voix synthétique, ce qui fragilise les mécanismes de vigilance humaine au sein des organisations.

Cyberattaques automatisées : l’IA change les règles du jeu

Dans son Threat Report de 2025, l’ESET cite l’exemple des fraudes à l’investissement de type « Nomani ». Ces fraudes reposent sur des publicités et posts sponsorisés sur les réseaux sociaux qui imitent des médias ou des marques légitimes et promettent des rendements financiers exceptionnels via de faux produits d’investissement, souvent en cryptomonnaie

Les experts ont observé des deepfakes dont le niveau de qualité progresse très rapidement, des traces de sites de phishing générés par l’IA ainsi que des campagnes publicitaires d’une durée réduite afin d’éviter toute détection. Dans la télémétrie de l’ESET, les détections d’escroqueries « Nomani » ont augmenté de 62 % entre 2024 et 2025, avec une légère baisse de la tendance au second semestre 2025.

L’escroquerie « Arup » est un autre cas emblématique de fraude deepfake. Elle s’est produite en février 2024 au bureau de Hong Kong de la multinationale britannique Arup, société d’ingénierie et de design mondial. Un employé du département financier a transféré 25 millions de dollars en 15 virements. Il a été victime d’un e-mail de phishing suivi d’un appel vidéo où des escrocs, grâce à l’IA, ont cloné les visages et les voix du directeur financier et de certains de ses collègues pour ordonner une « transaction secrète urgente ».

Des menaces plus adaptatives et difficiles à détecter

L’IA permet aux attaquants d’adapter leurs charges malveillantes en temps réel pour échapper aux mécanismes de détection basés sur des signatures connues. Les malwares deviennent de plus en plus polymorphes et leurs comportements parviennent à se fondre davantage dans l’activité normale des systèmes. Une évolution qui complique fortement le travail des SOC (Security Operations Center / Centre d’opérations de sécurité) et des équipes de réponse à incident.

Au second semestre 2025, ESET a découvert que Prompt Lock, un des tout premiers ransomwares exploitant l’IA, était capable de générer des scripts malveillants à la volée. Concrètement, le malware comporte deux éléments distincts. Tout d’abord, un module principal statique qui s’exécute sur la machine infectée et contient des instructions fixes. Mais également un modèle de langage IA, lui-même exécuté localement ou via un serveur contrôlé par l’attaquant, qui génère des scripts malveillants en temps réel sur la base de prompts prédéfinis.

Face à ces menaces évolutives, la protection cryptographique des données sensibles devient un rempart essentiel. Le chiffrement de bout en bout garantit que même en cas de compromission du système, les données restent illisibles pour l’attaquant. Cette approche s’inscrit dans une stratégie de défense en profondeur où la confidentialité des informations critiques ne dépend plus uniquement de la détection des malwares, mais d’une protection intrinsèque des données elles-mêmes.

L’Europe renforce sa stratégie de cyberdéfense collective

L’ENISA (European Union Agency for Cybersecurity / Agence de l’Union européenne pour la cybersécurité) inscrit l’intelligence artificielle parmi les facteurs structurants de l’évolution des cybermenaces à moyen terme. 

Dans ses projections à 5 ans, elle souligne la capacité de l’IA à renforcer l’asymétrie entre attaquants et défenseurs, notamment par la vitesse d’exécution et l’adaptation dynamique des attaques

Elle soutient les entreprises face à la cybercriminalité dopée à l’IA autour de quatre axes concrets : 

  • des travaux de prospective, comme le Cybersecurity Threats for 2030, afin d’anticiper les scénarios d’attaques liés à l’IA ;
  • des rapports de threat landscape (paysage des menaces) ;
  • des guides techniques pour adapter la détection et la réponse aux incidents ;
  • une coordination du réseau européen des CSIRTs (Computer Security Incident Response Team), facilitant le partage d’alertes, d’indicateurs et de retours d’expérience.

De NIS2 à l’AI Act : l’arsenal réglementaire européen

L’Union européenne a mis en place un cadre réglementaire structuré afin de renforcer la lutte contre la cybercriminalité et d’élever le niveau de cyberdéfense des organisations. La directive NIS2 constitue le socle central de ce dispositif. En élargissant le périmètre des entités concernées et en imposant des exigences renforcées en matière de gestion des risques et de notification des incidents, elle poursuit l’objectif de réduire les vulnérabilités systémiques. 

Le règlement DORA complète cette approche pour le secteur financier en renforçant la résilience opérationnelle numérique, notamment face aux cyberattaques et aux défaillances des systèmes informatiques critiques.

Le Cyber Resilience Act agit de son côté en amont en imposant des exigences de sécurité dès la conception pour les produits matériels et logiciels commercialisés sur le marché européen. Il vise à réduire la surface d’attaque exploitée par la cybercriminalité en obligeant les éditeurs et fabricants à corriger les vulnérabilités et à assurer un suivi de sécurité tout au long du cycle de vie des produits. 

L’AI Act complète cet ensemble en encadrant le développement et l’usage des systèmes d’intelligence artificielle, en particulier lorsque ceux-ci présentent des risques pour la sécurité ou les droits fondamentaux.

Cybersécurité : la stratégie française pilotée par l’ANSSI

En France, l’ANSSI s’inscrit dans cette trajectoire en articulant régulation, accompagnement des acteurs et développement de capacités nationales. Son plan stratégique 2025-2027 vise à élever le niveau global de cybersécurité en diffusant des recommandations techniques, des guides pratiques et des retours d’expérience issus d’incidents réels. Ces travaux intègrent les risques spécifiques liés à l’IA, notamment l’ingénierie sociale automatisée, les deepfakes et les attaques adaptatives.

L’agence soutient également les entreprises dans l’application de la directive NIS2 et du Cyber Resilience Act, en insistant sur une gouvernance solide, pilotée au niveau de la direction et alignée avec les enjeux métiers, au-delà d’une simple logique de conformité. 

Au-delà de la protection, les initiatives européennes autour de l’IA doivent aussi être lues comme un cadre permettant un usage raisonné et efficace de ces technologies en cybersécurité. L’enjeu consiste autant à contenir les usages malveillants qu’à créer les conditions d’une exploitation maîtrisée de l’IA par les défenseurs, afin d’optimiser la détection, la réponse à incident et la résilience des organisations.

À mesure que l’intelligence artificielle s’impose comme un accélérateur de la cybercriminalité, la réponse européenne et française cherche à rééquilibrer un rapport de force devenu plus instable. Pour les organisations, l’enjeu ne se limite plus à la conformité ou au déploiement d’outils supplémentaires. Il s’agit d’intégrer durablement l’IA dans l’analyse des risques, la gouvernance de la sécurité et la préparation à la crise pour renforcer la résilience collective afin de réduire les marges de manœuvre offertes aux cybercriminels.

L’IA amplifie les capacités des cybercriminels en automatisant les attaques et en les rendant plus sophistiquées. Elle permet de créer des deepfakes convaincants, de générer des emails de phishing personnalisés à grande échelle, et d’identifier automatiquement les vulnérabilités des systèmes pour les exploiter plus rapidement.

L’IA révolutionne la cybersécurité en détectant les menaces en temps réel et en analysant des volumes massifs de données pour identifier des comportements anormaux. Elle permet d’automatiser la réponse aux incidents, de prédire les attaques potentielles et d’améliorer considérablement les temps de réaction face aux cybermenaces.

Non, l’IA ne remplacera pas les professionnels de la cybersécurité, mais transformera leur rôle. L’expertise humaine reste essentielle pour la stratégie, la prise de décision complexe et la gestion des situations critiques, tandis que l’IA agit comme un outil puissant qui augmente leurs capacités et leur efficacité.