Cyberattaques IA : Google révèle des menaces venues de Chine et Russie

Image d'illustration. Silhouette d un hacker sur un toit à pékinADN
Selon Google, des cybercriminels et groupes étatiques utilisent déjà l’IA pour accélérer attaques, deepfakes et espionnage numérique, rendant les menaces plus rapides, sophistiquées et difficiles à détecter.
Tl;dr
- Les cybercriminels exploitent déjà l’IA pour leurs attaques.
- Google observe des tactiques avancées venues de Chine, Corée, Russie.
- L’IA renforce vitesse et sophistication des menaces informatiques.
L’essor discret de l’intelligence artificielle dans la cybercriminalité
Depuis quelques mois, une tendance semble s’accentuer : l’utilisation de plus en plus sophistiquée de l’intelligence artificielle par les acteurs malveillants. C’est ce que confirme le dernier rapport du Google Threat Intelligence Group (GTIG), intitulé « AI Threat Tracker », qui fait suite à une première analyse publiée en février 2026. Ce document s’appuie sur plusieurs incidents récents, notamment attribués à des groupes étatiques ou criminels issus de la Chine, de la Corée du Nord ou encore impliquant des opérations russes.
Nouvelles tactiques : entre sophistication technique et ingéniosité
Ce rapport révèle que certains collectifs, comme le groupe d’APT27, ont recours à l’IA non seulement pour créer des logiciels malveillants, mais aussi pour bâtir des infrastructures plus robustes et difficiles à déceler. D’autres, à l’image du groupe lié au cyberespionnage chinois, identifié comme UNC5673, tentent d’exploiter les LLM dits « frontaliers » à travers des procédés particulièrement élaborés. Une liste d’outils IA agentiques, tels qu’OpenClaw est également évoquée pour leur capacité à automatiser des missions de reconnaissance, voire à orchestrer différentes phases d’une attaque.
Par ailleurs, un autre phénomène interpelle : la prolifération de deepfakes, employés dans le cadre d’opérations russes visant la désinformation via des contenus vidéo manipulés par IA. Ce mélange d’innovation technologique et d’ingéniosité rend la menace difficilement prévisible et particulièrement dynamique.
L’avis du terrain : une réalité inquiétante pour les experts
Interrogé sur cette évolution, John Hulquist, analyste principal au GTIG, tempère pourtant certaines perceptions répandues : « Il existe une idée reçue selon laquelle la course à la vulnérabilité de l’IA est imminente. La réalité, c’est que ça a déjà commencé. Pour chaque faille zero-day que l’on peut attribuer à l’IA, il en existe probablement beaucoup d’autres. » Selon lui, le véritable changement réside dans la rapidité et la complexité croissantes des attaques permises par ces technologies.
Ainsi, il ajoute : « Les acteurs malveillants utilisent l’IA pour accroître la vitesse, l’ampleur et la sophistication de leurs attaques… Les acteurs étatiques tirent profit de cette technologie, mais la menace criminelle ne doit pas être sous-estimée. »
Pistes défensives et vigilance accrue chez Google
Face à ces évolutions préoccupantes, Google multiplie ses efforts pour anticiper et contrer les menaces liées aux usages détournés de l’intelligence artificielle. Parmi les principaux enseignements du rapport :
- L’intensification du recours aux outils d’automatisation IA par les cybercriminels.
- L’apparition rapide de techniques inédites ou jusqu’ici marginales.
- L’implication croissante d’acteurs étatiques dans ce domaine sensible.
Le tableau dressé dessine un paysage mouvant où l’innovation technologique nourrit autant les avancées défensives que les offensives numériques. Pour beaucoup d’experts, ce bras de fer risque donc encore de se renforcer dans les prochains mois.