Cybersécurité et agents IA : l’identité, talon d’Achille des entreprises

Image d'illustration. Vue dynamique des badges d identité numériqueVue dynamique des badges d'identité numériques illuminant un espace de travail, accentuant le thème de l'autonomie.
L’essor fulgurant des agents IA soulève une urgence : comment leur faire confiance sans identité fiable ? Gouvernance, traçabilité et sécurité logicielle deviennent les piliers d’une cybersécurité à réinventer.
Tl;dr
- Adoption rapide de l’IA, gouvernance identitaire insuffisante.
- Vulnérabilité croissante des systèmes face aux agents IA.
- France : prudence et exigences élevées en cybersécurité.
L’émergence de l’IA agentique, entre promesses et risques identitaires
L’irruption massive des agents IA autonomes bouleverse les fondements mêmes de la cybersécurité en entreprise. Si le potentiel technologique fascine, la réalité est plus contrastée : une enquête menée par Keyfactor et Wakefield Research met au jour un écart préoccupant entre la rapidité d’adoption de ces technologies et la capacité réelle des organisations à encadrer, authentifier et surveiller ces nouveaux acteurs numériques. Or, plus les systèmes deviennent autonomes, moins les anciennes méthodes – déjà éprouvées – suffisent à garantir la sécurité.
La crise d’identité au cœur des préoccupations
Au fil des déploiements, une inquiétude s’installe chez les experts : comment déterminer avec certitude « qui fait quoi ? », tracer l’origine d’une action ou stopper un agent défaillant ? Selon l’étude, 69 % des professionnels interrogés jugent désormais que les failles potentielles liées aux agents IA représentent une menace supérieure à celle de mauvais usages humains. Ce constat est partagé par la quasi-totalité du secteur : 86 % estiment que sans véritables identités numériques dynamiques, il sera impossible d’accorder une pleine confiance à ces agents. Malgré tout, rares sont les entreprises qui disposent déjà d’infrastructures solides pour gérer ce défi grandissant. Pire, seules 28 % des équipes pensent pouvoir neutraliser un agent malveillant si besoin.
L’ombre du vibe coding sur la sécurité logicielle
Un autre sujet monte en puissance : le phénomène du vibe coding. Désormais, près de sept entreprises sur dix reconnaissent manquer de visibilité sur le code généré par l’IA. Les bénéfices apportés aux équipes DevSecOps sont indéniables, mais les risques s’accroissent si chaque ligne produite ne porte pas d’empreinte cryptographique fiable ni d’origine vérifiable. Parmi les mesures prioritaires citées dans l’enquête pour y remédier figurent :
- L’utilisation accrue des certificats digitaux pour tracer chaque contribution IA.
- L’attribution systématique d’identités individuelles et révocables aux agents.
- L’exigence d’une gouvernance renforcée autour de chaque commit logiciel.
Paysage français : prudence et spécificités nationales
Sur le territoire français, si l’on suit globalement la tendance mondiale, certaines particularités se dessinent. La vigilance prime chez les responsables locaux : seuls 18 % expriment une confiance absolue dans les identités numériques actuelles des agents IA (contre un tiers à l’international), tandis que la préférence va nettement aux certificats digitaux (68 % contre 54 %). Enfin, leur projection sur la généralisation des identités numériques reste légèrement plus réservée qu’ailleurs.
En somme, alors que s’impose la nouvelle ère de la « confiance numérique», c’est bien sur le terrain identitaire que se jouera – ou non – le futur sécurisé de l’IA agentique.