Près de 40 % des salariés recourent à l’IA sans autorisation : les raisons de l’inquiétude des entreprises

Image d'illustration. Centre avancé de cybersécurité avec iaUn centre moderne et innovant où des analystes surveillent les écrans illuminés pour détecter les menaces grâce à l'intelligence artificielle avancée.
Près de 40 % des salariés ont recours à des outils d’intelligence artificielle non autorisés sur leur lieu de travail. Cette tendance inquiète les entreprises, soucieuses de protéger leurs données et de maîtriser l’utilisation des nouvelles technologies.
Tl;dr
- « Shadow AI » explose dans les entreprises modernes.
- Des données sensibles circulent via des outils IA non autorisés.
- Les politiques internes peinent à suivre l’usage réel de l’IA.
Un phénomène discret, mais massif : la montée de la « Shadow AI »
Dans le sillage d’une transformation numérique accélérée, un nouvel acteur trouble se dessine dans les open spaces : la « Shadow AI ». À l’image de l’époque du « Shadow IT », où des salariés installaient en catimini logiciels ou plateformes non validés par la DSI, ce terme désigne désormais l’usage sous le radar d’outils d’intelligence artificielle générative, bien au-delà du contrôle officiel des entreprises. Et la tendance prend une ampleur inédite.
L’efficacité avant tout… quitte à franchir les lignes rouges
Pourquoi cette adoption massive ? La réponse tient en quelques mots : gain de temps et efficacité. En jonglant avec des boîtes mail débordées, des tâches répétitives ou des demandes croissantes, beaucoup trouvent dans ChatGPT, Gemini ou d’autres IA une bouée de sauvetage. Résumés instantanés, rédaction de mails, génération de rapports… Les avantages sont concrets et immédiats.
Ce constat se confirme dans une récente enquête relayée par TechTarget Japan, où plus de 38 % des salariés avouent avoir partagé, sans autorisation, des informations confidentielles — qu’il s’agisse de notes stratégiques, données clients ou codes sources — avec ces solutions. Le tout sans que les départements informatiques ne puissent réellement détecter ces pratiques, tant le trafic IA ressemble à une navigation web classique.
Derrière la technologie, le vrai risque : la fuite de données sensibles
Contrairement à ce que l’on pourrait croire, le danger majeur n’est pas forcément lié au modèle d’intelligence artificielle lui-même. Selon plusieurs experts en cybersécurité interrogés par CybSafe et la National Cybersecurity Alliance, le problème réside surtout dans ce que les collaborateurs injectent dans ces IA : informations financières confidentielles, plans internes ou données personnelles qui quittent alors l’environnement sécurisé de l’entreprise pour atterrir sur des serveurs tiers difficilement maîtrisables. Au-delà du risque juridique (RGPD, propriété intellectuelle), c’est aussi toute la stratégie interne qui peut être exposée.
La généralisation de ce phénomène entraîne une réflexion profonde sur l’équilibre entre commodité et sécurité. Faut-il bannir ces outils ? Beaucoup misent plutôt sur un compromis : éduquer les équipes et instaurer des garde-fous techniques.
Voici les leviers retenus par les sociétés qui cherchent à s’adapter :
- Mise en place de politiques claires sur l’usage de l’IA
- Sélection et validation d’outils approuvés en interne
- Sensibilisation active aux risques liés à la confidentialité des données
L’enjeu : reprendre le contrôle sans brider l’innovation
En somme, ignorer cette réalité reviendrait à tourner le dos au potentiel transformateur offert par ces technologies. Les entreprises prêtes à accompagner intelligemment leurs salariés plutôt qu’à leur interdire devraient mieux naviguer entre efficacité opérationnelle et maîtrise des risques. L’histoire est loin d’être finie : entre tentation individuelle et exigences collectives, la « Shadow AI » pourrait bien rester le casse-tête majeur du bureau numérique moderne.