IA conversationnelle : pourquoi les adolescents lui parlent comme à un psy

Image d'illustration. Gros plan sur un smartphone avec interface iaPhoto en gros plan d'un smartphone affichant une interface d'IA conversationnelle avec des tons doux de bleu et violet.
De plus en plus de jeunes Européens utilisent les IA conversationnelles pour chercher du réconfort, parler de stress ou demander conseil, souvent sans mesurer les risques liés à leurs données personnelles.
Tl;dr
- L’IA, nouveau confident des jeunes européens.
- Risques de confidentialité encore mal compris.
- Forte demande d’information et de prévention.
Une génération connectée à l’IA dès l’enfance
Dans un contexte européen où la technologie s’invite dans tous les pans du quotidien, l’utilisation de l’IA conversationnelle par les jeunes prend une ampleur inattendue. En France, 86% des moins de 25 ans se servent déjà de ces outils. Le phénomène commence tôt : plus de six enfants sur dix âgés de 11 à 12 ans dialoguent avec une intelligence artificielle, un taux qui grimpe à 94% chez les 17-18 ans. Cette adoption n’est plus un simple engouement passager ; pour trois jeunes sur cinq, ces échanges numériques rythment leur vie depuis plus d’un an.
Les usages restent en majorité utilitaires : qu’il s’agisse d’écrire ou d’améliorer un texte, de réviser pour un examen ou d’obtenir une aide aux devoirs, l’IA s’impose comme alliée des tâches scolaires. Pourtant, derrière cette fonction pragmatique se cache une évolution silencieuse et plus profonde du lien entre adolescents et machines.
L’IA conversationnelle : confident ou simple outil ?
La frontière entre assistance technique et soutien émotionnel devient poreuse. Environ la moitié des jeunes n’hésitent pas à aborder des sujets personnels ou intimes avec leur assistant virtuel. Pour certains, notamment les plus fragiles psychologiquement, cette écoute numérique comble une attente : disponibilité immédiate (51%), absence de jugement (36%) ou simplicité du dialogue (40%).
Le sondage révèle ainsi que près d’un tiers utilise l’IA pour chercher conseil en période de stress ou lors de conflits avec leurs proches. Parmi les jeunes faisant l’objet d’une suspicion de trouble anxieux généralisé soit 28% en France, beaucoup expriment leur facilité à se confier à la machine plutôt qu’à leurs parents.
Pour autant, si la relation humaine conserve la préférence (68% vers les amis, 61% vers la famille), il ressort que l’IA s’installe désormais comme alternative crédible dans le paysage du soutien psychologique.
La confiance… et ses angles morts
Toutefois, cette proximité avec la technologie n’est pas sans écueils. Les risques pour la confidentialité des données personnelles semblent largement sous-estimés. Plus d’un jeune sur deux pense que ses échanges resteront secrets ; ils sont autant à croire que rien ne pourra être exploité contre eux. Dans ce contexte, seuls 34% considèrent que l’IA conseille mieux que les humains, tandis que près d’un sur deux voit en elle un véritable « psy ».
Cette méconnaissance inquiète : moins d’un tiers affirme savoir ce qu’il advient réellement des informations confiées à l’outil numérique.
Vers une mobilisation collective pour accompagner et informer
Face à ce constat, le besoin d’accompagnement est criant. La plupart réclament davantage d’éclairages sur le traitement des données personnelles et souhaitent connaître les bonnes pratiques ainsi que les risques liés à cette nouvelle intimité digitale :
- Mieux comprendre comment l’IA utilise les informations partagées.
- Savoir quelles données éviter de divulguer.
- Bénéficier de recommandations claires sur sa propre sécurité numérique.
À cet effet, le Groupe VYV et la CNIL ont lancé le programme européen AI*me, destiné à fédérer experts et institutions autour d’actions concrètes au service des générations connectées.
(Méthodologie : enquête Ipsos bva réalisée auprès de 3 800 jeunes européens âgés de 11 à 25 ans.)