Sam Altman met en garde : pourquoi ChatGPT ne doit pas remplacer un vrai thérapeute

Image d'illustration. ChatGPTADN
Sam Altman, le PDG d’OpenAI, met en garde contre l’utilisation de ChatGPT comme substitut à un véritable thérapeute. Selon lui, l’outil n’est pas conçu pour fournir un accompagnement psychologique professionnel ou gérer des situations sensibles.
Tl;dr
- Confidentialité absente entre utilisateurs et ChatGPT.
- L’usage émotionnel des IA reste marginal.
- L’évolution des IA pourrait changer cette tendance.
Vers une nouvelle frontière de la confidentialité numérique
La question de la confidentialité dans les échanges avec l’intelligence artificielle s’impose aujourd’hui au cœur du débat public. Récemment, le PDG d’OpenAI, Sam Altman, a exprimé ses doutes quant à la sécurité des discussions personnelles menées via ChatGPT. Lors de son passage dans le podcast « This Past Weekend w/ Theo Von », il a rappelé que contrairement à un thérapeute, un médecin ou un avocat, l’IA ne bénéficie d’aucun statut légal garantissant la protection des confidences de ses utilisateurs.
Des limites légales bien réelles
En cas de procédure judiciaire, il suffirait d’une injonction pour qu’OpenAI soit contrainte de fournir l’historique complet des conversations tenues avec un individu sur sa plateforme. Le contexte juridique s’est récemment tendu pour l’entreprise, engagée dans un bras de fer avec le New York Times autour de la conservation de données supposément supprimées. Un juge a même ordonné en mai dernier à OpenAI de préserver « toutes les données d’historique qui auraient normalement été effacées », y compris si cela contrevient à la volonté expresse des utilisateurs ou à certaines lois sur la vie privée. À ce jour, rien n’offre donc aux utilisateurs les mêmes garanties que le secret médical ou professionnel.
L’IA : confident ou simple outil ?
Pourtant, malgré ces lacunes en matière de confidentialité, peu semblent considérer l’IA comme une confidente. Une étude conjointe menée par OpenAI et le MIT conclut sans détour : « L’engagement émotionnel avec ChatGPT est rare dans les usages réels. » D’après leurs travaux, la majorité écrasante des conversations ne comportent aucun signe d’empathie ni même d’échanges affectifs. Même constat du côté du concurrent Anthropic, éditeur du chatbot Claude : seulement 2,9 % des interactions observées relevaient d’un contenu émotionnel, tandis que les demandes liées à la compagnie ou au jeu de rôle plafonnaient à 0,5 %.
Voici ce qu’il faut retenir :
- L’utilisation thérapeutique ou émotionnelle demeure marginale aujourd’hui.
- Aucune protection juridique spécifique ne s’applique aux dialogues IA-utilisateur.
L’avenir incertain du dialogue sensible avec l’IA
Mais alors que les modèles s’affinent et que l’arrivée imminente de GPT-5 promet plus de naturel et une mémoire élargie, l’équation pourrait basculer rapidement. La tentation sera grande pour certains d’y chercher écoute ou conseils plus personnels. En définitive, chacun devra bientôt s’interroger sur ce qu’il est prêt à partager avec son assistant virtuel… avant que la frontière entre outil technique et confident ne se brouille définitivement.