Comprendre la polémique autour de l’outil IA non désactivable de WhatsApp

Image d'illustration. Whatsapp ia
WhatsApp justifie l’intégration d’un outil d’intelligence artificielle présenté comme facultatif, mais qui ne peut pourtant pas être désactivé par les utilisateurs, suscitant ainsi interrogations et préoccupations sur la gestion des paramètres de confidentialité.
Tl;dr
- Meta AI de WhatsApp jugé « optionnel » mais impossible à retirer
- Des inquiétudes sur la vie privée et l’utilisation des données personnelles
- Forte contestation d’utilisateurs et d’experts européens
Une fonctionnalité controversée qui ne passe pas inaperçue
Il suffit d’ouvrir WhatsApp pour tomber nez à nez avec ce fameux cercle bleu estampillé Meta AI, installé discrètement mais durablement dans l’interface. Conçue pour répondre instantanément à vos questions, cette intelligence artificielle s’appuie sur le puissant modèle Llama 4. Pourtant, si WhatsApp insiste sur le caractère « entièrement optionnel » de la fonctionnalité, il reste impossible, pour les utilisateurs, de retirer ce nouvel assistant de leur application.
Ce choix n’a rien d’anodin et provoque déjà une vague de mécontentement. Sur les réseaux sociaux comme X, Bluesky ou Reddit, nombreux sont ceux qui expriment leur exaspération face à une innovation jugée intrusive. La journaliste Polly Hudson fait partie de ceux qui déplorent ne pas pouvoir désactiver cette IA omniprésente.
La confidentialité au cœur des critiques
En matière de protection des données personnelles, la polémique enfle. Dr Kris Shrishak, spécialiste en intelligence artificielle et vie privée, n’hésite pas à accuser Meta d’« exploiter son marché existant », allant jusqu’à comparer les utilisateurs à des cobayes servant à entraîner l’algorithme : « Personne ne devrait être forcé d’utiliser une IA », martèle-t-il.
Plusieurs éléments expliquent ces inquiétudes :
- L’entraînement du modèle Llama 4 aurait reposé sur des données issues de livres piratés via LibGen.
- L’absence de possibilité de supprimer l’IA malgré son aspect « optionnel ».
- L’usage potentiel des échanges utilisateurs comme nouvelle source d’apprentissage pour l’algorithme.
Si WhatsApp précise que « Meta AI ne peut lire que les messages qui lui sont envoyés directement », assurant le maintien du chiffrement de bout en bout pour le reste des conversations, le doute persiste. Le gendarme britannique de la protection des données, l’Information Commissioner’s Office (ICO), affirme suivre attentivement le déploiement de cette technologie et rappelle : « Les organisations doivent respecter leurs obligations en matière de protection des données, notamment concernant les enfants. »
Une stratégie qui s’étend au-delà de WhatsApp
Ce n’est pas un cas isolé : le chatbot alimenté par Llama 4 a également fait son apparition sur Messenger et Instagram. Parallèlement, Meta teste aux États-Unis une technologie destinée à repérer les comptes tenus par des adolescents ayant menti sur leur âge.
Mais alors que la firme défend sa démarche en soulignant sa similitude avec d’autres fonctions permanentes comme « Statut » ou « Chaînes », la défiance grandit. Des associations d’auteurs au Royaume-Uni et ailleurs appellent même à un encadrement gouvernemental plus strict.
Bilan : entre innovation affichée et malaise croissant
L’intégration forcée de Meta AI dans WhatsApp illustre une tension croissante entre volonté technologique et respect des droits fondamentaux numériques. Si certains y voient un progrès pratique pour obtenir rapidement des informations — météo comprise — beaucoup redoutent une nouvelle étape vers une exploitation accrue des données personnelles. En somme, derrière le cercle bleu désormais familier se joue une bataille majeure autour du contrôle numérique individuel.
Image d’illustration. WhatsApp IA