Meta visée par une plainte sur la confidentialité des lunettes connectées : 6 mesures à adopter sans tarder

Image d'illustration. Meta Ray-Ban DisplayMeta / PR-ADN
Meta fait face à une plainte concernant la confidentialité des lunettes connectées. Cette affaire met en lumière les inquiétudes autour de la protection des données et invite les utilisateurs à adopter rapidement six mesures pour mieux sécuriser leur vie privée.
Tl;dr
- Des images privées des lunettes Ray-Ban Meta sont visionnées par des humains.
- Les interactions vocales sont stockées, sans possibilité d’opt-out.
- Plusieurs mesures permettent de limiter la collecte de données sensibles.
Un scandale mondial autour des lunettes connectées Ray-Ban Meta
Depuis quelques semaines, une enquête conjointe de deux quotidiens suédois jette une lumière crue sur les failles de confidentialité entourant les lunettes Ray-Ban Meta. En cause : la révélation que des sous-traitants humains, installés chez Sama au Kenya, examinent des séquences vidéo capturées par ces lunettes parfois d’une intimité saisissante. D’après leurs témoignages, il n’est pas rare de tomber sur des scènes privées : utilisateurs en pleine transaction bancaire, personnes se changeant ou utilisant les toilettes… autant de moments qui n’auraient jamais dû franchir le filtre algorithmique.
Ce que collectent vraiment les lunettes et comment
Avant tout emballement, il convient d’éclaircir le fonctionnement réel de ces dispositifs. Contrairement à ce que certains craignent, les lunettes connectées Meta n’enregistrent pas en permanence : seuls l’appui sur le bouton caméra ou l’utilisation du mot-clé « Hey Meta » déclenchent l’enregistrement. Un voyant lumineux avertit alors l’entourage. Par défaut, photos et vidéos restent localisées sur le téléphone. Elles ne sont envoyées vers les serveurs de Meta qu’en cas d’activation explicite du cloud ou lors d’un partage sur Facebook, Instagram, ou via l’assistant IA.
Cependant, depuis avril 2025, toutes les interactions vocales activées par « Hey Meta » sont automatiquement stockées dans le cloud du groupe sans possibilité d’y échapper via les paramètres. Ces données audio peuvent être conservées jusqu’à un an afin d’alimenter l’entraînement des modèles d’IA.
L’accès humain : pratiques et dérives possibles
C’est précisément ce volet qui provoque la colère : quand un utilisateur sollicite l’assistant IA pour analyser une scène, la séquence peut être sélectionnée pour revue humaine à Nairobi. La procédure est prévue dans les conditions générales de Meta, mais rares sont ceux à avoir lu cette mention enfouie dans la documentation légale. Or, l’anonymisation promise laisse parfois à désirer ; certains visages restent reconnaissables selon plusieurs ex-employés interrogés.
Pour démêler le vrai du faux, rappelons que :
- Toutes les images ne finissent pas systématiquement chez Meta.
- Aucune désactivation totale n’est possible pour l’audio depuis avril 2025.
- L’intervention humaine dans la revue de contenu est avérée.
Comment reprendre la main sur ses données ?
Pour limiter son exposition, il est conseillé d’examiner attentivement ses réglages dans l’application dédiée (données partagées à contrôler) et de désactiver le traitement cloud si possible. La suppression manuelle régulière des enregistrements vocaux demeure essentielle puisqu’aucun opt-out global n’existe plus aujourd’hui. Enfin, rester attentif à ce qui est confié à l’IA éviter son usage dans un contexte intime ou privé devient presque un réflexe salutaire avec ces nouveaux objets connectés.
Au fond, cette affaire illustre une tension croissante : la promesse technologique peine encore à rassurer face au risque bien réel d’une fuite permanente de nos vies privées vers des centres de traitement souvent invisibles et délocalisés.