Publié le 2 février 2021.
Par La Rédaction

Le marché chinois de la reconnaissance des émotions et ses implications sur les droits humains

Publié le 2 février 2021.
Par La Rédaction

Le rapport illustre comment des chercheurs chinois, des entreprises tech et des acteurs gouvernementaux ont travaillé ensemble pour développer et mettre en œuvre des technologies censées détecter les émotions basées en grande partie sur les expressions faciales.

La reconnaissance des émotions est une technologie biométrique qui prétend être capable d’analyser l’état émotionnel intérieur d’une personne. Ces applications biométriques sont utilisées de plusieurs manières. Par exemple, elle est utilisée par les autorités chargées de l’application de la loi pour identifier les individus suspects ; par les écoles pour contrôler dans quelle mesure un élève prête attention en classe ; et par des entreprises privées pour déterminer l’accès des personnes au crédit.

La reconnaissance faciale, ce n’est pas simplement détecter les émotions basées en grande partie sur les expressions faciales, mais dans certains cas, c’est aussi sur d’autres données physiologiques telles que le débit sanguin facial, la fréquence cardiaque, la voix et le mouvement du corps. Il est intéressant de noter que les problèmes de confidentialité sont de plus en plus répandus dans les débats sur les nouvelles technologies en Chine.

La technologie est de plus en plus intégrée dans des aspects critiques de la vie quotidienne, comme lorsque les autorités répressives l’utilisent pour qualifier les gens de « suspects » ; où les écoles l’utilisent pour surveiller l’attention des élèves en classe et où les entreprises privées l’utilisent pour déterminer l’accès des personnes au crédit.

Pourquoi devrions-nous nous en préoccuper ? Premièrement, de par sa conception, la technologie de reconnaissance des émotions cherche à imposer un contrôle sur les gens. Deuxièmement, la technologie est mise au point sans consulter les gens et sans tenir compte de l’immense potentiel de préjudice qu’elle représente.

Et rappelons que la normalisation de la surveillance dans les villes chinoises s’est développée parallèlement à la répression du gouvernement contre la population ouïghoure minoritaire ethnique de la province Xinjiang. Pour la population majoritairement musulmane du Xinjiang, caméras de sécurité, inspections policières fréquentes, création par les forces de l’ordre de l’ADN ouïghour et bases de données d’empreintes vocales et Internet omniprésent, surveillance et censure du contenu sur ou lié à l’islam sont incontournables.

Article 19

Le rapport “Emotional Entanglement” (51p) est écrit par Article 19, une organisation britannique de défense des droits de l’homme avec un mandat spécifique et se concentrant sur la défense et la promotion de la liberté d’expression et de la liberté d’information dans le monde depuis 1987. Celui-ci montre les façons dont ces technologies sont actuellement commercialisées et utilisées en Chine et pourquoi il est essentiel que la communauté internationale en prenne note, car elle touche de nombreux secteurs comme l’éducation, le futur des voitures, la sécurité pour ne citer qu’eux.

Le rapport souligne que le moment choisi pour un tel plaidoyer avant que ces technologies ne deviennent plus courantes est vital pour une promotion et une protection efficaces des droits des personnes, y compris le libre accès à l’information et la liberté d’expression.

Voici quelques-unes des principales conclusions du document :

  • La conception, le développement, la vente et l’utilisation des technologies de reconnaissance des émotions sont incompatibles avec les normes internationales des droits de l’homme, y compris la façon dont elles sont utilisées pour surveiller, surveiller, contrôler l’accès aux opportunités et imposer le pouvoir.
  • La manière invisible, opaque et libre de développement de la reconnaissance des émotions risque de priver les gens de leurs droits à la liberté d’expression, à la vie privée et à la dissidence par la protestation, entre autres.
  • Les fondements pseudoscientifiques de la reconnaissance des émotions rendent cette technologie intenable.
  • Les bureaux de police et de sécurité publique chinois sont attirés par l’utilisation d’un logiciel de reconnaissance des émotions comme outil d’interrogation et d’enquête.
  • Alors que certaines sociétés de technologie de reconnaissance des émotions affirment qu’elles peuvent détecter des attributs sensibles, tels que les problèmes de santé mentale et la race, aucune n’a abordé les conséquences potentiellement discriminatoires de la collecte de ces informations en conjonction avec des données sur les émotions.

Les recommandations

Il y en a plusieurs à destination des gouvernements, de la communauté internationale, aux entreprises privées, à la société civile et aux universités. Ci-dessous, 3 points :

Interdire la conception, le développement, le déploiement, la vente, l’importation et l’exportation de technologies de reconnaissance des émotions, en reconnaissance de leur incohérence fondamentale avec les normes internationales des droits de l’homme.

Fournir la divulgation aux personnes touchées par ces technologies et s’assurer que des mécanismes de réclamation efficaces, accessibles et équitables sont à leur disposition pour violation de leurs droits en raison de la reconnaissance ciblée des émotions.

Pour la Chine, veiller à ce que les personnes déjà touchées par les technologies de reconnaissance des émotions aient accès à des recours efficaces en cas de violation de leurs droits par des moyens judiciaires, administratifs, législatifs ou autres. Cela devrait inclure des mesures visant à réduire les obstacles juridiques, pratiques et autres qui pourraient conduire à un refus d’accès aux recours.

Lire aussi