Publié le 4 juillet 2022, modifié le 4 juillet 2022.
Par Christophe Romei

De la réalité augmentée pour les personnes autistes

Publié le 4 juillet 2022, modifié le 4 juillet 2022.
Par Christophe Romei

Des chercheurs du MIT ont récemment annoncé qu'ils avaient formé un réseau de neurones artificiels pour traiter les informations pour la reconnaissance des émotions faciales, afin d'aider les personnes autistes à mieux reconnaître les émotions exprimées sur les visages.

Pour beaucoup de gens, il est facile de reconnaître les émotions exprimées sur le visage des autres. Un sourire peut signifier le bonheur, tandis qu’un froncement de sourcils peut indiquer la colère. Les personnes autistes, en revanche, peuvent souvent avoir plus de mal à accomplir cette tâche. On ne sait pas pourquoi, mais une nouvelle recherche, publiée dans The Journal of Neuroscience, met en lumière le fonctionnement interne du cerveau pour suggérer une réponse, et elle le fait en utilisant l’intelligence artificielle (IA) pour modéliser le calcul dans nos têtes. Cette étude prédit que l’activité du cortex informatique est un marqueur neuronal candidat clé du traitement atypique des émotions faciales chez les personnes atteintes de TSA.

Les chercheurs ont commencé par examiner les données fournies par deux chercheurs. Dans une expérience, ils ont montré des images de visages à des adultes autistes et à des témoins neurotypiques. Les images avaient été générées par un logiciel pour varier sur un spectre allant de la peur à la joie et les participants jugeaient rapidement si les visages représentaient le bonheur. Par rapport aux témoins, les adultes autistes avaient besoin de niveaux plus élevés de bonheur dans les visages pour les déclarer heureux.

Ils ont également formé un réseau de neurones artificiels, une fonction mathématique complexe inspirée de l’architecture du cerveau, pour effectuer cette même tâche consistant à déterminer si les images de visages étaient heureuses. Les recherches ont suggéré que les connexions neuronales sensorielles chez les adultes autistes pourraient être difficiles ou inefficaces.

Réalité augmentée

Alors, comment quelque chose comme la réalité augmentée (AR) est-elle liée à tout cela ? L’un des chercheurs pense que la reconnaissance des émotions faciales n’est que la surface visible de l’iceberg, il pense que ces modèles de traitement visuel pourraient également être utilisés pour sélectionner ou même générer du contenu de diagnostic. Par exemple, l’intelligence artificielle pourrait être utilisée pour générer du contenu (tel que des films et du matériel pédagogique) qui engage de manière optimale les enfants et les adultes autistes.

Sur la base de la recherche, ces modèles informatiques pourraient potentiellement être utilisés pour aider à modifier les pixels faciaux et autres pixels pertinents dans les lunettes de réalité augmentée afin de changer ce que les personnes autistes voient, peut-être en exagérant les niveaux de bonheur (ou d’autres émotions) sur les visages des personnes dans le but d’aider les personnes avec autisme à mieux reconnaître les émotions. Même dans un format plus simpliste, les lunettes AR avec un logiciel de reconnaissance des émotions faciales installé pourraient être capables de détecter les émotions des personnes et de superposer des invites textuelles pour aider les personnes autistes portant les lunettes, afin de leur donner des descriptions de l’état émotionnel probable des personnes qu’elles sont pour interagir avec. En fin de compte, les travaux aident à valider l’utilité des modèles informatiques, en particulier les réseaux de neurones de traitement d’images. Ils formalisent les hypothèses et les rendent testables.

Microsoft

On ne sait pas exactement combien de grandes entreprises technologiques utilisent des systèmes destinés à lire les émotions humaines.

Microsoft a annoncé la semaine dernière qu’il supprimerait plusieurs fonctionnalités de sa technologie de reconnaissance faciale qui traitent de l’émotion, le responsable de ses efforts d’intelligence artificielle a inclus un avertissement : la science de l’émotion est loin d’être établie ! La décision de Microsoft, qui s’inscrivait dans le cadre d’une annonce plus large concernant son initiative “Responsible AI Standard”, est immédiatement devenue l’exemple le plus médiatisé d’une entreprise s’éloignant de l’IA de reconnaissance des émotions, une technologie relativement petite qui a fait l’objet de vives critiques, en particulier dans la communauté universitaire.

La technologie de reconnaissance des émotions s’appuie généralement sur un logiciel pour examiner un certain nombre de qualités – expressions faciales, ton de voix ou choix de mots, dans le but de détecter automatiquement l’état émotionnel. De nombreuses entreprises technologiques ont publié des logiciels qui prétendent pouvoir lire, reconnaître ou mesurer les émotions pour une utilisation dans les affaires, l’éducation et le service client. L’un de ces systèmes prétend fournir une analyse en direct des émotions des appelants aux lignes de service client, afin que les employés des centres d’appels puissent modifier leur comportement en conséquence. Un autre service suit les émotions des élèves lors d’appels vidéo en classe afin que les enseignants puissent mesurer leurs performances, leur intérêt et leur engagement.

Une étude a découvert que dans deux logiciels de reconnaissance faciale différents (y compris celui de Microsoft), l’IA émotionnelle interprétait systématiquement les sujets noirs comme ayant plus d’émotions négatives que les sujets blancs. Une IA lisait les sujets noirs comme plus en colère que les sujets blancs, tandis que l’IA de Microsoft lisait les sujets noirs comme dépeignant plus de mépris.

L’IA fait de plus en plus partie de nos vies et pourtant, les lois sont malheureusement à la traîne dans de nombreux domaines.

Lire aussi
Tech

L’assistant intelligent de Meta

Comme toutes les grandes entreprises technologiques, Meta convoite également son propre assistant vocal. L'assistant peut effectuer diverses...