Intel peut-il rendre l’IA plus éthique avec la détection des deepfakes ?
Intel souhaite que ses modèles d'intelligence artificielle soient capables de détecter toutes sortes de deepfakes. L'IA générative d'Intel crée des deepfakes pour entrainer ses modèles à mieux détecter une plus grande variété d'images générées par l'IA.
Intel, géant de la technologie, a fait une avancée significative dans sa lutte pour promouvoir l’équité dans l’intelligence artificielle. En effet, la firme a déposé une demande de brevet pour des systèmes visant à « augmenter les données d’entraînement » basées sur divers ensembles d’images synthétiques. L’objectif de cette technologie est de former ses modèles à mieux détecter une plus grande variété d’images générées par l’IA. Pour ce faire, elle repose sur un modèle IA générateur qui transfère des caractéristiques « raciales spécifiques » d’une image référence à une image d’entrée. Ceci crée une image synthétique qui est un hybride des deux. Ces images synthétiques sont ensuite réintroduites dans le jeu de données d’entraînement initial, visant à créer un algorithme de détection de deepfake plus robuste.
Critiques de l’approche de détection deepfake d’Intel
Cependant, comme le fait remarquer Brian P. Green, directeur de l’éthique technologique au Markkula Center for Applied Ethics de l’Université de Santa Clara, cette technologie pose problème. Selon lui, cette approche « est une simplification de la diversité humaine qui pourrait être éthiquement problématique ». Par exemple, un système comme celui-ci pourrait échouer à identifier les deepfakes de personnes de race mixte.
Démarche d’Intel envers une IA responsable
Malgré ces critiques, il ne s’agit pas de la première fois qu’Intel cherche à breveter des systèmes visant à rendre l’IA plus fiable et responsable. Bien que l’entreprise soit principalement connue pour la fabrication de puces, elle pourrait essayer de donner à l’IA – et à elle-même – une meilleure réputation. Intel souhaite ainsi éviter les conséquences néfastes dues à une mauvaise image de l’IA, causée par des deepfakes ou d’autres comportements non éthiques, qui pourraient finir par se répercuter sur l’industrie du semi-conducteur en général.
Les chipsets mis à contribution
La lutte contre les deepfakes, ces vidéos ou audios manipulés par des techniques d’intelligence artificielle pour créer des contenus faux ou trompeurs, est un défi complexe qui implique plusieurs aspects technologiques, dont les chipsets peuvent faire partie. Voici quelques points pour expliquer comment les chipsets peuvent jouer un rôle dans cette lutte :
- Les chipsets, en particulier ceux conçus pour les tâches d’intelligence artificielle, peuvent accélérer le traitement des données nécessaires pour analyser les vidéos et les audios à la recherche de signes de manipulation. Des processeurs plus rapides permettent de traiter de grandes quantités de données en temps réel, ce qui est crucial pour détecter les deepfakes dès leur apparition.
- La puissance de calcul accrue fournie par les chipsets avancés peut permettre de développer des algorithmes plus sophistiqués pour détecter les deepfakes. Ces algorithmes peuvent apprendre à reconnaître les subtiles imperfections ou les anomalies que les techniques de deepfake génèrent souvent, même si ces technologies continuent d’évoluer et de s’améliorer.
- Certains chipsets peuvent intégrer des fonctionnalités de sécurité matérielles qui aident à authentifier les sources de contenu ou à vérifier l’intégrité des données, contribuant ainsi à empêcher la propagation de contenus manipulés.
- Paradoxalement, l’amélioration des chipsets peut également faciliter la création de deepfakes plus convaincants, car les créateurs de ces contenus utilisent également des technologies de pointe. Cela crée une sorte de course aux armements technologiques entre les créateurs de deepfakes et ceux qui développent des outils pour les détecter.