Publié le 17 mai 2023, modifié le 18 mai 2023.
Par La Rédaction

OpenAI demande de réglementer l’intelligence artificielle

Publié le 17 mai 2023, modifié le 18 mai 2023.
Par La Rédaction

Le patron d'OpenAI, la société à l'origine de ChatGPT, a témoigné pour la première fois devant le Congrès américain. Sam Altman a appelé les législateurs à réglementer l'intelligence artificielle. Dans le même temps, la CNIL publie un plan d’action pour un déploiement de systèmes d’IA respectueux de la vie privée des individus.

Les applications d’IA influencent les informations que vous voyez en ligne en prédisant quel contenu vous engage, capturent et analysent les données des visages pour faire appliquer des lois ou personnaliser des publicités, les IA sont utilisées pour diagnostiquer et traiter le cancer… En d’autres termes, l’IA affecte de nombreuses parties de votre vie. Il est temps que la régulation entre enjeu !

Open AI

Sam Altman, PDG d’OpenAI soutenu par Microsoft, a appelé les États-Unis à réglementer le déploiement de grands modèles linguistiques avancés, mettant en garde contre les dangers de l’IA générative sans cadres politiques solides en place. Lors d’une audition avec le Sénat américain pour discuter de la gouvernance de l’IA générative, Sam Altman a fait valoir que les réglementations seront essentielles pour atténuer les risques de modèles de plus en plus puissants, alors que les craintes grandissent et menaces la société. L’audience intervient alors que les législateurs européens travaillent sur une nouvelle loi, la loi sur l’IA, pour réglementer la technologie. Les menaces discutées lors de son audition étaient centrées sur la propagation des informations erronées et les violations des lois sur la confidentialité des données associées à la façon dont OpenAI forme ses modèles.

Le sénateur Richard Blumenthal a déclaré à l’audience que la perspective d’une IA insuffisamment formée est “plus qu’un peu effrayante” et a soutenu que les nouvelles technologies doivent être “tenues responsables”. Il a souligné la capacité de ChatGPT d’OpenAI à imiter et à simuler des interactions humaines authentiques, après avoir ouvert son témoignage avec un discours généré par le modèle qui a été formé à sa voix. Sam Altman a suggéré que la formation d’une agence gouvernementale pour réglementer la formation et les déploiements en IA serait utile pour le développement, expliquant la nécessité d’une “combinaison d’exigences de licence et de test” pour les développeurs.

Il a également proposé de révoquer les licences des développeurs qui lancent des outils d’IA qui dépassent certains seuils ou capacités, par exemple des modèles capables de se répliquer ou de générer du contenu nocif. Le PDG a plaidé pour une règle de gouvernance sur la façon dont les outils d’apprentissage automatique collectent des données sur Internet pour générer des réponses. Les utilisateurs devraient pouvoir se retirer de l’utilisation de leurs données par des entreprises comme la nôtre ou d’autres sociétés de médias sociaux.

France – CNIL

La CNIL publie un plan d’action pour un déploiement de systèmes d’IA respectueux de la vie privée des individus. D’autant que les intelligences artificielles génératives se développent rapidement depuis plusieurs mois, que ce soit dans le domaine du texte et de la conversation, via les grands modèles de langage (Large Language Models ou LLM en anglais), tels que GPT-3, BLOOM ou Megatron NLG et les agents conversationnels (« chatbots ») dérivés (ChatGPT ou Bard), mais également dans ceux de l’imagerie (Dall-E, Midjourney, Stable Diffusion, etc.) ou encore de la parole (Vall-E). En 2023, elle va prolonger son action sur les caméras augmentées et souhaite élargir ses travaux aux IA génératives aux grands modèles de langage et aux applications dérivées (notamment les chatbots). Son plan d’action s’articule autour de 4 volets :

  • Appréhender le fonctionnement des systèmes d’IA et leurs impacts pour les personnes ;
  • Permettre et encadrer le développement d’IA respectueuses de la vie privée ;
  • Fédérer et accompagner les acteurs innovants de l’écosystème IA en France et en Europe ;
  • Auditer et contrôler les systèmes d’IA et protéger les personnes.

Europe – AI Act

La loi sur l’IA est une proposition de loi européenne sur l’intelligence artificielle (IA), la première loi sur l’IA par un régulateur majeur au monde. La loi attribue les applications de l’IA à trois catégories de risque. Premièrement, les applications et les systèmes qui créent un risque inacceptable, tels que la notation sociale gérée par le gouvernement du type utilisé en Chine, sont interdits. Deuxièmement, les applications à haut risque, comme un outil de numérisation de CV qui classe les candidats, sont soumises à exigences légales spécifiques. Enfin, les applications non explicitement interdites ou répertoriées comme à haut risque sont largement laissées non réglementées.

Lire aussi