L’Europe adopte une législation pionnière sur l’intelligence artificielle
L’Union Européenne franchit une étape historique avec l’adoption de la première loi mondiale sur l’intelligence artificielle, axée sur une approche « basée sur les risques » pour encadrer les systèmes d'IA tout en stimulant l'innovation et la confiance. Cette législation, signée le 21 mai, marque un tournant crucial.
Le Conseil de l’UE a approuvé une législation révolutionnaire sur l’IA le 21 mai, visant à harmoniser les règles et à promouvoir des systèmes d’IA sûrs et fiables. Cette loi, première en son genre, impose des réglementations plus strictes pour les systèmes d’IA présentant un risque élevé pour la société, tout en exemptant les applications militaires, de défense et de recherche. Selon Mathieu Michel, secrétaire d’État belge, cette loi met en avant la confiance, la transparence et la responsabilité pour garantir que l’IA puisse prospérer en Europe.
L’approche de l’Union européenne en matière de réglementation des modèles d’intelligence artificielle à usage général se concentre sur un partage équitable des responsabilités tout au long de la chaîne de valeur de l’IA. Cela inclut les développeurs de modèles d’IA à usage général (GPAI) ainsi que les fournisseurs en aval qui créent des applications basées sur ces modèles.
GPAI : Les GPAI se distinguent par leur taille (grand nombre de paramètres), leur opacité (mécanismes de calcul difficiles à expliquer) et leur potentiel à développer des capacités imprévues. Leur développement nécessite d’importantes ressources en données, puissance de calcul et experts, créant une interdépendance entre les fournisseurs de GPAI (en amont) et les entreprises qui les utilisent (en aval). Deux principales stratégies de mise à disposition des GPAI existent : l’accès via API et l’open-source. L’accès par API permet un contrôle centralisé par le fournisseur, tandis que l’open-source offre une plus grande liberté aux développeurs en aval, mais avec moins de garde-fous. Les GPAI, avec leur complexité et leur potentiel, représentent un défi majeur pour les législateurs. Une gouvernance efficace nécessitera des politiques flexibles, une surveillance rigoureuse et un engagement inclusif pour garantir que ces technologies bénéficient à tous de manière équitable.
Une influence mondiale en vue
Benjamin Cedric Larsen et Sabrina Küspert ont souligné dans un article publié sur le site de la Brookings Institution les différences entre l’approche européenne et celle des États-Unis en matière de réglementation de l’IA. Là où la loi américaine est modifiable et révoquable, l’AI Act européen offre une structure de gouvernance durable et des règles juridiquement contraignantes. L’Europe, avec son marché significatif, pourrait voir son AI Act exercer une influence mondiale semblable à celle du RGPD.
Les deux cadres s’accordent sur la nécessité de documentation, l’évaluation des modèles et les exigences en matière de cybersécurité. Cependant, l’UE adopte une vision plus large des risques systémiques, incluant des aspects tels que la discrimination à grande échelle et les conséquences négatives sur les droits de l’homme.
Focus sur les exemptions et la biométrie
Les exceptions pour l’Open Source
L’équipe d’Orrick a précisé les exemptions pour les systèmes d’IA open source. Les modèles publiés sous licences libres, qui ne présentent pas de risques élevés ou n’interagissent pas directement avec des individus, bénéficient d’exemptions. Cependant, les prestataires doivent partager des résumés détaillés du contenu de la formation et respecter la loi européenne sur le droit d’auteur.
Régulation stricte des systèmes biométriques
David J. Oberly a détaillé les réglementations imposées par la loi sur les technologies biométriques, interdisant certains usages comme la reconnaissance des émotions sur les lieux de travail et dans les écoles. Les entreprises impliquées dans ces technologies doivent se conformer proactivement à la loi en respectant des obligations de transparence, notamment des notifications visibles pour les personnes concernées.
Vers une gouvernance solide et innovante
Philipp Hacker, Sebastian Hallensleben et Kai Zenner ont publié un article affirmant que la mise en œuvre de cette législation nécessite un leadership fort et une structure innovante. Ils recommandent la création de cinq unités spécialisées au sein du Bureau de l’IA : Confiance et Sécurité, Excellence en Innovation, Coopération Internationale, Recherche et Prospective, et Support Technique. Attirer et retenir les meilleurs talents, en offrant des environnements de travail attrayants, est essentiel.
Propositions pour une meilleure gouvernance
Les universitaires Claudio Novelli, Philipp Hacker, Jessica Morley, Jarle Trondal et Luciano Floridi ont proposé des améliorations pour la gouvernance de la loi sur l’IA. Ils recommandent des lignes directrices plus claires pour le Bureau de l’IA, la fusion du Forum et du Panel en un seul organe, et une coordination accrue entre les entités de l’UE via un centre de coordination de l’IA.
La loi sur l’IA adoptée par l’UE est une avancée majeure qui pourrait définir les normes mondiales en matière de réglementation de l’IA. En privilégiant une approche basée sur les risques, elle établit un équilibre entre sécurité, transparence et innovation. Cependant, la véritable réussite résidera dans sa mise en œuvre efficace et la capacité de l’Europe à attirer les talents nécessaires pour faire prospérer ce cadre juridique ambitieux.