Un consensus mondial pour une IA sécurisé

Les pays unissent leurs forces dans une initiative mondiale pour prévenir les catastrophes liées à l'IA: comprendre cet enjeu crucial pour l'avenir de l'humanité
Une entente internationale, baptisée la Déclaration de Bletchley sur l’IA, a été signée par une coalition de 28 nations, dont le Royaume-Uni, les États-Unis, la Chine, le Brésil, l’Inde, le Nigeria, l’Arabie Saoudite et l’Union Européenne. Cet accord, annoncé lors du sommet britannique sur la sécurité de l’IA qui s’est déroulé cette semaine, vise à définir une compréhension commune des risques que présente l’IA dite « frontière ». Selon les signataires, une priorité majeure est de garantir un développement et une mise en œuvre sécurisés de cette technologie. La Déclaration remplit les objectifs clés du sommet en établissant un accord et une responsabilité partagés sur les risques, les opportunités et un processus avancé de collaboration internationale sur la sécurité et la recherche en matière d’IA aux frontières, en particulier grâce à une plus grande collaboration scientifique, a déclaré la Grande-Bretagne dans un communiqué distinct accompagnant la déclaration. (Le Royaume-Uni a annoncé 2 supercalculateurs de pointe)
D’autres initiatives nationales, européennes et mondiales, en matière de développement et régulation de l’IA sont en cours dont notamment le partenariat mondial pour l’intelligence artificielle lancé en 2020, initiative franco-canadienne de coopération internationale visant à soutenir le développement responsable et l’utilisation centrée sur l’humain de l’intelligence artificielle. De plus, il y a quelques mois, sous l’impulsion du Président de la République lors de la Présidence française de l’Union européenne, puis sous Présidence japonaise, les chefs d’États du G7 ont appelé de leurs vœux au lancement du « Processus d’Hiroshima ». Sur cette base, des premiers principes directeurs pour les « systèmes d’IA avancés » et un code de conduite pour les développeurs ont été adoptés. Parallèlement, le règlement européen pour l’intelligence artificielle, qui réglementera la mise sur le marché de ces technologies en Europe, est en cours de finalisation.
La France accueillera la prochaine édition du Sommet sur la sécurité de l’intelligence artificielle (IA) à Paris, un autre sera aussi organisé en Corée. En attendant Scaleway commence à dévoiler le programme de la conférence européenne dédiée à l’intelligence artificielle organisée à Station F (Paris), le 17 novembre prochain.
En ce qui concerne la sécurité et la fiabilité de l’IA, l’ouverture est une solution, pas un problème rappel Mozilla.
An AI safety agenda called the ‘Bletchley Declaration' was signed by China, the United States, the European Union and others https://t.co/GbUFun7yAh pic.twitter.com/WgTUZd2iZM
— Reuters (@Reuters) November 2, 2023
Les risques majeurs identifiés par les signataires
Les pays ayant ratifié le pacte ont convenu que des risques substantiels pourraient découler d’une utilisation intentionnellement malveillante de l’IA. La déclaration souligne également le « potentiel de dommages graves, voire catastrophiques, qu’ils soient délibérés ou intentionnels, découlant des capacités les plus significatives » des modèles d’IA.
Plusieurs préoccupations ont été mises en relief, notamment :
- Les questions de cybersécurité,
- Les implications en matière de biotechnologie,
- La propagation de la désinformation,
- Les problèmes de partialité,
- Et les risques pour la vie privée.
Un appel à la responsabilité des développeurs d’IA
Face à ces menaces, les pays signataires se sont engagés à promouvoir la transparence et la responsabilité parmi les développeurs d’IA. Ils encouragent notamment la mise en place de mesures pour évaluer, surveiller et atténuer les capacités potentiellement nocives de ces technologies. En réaction à la signature de cet accord, le Premier ministre britannique Rishi Sunak a déclaré que ce texte représente un jalon important qui « voit les plus grandes puissances du monde s’accorder sur l’urgence de comprendre les risques de l’IA« .
Et voici une version française du discours virtuel du roi Charles III lors du AI Safety Summit 2023, gracieuseté du service https://t.co/WCUxMUR6Ks. Pour une traduction réalisée en moins d'une minute, c'est plutôt réussi. Merci @rask_ai ! #AISafetySummit pic.twitter.com/jL8tY7WvJZ
— Bruno Guglielminetti | Mon Carnet (@Guglielminetti) November 1, 2023
Une collaboration internationale pour la sûreté de l’IA
En signant cette déclaration, les gouvernements se sont engagés à travailler ensemble pour assurer la sécurité de l’IA. Selon le gouvernement britannique, la déclaration remplit les objectifs clés du sommet en établissant un accord et une responsabilité partagés sur les risques et les opportunités de l’IA. Ce texte ouvre également la voie à une collaboration internationale accrue en matière de recherche sur la sécurité de l’IA, particulièrement à travers une plus grande collaboration scientifique.