Découvrez les nouvelles directives mondiales en matière de cybersécurité IA dévoilées par le Royaume-Uni et les États-Unis : une révolution pour la sécurité numérique !
Ce document recommande des lignes directrices pour les fournisseurs de tous les systèmes qui utilisent l’intelligence artificielle (IA), si ces systèmes ont été créés à partir de zéro ou construits sur des outils et des services fournis par d’autres. La mise en œuvre de ces directives aidera les fournisseurs à créer des systèmes d’IA qui fonctionnent comme prévu, sont disponibles en cas de besoin et fonctionnent sans révéler de données sensibles à des parties non autorisées.
Une initiative internationale sans précédent a été lancée pour établir des lignes directrices mondiales sur la sécurité de l’intelligence artificielle (IA). Cette démarche a été pilotée conjointement par le National Cyber Security Centre du Royaume-Uni et le Cybersecurity and Infrastructure Security Agency des États-Unis. Ces mesures ont été approuvées par plus d’une douzaine d’agences internationales, dans le but de contrecarrer les menaces associées à cette technologie. En tout, 18 pays ont approuvé ces directives, qui ont été élaborées en collaboration avec 21 ministères internationaux. Il s’agit de la première initiative de ce genre à être convenue à l’échelle mondiale. Dans leur communiqué de presse, les autorités britanniques et américaines en matière de cybersécurité ont souligné que le protocole a été dirigé par le Royaume-Uni.
Quatre domaines clés pour une IA sécurisée
Ces directives se concentrent sur quatre domaines clés pour garantir la sécurité de l’IA publié dans un document de 20 pages : la conception, le développement, le déploiement et la « maintenance et l’exploitation ». L’objectif est d’aider les développeurs à créer des systèmes sécurisés dès la conception, et d’évaluer leur sécurité de bout en bout, de la phase de développement à celle de déploiement et de mise à jour.
- Conception : La sécurité doit être une condition préalable essentielle et doit être intégrée dès le début du processus de développement de l’IA.
- Développement : L’accent est mis sur la transparence et la responsabilité pour une infrastructure d’IA sécurisée.
- Déploiement : L’objectif est de sécuriser les outils pour les clients.
- Maintenance et exploitation : La sécurité doit être une exigence centrale tout au long du cycle de vie du système.
Un impératif de sécurité
Le gouvernement a déclaré que cette initiative aidera les développeurs à « garantir que la cybersécurité est à la fois une condition préalable essentielle à la sécurité des systèmes d’IA et qu’elle est intégrée au processus de développement dès le départ et tout au long ». Dans leur déclaration, les autorités ont souligné : « Lorsque le rythme de développement est élevé – comme c’est le cas avec l’IA – la sécurité peut souvent être une considération secondaire. La sécurité doit être une exigence de base, non seulement lors de la phase de développement, mais tout au long du cycle de vie du système. »
Cependant, les lignes directrices ne parvient pas à aborder certains domaines controversés de l’IA. Il s’agit notamment de débats sur la réglementation des modèles de génération d’images et des deepfakes, ainsi que sur les pratiques de collecte de données utilisées dans les modèles de formation – un sujet qui a conduit à des poursuites pour violation du droit d’auteur contre plusieurs sociétés d’IA.