IA et cybersécurité : une approche par les risques pour un futur sécurisé

Image d'illustration. Piratage smartphoneADN
Face aux menaces croissantes, des experts internationaux proposent une analyse des risques liés à l’IA et des recommandations clés pour garantir des systèmes sûrs et de confiance.
TL;DR
- Publication menée par l’ANSSI et co-signée par de nombreux experts, plaide pour une approche par les risques pour l’utilisation des systèmes d’IA.
- Le document aborde les dangers de la cybersécurité liés à l’IA et propose des mesures pour les maîtriser.
- L’intelligence artificielle est une technologie clé mais comporte aussi des défis en matière de cybersécurité.
Une vision commune pour une IA sûre
Des experts internationaux, sous l’autorité de l’Agence Nationale de la Sécurité des Systèmes d’Information, ont travaillé de manière collaborative à un document dont l’objectif est d’encourager une « approche par les risques » dans l’utilisation des systèmes d’intelligence artificielle (IA). Cette volonté commune se place dans la perspective du Sommet IA et cherche à équilibrer les opportunités et les risques liés à la technologie IA, dans un contexte de constante évolution de la menace cyber.
L’IA: une technologie omniprésente mais à risque
Depuis son apparition dans les années 1950, l’IA influence de nombreux secteurs : défense, énergie, santé, finance… L’utilisation accrue des modèles de langue (LLM) notamment, doit encourager les différentes parties à être conscientes et à évaluer les risques associés, dont ceux liés à la cybersécurité. « Des acteurs malveillants pourraient exploiter les vulnérabilités des technologies d’IA et à l’avenir compromettre leur usage. » Il est impératif de limiter ces risques, pour promouvoir l’IA de confiance.
Une analyse des risques pour une IA sécurisée
Le document met en exergue l’importance de la cybersécurité des systèmes d’IA en présentant une analyse des risques de haut niveau. Il insiste notamment sur la nécessité de maitriser les risques cyber liés aux systèmes d’IA et propose des solutions pour y parvenir, en se basant sur les précédentes recommandations du NCSC-UK et de la CISA.
Cette analyse des risques concerne les systèmes intégrant des composants d’IA et présente une synthèse globale des menaces pesant sur ces systèmes, plutôt qu’une liste exhaustive de leurs vulnérabilités.
– Empoisonnement des données: altération des ensembles de données d’entraînement pour modifier les performances du modèle.
– Extraction d’informations sensibles: récupération de données confidentielles contenues dans le modèle IA.
– Attaques d’évasion: modification des entrées pour manipuler les décisions du système.
– Compromission des infrastructures: exploitation de failles dans l’hébergement et la gestion des modèles d’IA.
– Menaces liées aux interconnexions: l’IA est souvent connectée à d’autres systèmes, augmentant le risque de latéralisation des attaques.
– Lacunes humaines et organisationnelles: manque de formation et dépendance excessive à l’automatisation.
– Utilisation malveillante de l’IA: automatisation et amélioration des attaques.
Des mesures de prévention et de sécurité
L’IA représente un levier de transformation majeur, mais engendre également de nouveaux défis en matière de cybersécurité. Les experts internationaux, au travers de cette analyse, encouragent donc une approche proactive basée sur la gestion des risques, afin de garantir le développement et l’usage de systèmes d’IA de confiance.
Des recommandations sont proposées pour augmenter la sécurité des systèmes d’IA, parmi lesquelles:
– Sécurisation dès la conception
– Surveillance et maintenance continue
– Évaluation des chaînes d’approvisionnement
– Encadrement des interconnexions
– Sensibilisation et formation
– Gouvernance et cadre réglementaire