Menu
Servicesmobiles.frServicesmobiles.fr
Navigation : 
  • Tech
    • Mobile
    • Apple
    • Google
    • trackr.fr
  • BtB
    • OpenAI
  • Fintech
    • Crypto-monnaies
    • Revolut
En ce moment : 
  • Google
  • Europe
  • Apple
  • Photo

IA et cybersécurité : une approche par les risques pour un futur sécurisé

Tech / IA / Cybersecurite / Sécurité
Par Christophe publié le 10 février 2025 à 14h00.
Tech
Piratage smartphone

Image d'illustration. Piratage smartphoneADN

Face aux menaces croissantes, des experts internationaux proposent une analyse des risques liés à l’IA et des recommandations clés pour garantir des systèmes sûrs et de confiance.

TL;DR

  • Publication menée par l’ANSSI et co-signée par de nombreux experts, plaide pour une approche par les risques pour l’utilisation des systèmes d’IA.
  • Le document aborde les dangers de la cybersécurité liés à l’IA et propose des mesures pour les maîtriser.
  • L’intelligence artificielle est une technologie clé mais comporte aussi des défis en matière de cybersécurité.

Une vision commune pour une IA sûre

Des experts internationaux, sous l’autorité de l’Agence Nationale de la Sécurité des Systèmes d’Information, ont travaillé de manière collaborative à un document dont l’objectif est d’encourager une « approche par les risques » dans l’utilisation des systèmes d’intelligence artificielle (IA). Cette volonté commune se place dans la perspective du Sommet IA et cherche à équilibrer les opportunités et les risques liés à la technologie IA, dans un contexte de constante évolution de la menace cyber.

L’IA: une technologie omniprésente mais à risque

Depuis son apparition dans les années 1950, l’IA influence de nombreux secteurs : défense, énergie, santé, finance… L’utilisation accrue des modèles de langue (LLM) notamment, doit encourager les différentes parties à être conscientes et à évaluer les risques associés, dont ceux liés à la cybersécurité. « Des acteurs malveillants pourraient exploiter les vulnérabilités des technologies d’IA et à l’avenir compromettre leur usage. » Il est impératif de limiter ces risques, pour promouvoir l’IA de confiance.

Une analyse des risques pour une IA sécurisée

Le document met en exergue l’importance de la cybersécurité des systèmes d’IA en présentant une analyse des risques de haut niveau. Il insiste notamment sur la nécessité de maitriser les risques cyber liés aux systèmes d’IA et propose des solutions pour y parvenir, en se basant sur les précédentes recommandations du NCSC-UK et de la CISA.

Cette analyse des risques concerne les systèmes intégrant des composants d’IA et présente une synthèse globale des menaces pesant sur ces systèmes, plutôt qu’une liste exhaustive de leurs vulnérabilités.
– Empoisonnement des données: altération des ensembles de données d’entraînement pour modifier les performances du modèle.
– Extraction d’informations sensibles: récupération de données confidentielles contenues dans le modèle IA.
– Attaques d’évasion: modification des entrées pour manipuler les décisions du système.
– Compromission des infrastructures: exploitation de failles dans l’hébergement et la gestion des modèles d’IA.
– Menaces liées aux interconnexions: l’IA est souvent connectée à d’autres systèmes, augmentant le risque de latéralisation des attaques.
– Lacunes humaines et organisationnelles: manque de formation et dépendance excessive à l’automatisation.
– Utilisation malveillante de l’IA: automatisation et amélioration des attaques.

Des mesures de prévention et de sécurité

L’IA représente un levier de transformation majeur, mais engendre également de nouveaux défis en matière de cybersécurité. Les experts internationaux, au travers de cette analyse, encouragent donc une approche proactive basée sur la gestion des risques, afin de garantir le développement et l’usage de systèmes d’IA de confiance.
Des recommandations sont proposées pour augmenter la sécurité des systèmes d’IA, parmi lesquelles:
– Sécurisation dès la conception
– Surveillance et maintenance continue
– Évaluation des chaînes d’approvisionnement
– Encadrement des interconnexions
– Sensibilisation et formation
– Gouvernance et cadre réglementaire

Le Récap
  • TL;DR
  • Une vision commune pour une IA sûre
  • L’IA: une technologie omniprésente mais à risque
  • Une analyse des risques pour une IA sécurisée
  • Des mesures de prévention et de sécurité
En savoir plus
  • Le bug qui a réveillé la tech : l’alerte rouge du vibe coding
  • Une mise à jour IA majeure arrive sur Google Home : découvrez les premières fonctionnalités à tester
  • Apple compte sur Google Gemini pour rendre Siri enfin plus intelligent
Vous aimez nos contenus ?
Recevez chaque jour nos dernières publications gratuitement et directement dans votre boite mail
Recevoir la newsletter
  • A propos
  • Mentions Légales
  • Archives
  • Newsletter
  • Prix d’une application mobile
© 2025 - Tous droits réservés sur les contenus du site Servicesmobiles.fr  - ADN Contents -