Le nouveau conseil de sécurité d’OpenAI : plus de pouvoir, sans Sam Altman

Image d'illustration. OpenAIADN
Le nouveau conseil d'administration de l'entreprise a désormais le pouvoir de freiner le lancement de nouveaux modèles d'IA. Quels impacts cette décision aura-t-elle sur l'avenir de la technologie AI de l'entreprise ?
Tl;dr
- OpenAI réorganise ses pratiques de sécurité, incluant la création d’un comité de surveillance indépendant.
- Sam Altman, PDG d’OpenAI, quitte le comité de sécurité, marquant un changement notable.
- Le nouveau comité sera présidé par Zico Kolter de l’Université Carnegie Mellon.
- OpenAI prévoit d’améliorer ses mesures de sécurité, sa transparence et sa collaboration avec d’autres organisations.
OpenAI s’engage dans une nouvelle direction pour la sécurité
OpenAI, l’organisation dédiée à l’intelligence artificielle (IA), a dévoilé des changements significatifs dans ses pratiques de sécurité. Elle a annoncé la mise en place d’un comité de surveillance indépendant, marquant ainsi un virage majeur dans sa gouvernance.
Une restructuration majeure des pratiques de sécurité
Suite à des critiques concernant son engagement envers la sécurité de l’IA, OpenAI a opéré une refonte majeure de ses structures de sécurité. Cette réorganisation marque notamment le départ de Sam Altman, PDG de l’organisation, du comité de sécurité, rompant avec la structure précédente.
Le nouveau Comité de Sécurité et de Sureté (SSC), qui remplace le précédent comité formé en juin 2024, sera présidé par Zico Kolter, Directeur du département d’apprentissage automatique de l’Université Carnegie Mellon. Le SSC comprendra également des personnalités clés telles que le PDG de Quora Adam D’Angelo, le Général à la retraite de l’armée américaine Paul Nakasone et Nicole Seligman, ancienne vice-présidente exécutive et avocate générale de Sony Corporation.
Un comité avec une autorité élargie
Le comité nouvellement formé aura un rôle plus important que son prédécesseur. Au lieu de simplement faire des recommandations, le SSC aura l’autorité de superviser les évaluations de sécurité pour les principales sorties de modèles et exercera une surveillance sur les lancements de modèles. Il aura également le pouvoir de retarder une sortie jusqu’à ce que les préoccupations de sécurité soient correctement prises en compte.
Une initiative plus large pour la sécurité de l’IA
Outre ces changements de gouvernance, OpenAI a également annoncé son intention de renforcer ses mesures de sécurité, d’accroître la transparence autour de son travail et de collaborer avec des organisations externes. L’organisation a déjà conclu des accords avec les instituts de sécurité de l’IA aux États-Unis et au Royaume-Uni pour collaborer sur la recherche des risques émergents en matière de sécurité de l’IA et les normes pour une IA de confiance.