OpenAI et Anthropic signent des protocoles d’entente pour des tests de sécurité IA
OpenAI et Anthropic s'associent pour signer des protocoles d'entente visant à renforcer la sécurité des tests d'intelligence artificielle : découvrez comment cette collaboration pourrait révolutionner le futur de l'AI.
Collaboration entre OpenAI, Anthropic et le gouvernement américain : un pas de géant pour la sécurité de l’IA
OpenAI et Anthropic, deux géants de l’industrie de l’intelligence artificielle (IA), ont franchi une étape importante en signant des accords avec le gouvernement américain. Ces accords, sous forme de Mémorandums d’Entente (MoU), permettront aux autorités de rechercher, tester et évaluer de nouveaux modèles d’IA avant leur mise à disposition au grand public.
Un cadre de travail pour une IA sûre et éthique
Les MoUs établissent un cadre permettant à l’Institut de Sécurité de l’IA des États-Unis d’accéder en avance aux grands nouveaux modèles d’IA et de poursuivre leur étude après leur lancement. Cela inclut :
- La réalisation de recherches conjointes pour évaluer les capacités et les risques des modèles d’IA.
- L’élaboration de méthodes pour atténuer ces risques.
« Ces accords ne sont qu’un début, mais ils marquent une étape importante dans notre travail pour aider à gérer de manière responsable l’avenir de l’IA », a déclaré Elizabeth Kelly, directrice de l’Institut de Sécurité de l’IA des États-Unis.
Une régulation accrue pour une IA éthique et responsable
Dans un contexte où les entreprises d’IA subissent une pression réglementaire croissante concernant l’utilisation éthique des grands modèles linguistiques et leur formation, ces accords marquent un tournant. L’Institut prévoit de fournir des retours à Anthropic et OpenAI sur d’éventuelles améliorations de sécurité pour leurs modèles. Ce travail se fera en collaboration avec ses partenaires de l’Institut de Sécurité de l’IA du Royaume-Uni.
Pour rappel, l’Institut de Sécurité de l’IA des États-Unis est situé au sein du Département du Commerce des États-Unis, plus précisément au National Institute of Standards and Technology.