Dernière nouvelle : Apple rejoint le mouvement pour la sécurité de l'IA, une promesse engageante pour l'avenir. Afin de promouvoir et exiger une innovation sûre, sécurisée, digne de confiance et responsable, qui inclut l'utilisation de l'audio généré par l'IA. Quels enjeux pour le géant de la technologie ?
Apple s’engage dans la sécurité de l’IA : un pas de plus vers l’innovation responsable
Le gouvernement américain a récemment dévoilé que Apple s’est engagé dans une série de principes volontaires visant à renforcer la sécurité de l’Intelligence Artificielle. Cette décision place la firme de Cupertino parmi les 16 entreprises ayant accepté de se conformer à ces directives. Ces entreprises, parmi lesquelles figurent des géants de la tech tels que OpenAI, Alphabet, Meta Platforms et Amazon, ont déjà apporté leur soutien à ces mesures. Suite à ces engagements, l’administration du président Joe Biden a mis en place un décret exécutif correspondant.
Les engagements pour une IA plus sûre
Les engagements initiaux comprenaient notamment :
- Des tests de sécurité internes et externes des systèmes d’IA avant leur mise sur le marché,
- Le partage d’informations sur la gestion des risques liés à l’IA avec l’industrie, le monde universitaire et les gouvernements.
L’adhésion d’Apple à cette initiative volontaire est considérée par les autorités américaines comme une validation supplémentaire de ces directives, désormais qualifiées de « piliers de l’innovation responsable en matière d’IA ».
Les avancées depuis le décret
Par ailleurs, le gouvernement américain a fait le point sur les travaux effectués depuis l’émission de ce décret. Il affirme avoir :
- Lancé un « appel à l’action » pour lutter contre les contenus générés par l’IA nocifs et abusifs,
- Publié un guide pour concevoir des outils d’IA « dignes de confiance » dans le secteur de l’éducation,
- Initié un projet de 23 millions de dollars pour promouvoir l’utilisation de technologies respectueuses de la vie privée.