Roblox, Discord, OpenAI, Mozilla et Google fondent un nouveau groupe pour la sécurité des enfants

Image d'illustration. RoostADN
Roblox, Discord, OpenAI et Google s'unissent pour créer un nouveau groupe dédié à la protection des enfants sur internet lancé sur le Sommet pour l’action sur l’Intelligence Artificielle à Paris !
Tl;dr
- Lancement de ROOST, une organisation à but non lucratif par Roblox, Discord, OpenAI, Mozilla et Google.
- ROOST fournira gratuitement des outils de sécurité open-source, avec un accent sur la sécurité des enfants.
- Les entreprises impliquées ont déjà pris des engagements pour contrer l’utilisation abusive de l’IA.
ROOST : Une initiative de sécurité en ligne par les géants de la technologie
En réponse à l’évolution rapide du paysage en ligne et à la nécessité croissante d’une infrastructure de sécurité fiable et accessible, Roblox, Discord, OpenAI, Mozilla et Google ont conjointement lancé une organisation à but non lucratif nommée ROOST, acronyme pour Robust Open Online Safety Tools. ROOST se lance exactement au bon moment et au bon endroit, en utilisant ce sommet mondial sur l’IA à Paris pour rassembler une communauté qui créera les éléments de base pratiques dont nous avons besoin pour permettre un écosystème d’IA plus sûr.
Des outils de sécurité open-source pour tous
ROOST vise à fournir des outils de sécurité open-source gratuits aux organisations publiques et privées pour qu’elles les utilisent sur leurs propres plateformes. Leurs efforts se concentreront initialement sur la sécurité des enfants. En effet, l’annonce officielle de ROOST mentionne explicitement la volonté de proposer des « outils pour détecter, examiner et signaler le matériel d’abus sexuel d’enfants (CSAM) ». Les entreprises partenaires financent ces outils et apportent également l’expertise technique nécessaire à leur réalisation.
La sécurité en ligne des enfants : une priorité
La sécurité en ligne des enfants est un sujet brûlant depuis l’introduction des lois COPPA (Children and Teen’s Online Privacy Protection Act) et KOSA (Kids Online Safety Act) au Congrès, bien que les deux n’aient pas été adoptées. Google et OpenAI, deux des entreprises impliquées dans ROOST, se sont déjà engagées à empêcher les outils d’IA d’être utilisés pour générer du CSAM.
Roblox et les enjeux de la sécurité enfantine
La question de la sécurité des enfants est particulièrement urgente pour Roblox. En 2020, deux tiers des enfants américains âgés de neuf à douze ans jouaient à Roblox, et la plateforme a eu du mal à gérer la sécurité des enfants. Un rapport de Bloomberg Businessweek en 2024 a révélé que l’entreprise avait un « problème de pédophilie », ce qui a entraîné plusieurs changements de politique et de nouvelles restrictions concernant les messages privés des enfants. Si ROOST ne résoudra pas tous ces problèmes, l’organisation devrait faciliter leur gestion pour toute autre entreprise ou organisation se retrouvant dans la même situation que Roblox.