Google approuve désormais l’utilisation de l’IA pour les armes et la surveillance
Image d'illustration. GoogleADN
Google a désormais l'intention d'utiliser l'intelligence artificielle dans le domaine des armes et de la surveillance, marquant un tournant dans sa stratégie technologique.
Tl;dr
- Google modifie ses principes d’IA, supprimant la promesse de ne pas utiliser l’IA pour les armes ou la surveillance.
- La nouvelle version se concentre sur le « développement et le déploiement responsables ».
- Google avait précédemment refusé le renouvellement d’un contrat controversé de l’IA avec le Département de la Défense.
Google révise ses principes d’IA
Google, le géant de la recherche, a apporté l’un des changements les plus substantiels à ses principes d’IA depuis leur première publication en 2018. Le document a été modifié pour supprimer les engagements précédemment pris par l’entreprise, promettant qu’elle ne « concevrait ni ne déploierait » d’outils d’IA à utiliser dans les armes ou la technologie de surveillance.
Un virage vers le « développement et le déploiement responsables »
Auparavant, ces directives comprenaient une section intitulée « applications que nous ne poursuivrons pas », qui n’est pas présente dans la version actuelle du document. À la place, il y a maintenant une section intitulée « développement et déploiement responsables ». Ici, Google déclare qu’il mettra en œuvre « un contrôle humain approprié, une diligence raisonnable et des mécanismes de feedback pour s’aligner avec les objectifs des utilisateurs, la responsabilité sociale et les principes largement acceptés du droit international et des droits de l’homme ».
Un engagement plus large
C’est un engagement beaucoup plus large que ceux spécifiques que l’entreprise a pris aussi récemment qu’à la fin du mois dernier lorsque la version antérieure de ses principes d’IA était encore en ligne sur son site. Par exemple, en ce qui concerne les armes, la société avait précédemment déclaré qu’elle ne concevrait pas d’IA à utiliser dans « les armes ou d’autres technologies dont le but principal ou la mise en œuvre est de causer ou de faciliter directement des blessures aux personnes ». Quant aux outils de surveillance par IA, la société a déclaré qu’elle ne développerait pas de technologie qui viole « les normes internationalement acceptées ».
La réponse de Google
Interrogé sur ce sujet, un porte-parole de Google a dirigé Engadget vers un billet de blog que l’entreprise a publié jeudi. Dans celui-ci, le PDG de DeepMind, Demis Hassabis, et James Manyika, vice-président senior de la recherche, des laboratoires, de la technologie et de la société chez Google, affirment que l’émergence de l’IA en tant que « technologie polyvalente » nécessite un changement de politique.
« Nous pensons que les démocraties devraient être à la tête du développement de l’IA, guidées par des valeurs fondamentales telles que la liberté, l’égalité et le respect des droits de l’homme. Et nous pensons que les entreprises, les gouvernements et les organisations qui partagent ces valeurs devraient travailler ensemble pour créer une IA qui protège les gens, favorise la croissance mondiale et soutient la sécurité nationale, » ont écrit les deux dirigeants.
Un retour en arrière
Lorsque Google a publié pour la première fois ses principes d’IA en 2018, c’était dans le sillage du Projet Maven. C’était un contrat gouvernemental controversé qui, si Google avait décidé de le renouveler, aurait vu l’entreprise fournir un logiciel d’IA au Département de la Défense pour l’analyse des images de drones. Des dizaines d’employés de Google ont quitté l’entreprise pour protester contre ce contrat, des milliers d’autres ayant signé une pétition contre. Cependant, en 2021, Google a recommencé à poursuivre les contrats militaires, avec ce qui était apparemment une « offre agressive » pour le contrat cloud de la capacité de guerre conjointe du Pentagone.