En janvier dernier, TIME a révélé que l’entreprise OpenAI, soutenue par Microsoft, avait fait appel à des travailleurs au Kenya fin 2021 pour modérer des données internet, constituant une part fondamentale du développement du système de sécurité de l’IA générative ChatGPT. Des documents consultés par le média indiquent que ces modérateurs étaient rémunérés environ 2 dollars de l’heure pour étiqueter des textes décrivant des blessures, des abus sexuels et des automutilations. Ces travailleurs étaient également chargés de collecter des images, certaines pouvant être illégales selon la législation américaine, pour un autre projet d’OpenAI, le générateur d’images DALL-E.
OpenAI a assuré prendre très au sérieux le bien-être de ses sous-traitants et a indiqué que des programmes de soutien étaient disponibles par le biais de l’entreprise de sous-traitance. Cependant, la nature traumatisante du travail a amené l’entreprise de sous-traitance à mettre fin prématurément à son contrat avec OpenAI, selon un article récent du Wall Street Journal. Parallèlement, des études de plus en plus nombreuses mettent en lumière la dépendance des grandes entreprises technologiques envers le travail effectué dans les pays du Sud pour rendre l’IA sûre.
Des enquêtes menées au fil des années ont également révélé que l’IA à usage général, déployée dans les systèmes de biométrie, de police et de logement, a déjà entraîné des discriminations de genre et raciales. Alors que l’IA ChatGPT commence à décoller, le récent licenciement de l’équipe responsable de l’IA chez Microsoft a soulevé des questions sur la place réelle accordée aux préoccupations éthiques dans l’économie de l’IA, qui représente plusieurs milliards de dollars.
Malgré ces problèmes, le secteur technologique dans son ensemble ne semble pas minimiser les risques liés à l’IA générative. Des figures importantes de l’industrie ont en effet appelé à une pause dans le développement de cette technologie, jusqu’à ce qu’une législation robuste sur l’IA soit mise en place. Cependant, selon Abid Adonis, chercheur à l’Oxford Internet Institute, il est nécessaire d’élargir le débat sur l’IA éthique au-delà des régulateurs et des géants de la tech, pour inclure la société civile et les chercheurs, et surtout écouter ce que les groupes marginalisés ont à dire sur la question. D’ailleurs le patron d’OpenAI, la société à l’origine de ChatGPT, a témoigné pour la première fois devant le Congrès américain. Sam Altman a appelé les législateurs à réglementer l’intelligence artificielle. Dans le même temps, la CNIL publie un plan d’action pour un déploiement de systèmes d’IA respectueux de la vie privée des individus.
Pour le Dr Alison Powell, professeure associée en médias et communications à la London School of Economics and Political Science et directrice du réseau JustAI à l’Ada Lovelace Institute, l’accent mis sur l’intelligence artificielle générale, qui selon certains acteurs majeurs de l’industrie pourrait surpasser les capacités cognitives humaines et donc dominer le marché du travail, est déjà en soi nuisible. Elle met en garde contre l’exagération des capacités décisionnelles de l’IA, qui ne prendraient pas en compte les responsabilités sociales, et insiste sur la nécessité de comprendre les aspects sociaux où la technologie est susceptible de causer des dommages avant de considérer comment la rendre plus éthique.
La gouvernance de l’IA signifie l’application des lois existantes, en particulier celles relatives à la protection des données, à l’anti-discrimination et aux droits de l’homme, qui s’appliquent aux environnements institutionnels dans lesquels l’IA est mise en œuvre. Elle prône une réflexion sur les cadres institutionnels utilisant l’IA, plutôt que de considérer l’IA comme un objet de régulation en soi.