Publié le 14 janvier 2020, modifié le 27 août 2020.
Par La Rédaction

[CES 2020] L’IA présente un défi unique qui ne sera pas résolu avec un patchwork de lois nationales et locales.

Publié le 14 janvier 2020, modifié le 27 août 2020.
Par La Rédaction
Photo : @abavala

Photo : @abavala

Tout le monde sait que la révolution de l' intelligence artificielle (IA) a commencé, c'est la partie facile. Le plus dur, c'est qu'il n'y a pas beaucoup d'accord sur ce que l'industrie et les gouvernements devraient faire pour commencer à s'adapter à ce changement.

Photo : @abavala

Tout le monde sait que la révolution de l’ intelligence artificielle (IA) a commencé, c’est la partie facile. Le plus dur, c’est qu’il n’y a pas beaucoup d’accord sur ce que l’industrie et les gouvernements devraient faire pour commencer à s’adapter à ce changement. Mettre des règles est un bon point de départ pour s’assurer que la sécurité, l’équité et la transparence façonnent le développement et la mise en œuvre. Un panel au CES 2020 a discuté de la manière de façonner les lois régissant l’IA, les investissements pour financer la technologie et des programmes de formation pour s’assurer que tout le monde sera prêt pour la révolution.

Une étude réalisée en 2018 par le cabinet de conseil PwC a révélé que 30% des emplois dans le monde risquaient d’être automatisés d’ici le milieu des années 2030, dont 44% des travailleurs peu scolarisés. L’étude a également révélé que l’automatisation pourrait augmenter le produit intérieur brut mondial de 15 billions de dollars d’ici 2030.

Les US viennent  de publier une liste de lignes directrices à suivre par les agences fédérales lors de l’élaboration de politiques relatives à l’IA. D’autres agences US ont déployé des efforts considérables pour définir l’utilisation éthique de l’IA au cours de l’année écoulée. Les communautés de la défense et de la sécurité nationale, par exemple, ont récemment défini leurs propres considérations éthiques pour l’IA, et les États-Unis ont approuvé le printemps dernier un ensemble commun de principes internationaux de l’IA avec plus de 40 autres pays.

Phrases de la table ronde du Panel CES
– Si vous regardez quels sont les risques, certains des risques les plus élevés sont les utilisations gouvernementales de l’IA et non l’utilisation du secteur privé.
– Le gouvernement US ne devrait pas entraver l’innovation, mais a admis que l’IA présente un défi unique qui ne sera pas résolu avec un patchwork de lois nationales et locales.
– À qui revient-il de nous protéger des boîtes noires ? À un moment donné, le gouvernement fédéral doit intensifier ses efforts et créer de la cohérence.
– les États-Unis devraient jouer un rôle de leader mondial dans l’intelligence artificielle pour garantir que les valeurs américaines seront intégrées dans la technologie au fur et à mesure de son développement.

Les agences gouvernemental US devront maintenant démontrer à la Maison Blanche qu’elles ont respecté les 10 principes de l’IA en proposant des règles régissant le déploiement par le secteur privé de l’IA. Les principes couvrent la confiance, les preuves scientifiques, l’équité, la transparence et une approche fondée sur le risque pour élaborer des lois qui considèrent quels risques sont acceptables et quels risques présentent la possibilité d’un préjudice inacceptable ou d’un préjudice qui a prévu des coûts supérieurs aux avantages escomptés.

10 principes

1/ Confiance du public dans l’IA – Les approches réglementaires et non réglementaires du gouvernement en matière d’IA doivent promouvoir des applications d’IA fiables, robustes et fiables.

2/ Participation du public – Les agences devraient offrir de nombreuses opportunités» au public de participer à toutes les étapes du processus d’élaboration des règles.

3/ Intégrité scientifique et qualité de l’information – Les agences devraient développer des informations techniques sur l’IA par une recherche ouverte et objective de preuves vérifiables qui éclairent les décisions politiques et renforcent la confiance du public dans l’IA.

4/ Évaluation et gestion des risques – Une approche fondée sur les risques devrait être utilisée pour déterminer quels risques sont acceptables et quels risques présentent la possibilité d’un préjudice inacceptable ou d’un préjudice dont les coûts escomptés sont supérieurs aux avantages escomptés.

5/ Avantages et coûts – Les agences devraient examiner attentivement tous les avantages sociétaux et les effets sur la distribution avant d’envisager des réglementations.

6/ Flexibilité – Les réglementations doivent s’adapter aux changements et mises à jour rapides des applications d’IA.

7/ Équité et non-discrimination – Les agences devraient examiner les questions d’équité et de non-discrimination «en ce qui concerne les résultats et les décisions produits par la demande d’IA en cause.

8/ Divulgation et transparence – La transparence et la divulgation peuvent accroître la confiance du public dans les applications d’intelligence artificielle.

9 /Sûreté et sécurité – Les agences devraient accorder une attention particulière aux contrôles en place pour garantir la confidentialité, l’intégrité et la disponibilité des informations traitées stockées et transmises par les systèmes d’IA.

10/Coordination inter-institutions – Les agences devraient se coordonner entre elles pour partager leurs expériences et assurer la cohérence et la prévisibilité des politiques liées à l’IA qui font progresser l’innovation et la croissance américaines et l’IA.

À lire : White House Proposes Regulatory Principles to Govern AI Use

L’Europe investit dans les startups de l’IA

La Commission européenne prévoie de stimuler le développement de l’IA avec 1,5 milliard de dollars d’investissements publics. L’idée est de soutenir davantage de partenariats public-privé et de financer des startups en phase de démarrage travaillant sur des applications d’IA. La stratégie européenne est axée sur les moyennes entreprises. En novembre 2019, Bloomberg a annoncé que la commission prévoyait un fonds européen de 3,9 milliards de dollars à lancer en 2021 pour soutenir les startups en phase de démarrage travaillant dans les domaines des biotechnologies, des technologies de la santé et de l’intelligence artificielle.

Lire aussi
Tech

L’assistant intelligent de Meta

Comme toutes les grandes entreprises technologiques, Meta convoite également son propre assistant vocal. L'assistant peut effectuer diverses...