Business

Immaturité et incohérence dans la compréhension et l’application des pratiques de l’AI

Par le

Le potentiel économique estimé de l’intelligence artificielle (AI) de 15,7 milliards de dollars selon PWC ne sera réalisé que si les pratiques responsables en matière d’intelligence artificielle sont intégrées dans toutes les organisations et sont prises en compte avant tout développement.

Selon une nouvelle boîte à outils publiée cette semaine par PwC, pour lutter contre une approche fragmentée du développement et de l’intégration de l’AI, qui expose les entreprises à des risques potentiels, elles doivent intégrer une compréhension, un développement et une intégration de bout en bout des pratiques de l’AI responsable.

PwC a identifié cinq dimensions que les entreprises doivent cibler et adapter à leur stratégie, leur conception, leur développement et leur déploiement spécifiques : gouvernance, éthique et réglementation, interprétabilité (L’interprétabilité concerne la mesure dans laquelle une cause et un effet peuvent être observés dans un système.) et explicabilité (c’est la mesure dans laquelle la mécanique interne du machine learning, deep learning peut être expliquée en termes humains.),robustesse et sécurité, biais et équité.

Plus tôt cette année, 85% des PDG avaient déclaré que l’intelligence artificielle allait changer radicalement leur façon de faire des affaires au cours des cinq prochaines années, et 84% ont admis que les décisions basées sur l’intelligence artificielle devaient être explicables pour que l’on puisse leur faire confiance.

Anand Rao, responsable mondial de l’IA, PwC US, s’exprimant cette semaine au Forum économique mondial de Dalian, a déclaré : “The issue of ethics and responsibility in AI are clearly of concern to the majority of business leaders. The C-suite needs to actively drive and engage in the end-to-end integration of a responsible and ethically led strategy for the development of AI in order to balance the economic potential gains with the once-in-a-generation transformation it can make on business and society. One without the other represents fundamental reputational, operational and financial risks.”

En mai et juin 2019, environ 250 personnes impliqués dans le développement et le déploiement d’AI ont répondu à une évaluation. Les résultats démontrent l’immaturité et l’incohérence dans la compréhension et l’application de pratiques d’IA responsables et éthiques:

– Seulement 25% des personnes interrogées ont déclaré qu’elles accorderaient la priorité à la prise en compte des implications éthiques d’une solution d’AI avant de la mettre en œuvre.
– Une personne sur cinq (20%) dispose de processus clairement définis pour identifier les risques associés à l’AI.
– Plus de 60% comptent sur des développeurs, des processus informels ou n’ont aucune procédure documentée.
– Les frameworks éthiques concernant l’AI existaient, mais leur application n’était pas cohérente.
– 56% ont déclaré qu’il serait difficile d’énoncer la cause si l’AI de leur organisation faisait quelque chose de mal.
– Plus de la moitié des personnes interrogées n’ont pas formalisé leur méthode d’évaluation des travers pour l’AI, invoquant un manque de connaissances, d’outils et d’évaluations ponctuelles.
– 39% des personnes dont l’AI s’appliquait à grande échelle n’étaient pas certains de savoir comment arrêter leur AI si elle échouait.

Opportunités

L’intelligence artificielle apporte des opportunités mais aussi des défis inhérents à la confiance et à la responsabilité. Pour gagner le prix de la productivité avec l’AI, cela exigera des stratégies et une planification intégrées en matière d’organisation et de personnel. Les membres des équipes ont clairement besoin de passer en revue les bonnes pratiques d’AI actuelles et futures au sein de leur organisation, en posant des questions non seulement pour s’attaquer aux risques potentiels, mais également pour déterminer si une stratégie, des contrôles et des processus adéquats sont en place.

Les décisions relatives à l’IA ne sont pas sans rappeler celles prises par les humains. Dans chaque cas, vous devez être en mesure d’expliquer vos choix et de comprendre les coûts et les impacts associés. Il ne s’agit pas uniquement de solutions technologiques pour la détection, l’explication et la correction des travers, ainsi que pour la création de systèmes sûrs et sécurisés. Cela nécessite un nouveau niveau de leadership holistique prenant en compte les dimensions éthiques et responsables de l’impact de la technologie sur les entreprises, dès le premier jour.

PWC a créé une boîte à outils Responsible AI qui consiste en une suite flexible et évolutive de fonctionnalités globales, d’outils et de processus personnalisables. Elle est conçue pour permettre l’évaluation et le développement de l’intelligence artificielle au sein d’une organisation, adaptée à ses besoins spécifiques et à son niveau de maturité.