Whisper d’OpenAI : entre avancée technologique et risques cachés

Image d'illustration. OpenAIADN
Pourtant, son utilisation dans le domaine médical est à noter.
Tl;dr
- Whisper d’OpenAI, un outil de transcription, ajoute des informations fausses.
- Des chercheurs ont découvert des « hallucinations » dans les transcriptions de Whisper.
- Whisper est utilisé dans le domaine médical, malgré les problèmes de précision.
Whisper d’OpenAI : un outil de transcription controversé
Imaginez-vous chez le médecin, partageant vos symptômes, puis découvrant que votre récit a été déformé par une transcription erronée. C’est le risque encouru par les patients dans les centres médicaux qui utilisent Whisper, l’outil de transcription d’OpenAI. Selon une enquête menée par ABC News, plus d’une douzaine de développeurs, ingénieurs logiciels et chercheurs académiques ont découvert que Whisper génère des « hallucinations », du texte inventé, contenant des médicaments inexistants, des commentaires raciaux et des remarques violentes.
Des « hallucinations » inquiétantes
Les exemples de ces erreurs sont nombreux et préoccupants. Un chercheur de l’Université du Michigan a découvert du texte inventé dans huit transcriptions audio sur dix de réunions publiques. Dans une autre étude, des informaticiens ont trouvé 187 « hallucinations » en analysant plus de 13 000 enregistrements audio. Un ingénieur en apprentissage automatique a constaté des erreurs dans la moitié des transcriptions d’un corpus de plus de 100 heures, tandis qu’un développeur a repéré des hallucinations dans presque toutes les 26 000 transcriptions qu’il a fait créer par Whisper.
Des conséquences potentiellement graves
L’impact potentiel de ces erreurs de transcription est d’autant plus grave dans le domaine médical. Une entreprise appelée Nabla utilise Whisper pour son outil de transcription médicale, utilisé par plus de 30 000 cliniciens et 40 systèmes de santé, qui a jusqu’à présent transcrit environ sept millions de visites. Cependant, le système de vérification de la validité des transcriptions pose problème. Selon le directeur technique de Nabla, Martin Raison, l’outil supprime tous les enregistrements audio pour des « raisons de sécurité des données ». De plus, les fournisseurs doivent rapidement éditer et approuver les transcriptions, bien que ce système puisse évoluer.
L’IA : un outil à double tranchant
Malgré ces problèmes, la dernière version de Whisper a été téléchargée 4,2 millions de fois sur la plateforme open-source HuggingFace le mois dernier. L’outil est également intégré aux plateformes de cloud computing d’Oracle et de Microsoft, ainsi que dans certaines versions de ChatGPT. Ces données soulignent l’importance de la vigilance par rapport à l’utilisation de l’IA, dont les résultats peuvent parfois s’avérer trompeurs, voire dangereux.