Publié le 27 mars 2023, modifié le 27 mars 2023.
Par La Rédaction

Connaissez vous le “Prompt Engineering” ?

Publié le 27 mars 2023, modifié le 27 mars 2023.
Par La Rédaction

Alors que la plupart des grands modèles linguistiques comme le GPT-4 d'OpenAI sont préremplis d'énormes quantités d'informations, l'ingénierie rapide (prompt engineering) permet d'adapter l'IA générative à une utilisation spécifique d'une l'industrie ou même organisationnelle.

Ces LLM qui peuvent imiter l’intelligence humaine et créée du contenu textuel ainsi que de l’audio, de la vidéo, des images et du code informatique. Les LLM sont un type d’intelligence artificielle formée sur une mine d’articles, de livres ou de ressources Internet et d’autres entrées pour produire des réponses de type humain aux entrées en langage naturel.

Comme les GPT de Open AI ou Paradigm de la société française Lighton embarquent nativement de nombreuses fonctionnalités qu’il faut savoir activer. En effet, le pré-entraînement de ces modèles génère des règles qui leur permettent d’inférer (passer de règle en règle) de manière native et ainsi être en mesure par exemple de réaliser des synthèses, de la classification, de l’analyse de sentiments et bien d’autres choses encore. Il faut cependant savoir activer ces fonctionnalités incluses dans ces modèles. ChatGPT et son prompt nous ont permis de découvrir qu’il fallait « savoir parler » à ces modèles pour obtenir d’eux le bon traitement. C’est ce que l’on appelle « Prompt Engineering ».

“C’est une nouvelle science qui va permettre d’utiliser toute la puissance de ces modèles entrainés sur des expertises spécifiques et dont l’on peut obtenir dès à présent des gains de performance sans commune mesure avec les précédents modèles de Machine Learning. L’Intelligence Artificielle va donc voir cohabiter deux types de profils très différents. Un profil très matheux pour les data scientists en charge de mettre au point les modelés de machine learning qui vont persister dans toute la partie recommandation numérique et des prompt engineer qui n’auront besoin d’aucune forme de mathématique, mais d’une compréhension pointue de l’interaction avec ces modèles de langage pour être en capacité d’activer les bonnes fonctionnalités afin d’obtenir la meilleure performance. Une répartition qui se fera en fonction des objectifs de transformation des entreprises,” Stéphane Roder, CEO d’AI Builders, Cabinet de conseil en stratégie Data et IA.

Exemple

Le nouveau copilote Microsoft 365 peut être utilisé dans Word pour créer un premier brouillon d’un document, ce qui permet d’économiser des heures de rédaction, de recherche et d’édition. Salesforce a également annoncé son intention de publier un chatbot basé sur GPT à utiliser avec sa plate-forme CRM. La plupart des LLM, tels que le GPT-4 d’OpenAI, sont préformés en tant que moteurs de prédiction du mot suivant ou du contenu, c’est ainsi que la plupart des entreprises les utilisent, “prêtes à l’emploi”, pour ainsi dire. Et tandis que les chatbots basés sur LLM ont produit leur part d’erreurs, les LLM préformés fonctionnent relativement bien pour fournir un contenu principalement précis et convaincant qui, à tout le moins, peut être utilisé comme point de départ.

Algorithmes LLM plus personnalisés

Cependant, de nombreuses industries nécessitent des algorithmes LLM plus personnalisés, ceux qui comprennent leur jargon et produisent un contenu spécifique à leurs utilisateurs. Les LLM pour le secteur de la santé, par exemple, peuvent avoir besoin de traiter et d’interpréter des dossiers de santé électroniques, de suggérer des traitements ou de créer un résumé des soins de santé du patient basé sur des notes de médecin ou des enregistrements vocaux. Un LLM adapté au secteur des services financiers peut résumer les appels de revenus, créer des transcriptions de réunions et effectuer des analyses de fraude pour protéger les consommateurs. Dans divers secteurs, il sera primordial de garantir un degré élevé de précision des réponses.

Prompt Engineering

La plupart des LLM sont accessibles via une interface de programmation d’application (API) qui permet à l’utilisateur de créer des paramètres ou des ajustements sur la façon dont le LLM répond. Une question ou une demande envoyée à un chatbot est appelée une invite, en ce sens que l’utilisateur demande une réponse. Les invites peuvent être des questions en langage naturel, des extraits de code ou des commandes, mais pour que le LMM fasse son travail avec précision, les invites doivent être précises. Et cette nécessité a donné naissance à une nouvelle compétence : l’ingénierie rapide (Prompt Engineering). C’est le processus de création et d’optimisation des invites de texte pour les grands modèles de langage afin d’obtenir les résultats souhaités. L’ingénierie rapide est en passe de devenir une compétence vitale pour les professionnels de l’informatique et des affaires.

Les utilisateurs professionnels peuvent optimiser les LLM pour effectuer leurs tâches spécifiques de manière plus efficace et précise, allant du support client à la génération de contenu et à l’analyse des données.

Le LLM le plus connu à l’heure actuelle, c’est GPT-3 d’OpenAI qui est à la base du très populaire chatbot ChatGPT. Le GPT-3 LLM fonctionne sur un modèle de 175 milliards de paramètres qui peut générer du texte et du code informatique avec de courtes invites écrites. On estime que la dernière version d’OpenAI, GPT-4, contient jusqu’à 280 milliards de paramètres, ce qui la rend beaucoup plus susceptible de produire des réponses précises.

“Prompt Engineering” est une discipline naissante et émergente, les entreprises s’appuient sur des plateformes pour garantir des réponses optimales de leurs applications d’IA telles que Hugging Face, Nvidia, XLNet… Hugging Face héberge actuellement plus de 100 000 modèles d’apprentissage automatique, y compris une variété de LLM de startups.

Par exemple, Harvey est une startup qui est en partenariat avec OpenAI pour créer ce qu’elle appelle un pilote pour les avocats ou une version de ChatGPT pour les professionnels du droit. Les avocats peuvent utiliser le chatbot ChatGPT personnalisé pour découvrir toute priorité juridique pour certains juges afin de préparer leur prochaine affaire.

Lire aussi