Le robot Bard, concurrent de Google, est étroitement intégré aux principaux écosystèmes de l’entreprise, y compris Gmail, Docs, YouTube et Maps. L’idée sous-jacente est que les utilisateurs pourront interagir avec ce chatbot pour obtenir des réponses à des questions liées à leur propre contenu, que ce soit en effectuant des recherches dans leurs e-mails ou en organisant leur emploi du temps. De plus, Bard sera capable d’extraire instantanément des informations provenant de Google Search.
Dans la même lignée, Meta a également récemment annoncé le déploiement de chatbots IA sur l’ensemble de ses plateformes. Les utilisateurs auront ainsi la possibilité de poser des questions aux chatbots IA et aux avatars IA de célébrités sur WhatsApp, Messenger et Instagram. Ce modèle IA collectera des informations en ligne via la recherche Bing pour répondre aux requêtes des utilisateurs.
Cependant, il est important de noter que cette avancée comporte des risques considérables. Les entreprises technologiques n’ont pas encore résolu certains problèmes persistants liés aux modèles linguistiques de l’IA, notamment leur tendance à générer des informations erronées ou à “halluciner”. De plus, il subsiste de sérieuses préoccupations en matière de sécurité et de confidentialité, comme je l’ai souligné plus tôt cette année. En mettant en place cette technologie qui présente des défauts profonds, les entreprises exposent des millions de personnes à des vulnérabilités telles que les escroqueries, le phishing et les cyberattaques à grande échelle, en donnant accès aux modèles d’IA à des informations sensibles telles que les e-mails, les calendriers et les messages privés.
Les attaques indirectes par injection rapide sont similaires au jailbreaks, un terme adopté pour la suppression antérieure des restrictions logicielles sur les iPhones.
À présent, avec l’accès aux informations personnelles et la capacité de naviguer sur le Web, les assistants IA sont devenus particulièrement vulnérables à une forme d’attaque connue sous le nom “indirect prompt injection“. Cette attaque est incroyablement simple à mettre en œuvre, et il n’existe actuellement aucune solution connue pour la contrer. Dans une attaque indirecte par injection rapide, un tiers altère un site Web en insérant du texte caché visant à altérer le comportement de l’IA. Les attaquants peuvent diriger les utilisateurs vers de tels sites Web en utilisant les réseaux sociaux ou le courrier électronique pour dissimuler ces invitations secrètes. Une fois cette étape franchie, le système d’IA peut être manipulé, permettant à l’attaquant de tenter d’extraire, par exemple, les informations de carte de crédit des utilisateurs. Avec cette nouvelle génération de modèles d’IA connectés aux réseaux sociaux et aux e-mails, les opportunités pour les pirates deviennent pratiquement illimitées.
Bref, ce n’est qu’une question de temps avant que nous voyions les pirates utiliser ces nouveaux assistants IA de manière malveillante. À l’heure actuelle, nous sommes tous des cibles faciles. Les entreprises qui travaillent sur le développement de l’IA générative sont conscientes de ces défis et cherchent des solutions pour les atténuer.
Lorsqu’un chatbot est programmé pour répondre à des questions basées sur des données stockées dans une base de données, cela peut engendrer des problèmes potentiels, avertit-il. Il explique : “L’injection de prompts autorise les utilisateurs à remplacer les instructions définies par les développeurs.” En théorie, cela signifie que les utilisateurs pourraient avoir la capacité de supprimer des informations de la base de données ou de modifier les données qui y sont contenues.