Publié le 8 février 2023, modifié le 24 mars 2023.
Par La Rédaction

Des utilisateurs malveillants utilisent aussi ChatGPT

Publié le 8 février 2023, modifié le 24 mars 2023.
Par La Rédaction

Voici quelques-unes des dernières utilisations malveillantes des générateurs de texte d'IA et la façon dont vous pouvez vous protéger et protéger vos appareils des dommages.

ChatGPT devient le chatbot préféré de tout le monde : rédacteur de devoirs, chasseur du syndrome de la page blanche, l’écrivain créateur de nouvelles ridicules ou de chansons ‘’à la manière de’’, développeur de codes est en train de monter en flèche. Bien que la technologie ait encore quelques défauts à corriger, ChatGPT impressionne, mais interroge également sur ses utilisations possibles. D’ailleurs, OpenAI a lancé ChatGPT en tant qu’aperçu de la recherche afin qu’il puisse en savoir plus sur les forces et les faiblesses du système et recueillir les commentaires des utilisateurs pour les aider à améliorer leurs limites. Depuis lors, des millions de personnes ont donné des commentaires, ils en ont fait plusieurs mises à jour importantes et ils ont vu des utilisateurs trouver de la valeur dans une gamme de cas d’utilisation professionnelle, y compris le contenu de rédaction et d’édition, les idées de brainstorming, l’aide à la programmation et l’apprentissage de nouveaux sujets.

Mais comme pour la plupart des bonnes choses, des utilisateurs malveillants utilisent la technologie à leur propre avantage. Les cybercriminels explorent les différentes utilisations du chatbot IA pour inciter les gens à communiquer des données ou dérober leur argent. ChatGPT est sorti le 30 novembre 2022. Le 29 décembre 2022, une conversation intitulée “ChatGPT — Avantages du malware” a été découverte sur un forum de piratage populaire, selon le blog de CheckPoint. L’éditeur du fil sur le forum a révélé qu’il expérimentait avec ChatGPT pour recréer des souches et des techniques de logiciels malveillants décrites dans des publications de recherche et des articles sur les logiciels malveillants courants.

Il semble tout de même qu’OpenAI modifie activement le modèle AI et les garanties pour s’adapter à ces cas d’utilisation malveillante, et on imagine que, comme ils obtiennent de plus en plus de questions et de réponses, ils continueront de régler ce modèle pour les empêcher davantage à l’avenir. Même si ChatGPT peut être dangereux entre de mauvaises mains, il existe également la possibilité pour les chercheurs d’utiliser cet outil pour contrecarrer les attaques et pour les développeurs de logiciels d’améliorer leur code. Cependant, on peut constater que l’IA est plus efficace pour créer des logiciels malveillants que pour fournir des moyens de les détecter !

Les logiciels malveillants

Les logiciels malveillants ont souvent un cycle de vie très court : un cybercriminel les crée, infecte quelques appareils, puis les systèmes d’exploitation diffusent une mise à jour qui protège les appareils contre ce logiciel malveillant particulier. En outre, les sites techniques alertent leurs lecteurs sur les nouvelles menaces de logiciels malveillants. Une fois que le grand public et les experts en cybersécurité sont informés d’une menace, la puissance de cette dernière est rapidement annulée. ChatGPT, cependant, est compétent pour écrire des codes malveillants. Plus précisément, l’IA pourrait être utilisée pour écrire des logiciels malveillants polymorphes, un type de programme qui évolue constamment, ce qui le rend difficile à détecter et à combattre. De plus, les criminels peuvent utiliser ChatGPT pour écrire des montagnes de codes malveillants. Alors qu’un humain devrait faire une pause pour manger, dormir et faire le tour du pâté de maisons, l’IA n’a pas besoin de pause. Quelqu’un pourrait transformer son opération malveillante en une machine à crime numérique fonctionnant 24 heures sur 24.

Faux profils de rencontre

Les escrocs, c’est-à-dire les personnes qui créent de faux profils en ligne pour attirer d’autres personnes dans une relation, commencent à utiliser l’IA pour compléter leurs arnaques romantiques. À l’instar des créateurs de logiciels malveillants qui utilisent l’IA pour augmenter leur production, les escrocs romantiques peuvent désormais utiliser l’IA pour alléger leur charge de travail et tenter de gérer plusieurs profils de rencontre à la fois. Pour les escrocs qui ont besoin d’inspiration, ChatGPT est capable de modifier le ton de ses messages. Par exemple, un escroc peut demander à ChatGPT d’écrire une lettre d’amour ou d’augmenter le charme. Cela peut donner lieu à des professions d’amour à l’air sérieux qui pourraient convaincre quelqu’un de renoncer à ses informations personnelles identifiables (PII) ou d’envoyer de l’argent.

Hameçonnage

Les hameçonneurs utilisent l’IA pour améliorer leur jeu. Les hameçonneurs, qui sont souvent connus pour leurs fautes de grammaire et d’orthographe, améliorent la qualité de leurs messages grâce à l’IA, qui fait rarement des erreurs de rédaction. ChatGPT comprend également les commandes de tonalité, ce qui permet aux hameçonneurs d’augmenter l’urgence de leurs messages qui exigent un paiement immédiat ou des réponses avec des mots de passe ou des informations personnelles.

« Bien que cette technologie soit au cœur de l’actualité Tech et Cyber, elle ne constitue pas pour autant une nouveauté pour McAfee. Le principal changement à prendre en compte est que cette IA conversationnelle soit désormais accessible au plus grand nombre et donc facilement utilisable à de mauvaises fins. En tant qu’acteur majeur de la cybersécurité, McAfee est au fait des avancées technologiques comme celle-ci et anticipe déjà les diverses améliorations que cela impliquera sur nos produits. » Lam Son Nguyen, EMEA Partner Product Manager chez McAfee.

Comment éviter les arnaques au générateur de texte IA ?

Selon McAfee, la meilleure façon d’éviter d’être trompé par un texte généré par l’IA est de rester en alerte et d’examiner minutieusement tous les textes, e-mails ou messages directs que vous recevez d’inconnus. Il existe quelques signes révélateurs d’un message écrit par l’IA. Par exemple, l’IA utilise souvent des phrases courtes et réutilise les mêmes mots. De plus, l’IA peut créer un contenu qui en dit beaucoup sans en dire beaucoup. Comme l’IA ne peut pas se forger d’opinion, ses messages peuvent sembler sans substance. Dans le cas des arnaques à la romance, si la personne avec laquelle vous communiquez refuse de vous rencontrer en personne ou de discuter par vidéo, envisagez de couper les ponts.

Lire aussi