Cyberarnaques boostées par l’IA : les acteurs US appelées à rendre des comptes

Image d'illustration. Interface virtuelle algorithmes iaADN
Face à la montée fulgurante des escroqueries dopées à l’IA générative, le Sénat américain demande aux grandes entreprises du secteur de justifier leurs actions. L’heure est à la transparence et à la responsabilité numérique.
Tl;dr
- Des sénateurs interrogent les géants de l’IA sur la fraude.
- L’essor de l’IA générative facilite des escroqueries sophistiquées.
- Les entreprises d’IA doivent détailler leurs mesures d’ici janvier.
L’inquiétude croissante face à la montée des escroqueries via l’IA
En toile de fond d’une vague inédite d’escroqueries numériques, deux sénateurs américains, Maggie Hassan et Josh Hawley, ont interpellé, ce jeudi matin, plusieurs grandes entreprises du secteur de l’intelligence artificielle. Leur démarche vise à obtenir des explications sur les réponses concrètes apportées par ces acteurs majeurs, parmi lesquels Anthropic, Google, Meta, Microsoft, OpenAI, Perplexity et xAI face à la prolifération des fraudes dopées par l’IA.
L’évolution rapide des méthodes frauduleuses avec l’IA générative
Autrefois, concevoir un site frauduleux exigeait de solides compétences techniques ou le recours à un professionnel. Mais aujourd’hui, les outils d’IA générative, accessibles en ligne et souvent gratuits, permettent à n’importe qui de créer en quelques minutes des contenus crédibles : faux sites, documents truqués, appels téléphoniques trompeurs… Le phénomène gagne une ampleur telle que même des domaines sensibles comme la justice ou les réseaux sociaux ne sont pas épargnés. Une étude du cabinet Deloitte alerte d’ailleurs sur le risque : d’ici 2027, les pertes annuelles dues à la fraude pourraient grimper jusqu’à 40 milliards de dollars aux États-Unis.
L’exigence de transparence et la pression réglementaire se renforcent
Dans leur lettre, les deux élus demandent explicitement aux sociétés ciblées :
- d’expliquer comment elles traquent et recensent les incidents liés à la fraude ;
- d’expliciter leurs dispositifs d’authentification des utilisateurs ;
- de détailler leur coopération actuelle avec les autorités pour contrer ces menaces.
Ils souhaitent également connaître les investissements réalisés contre ce fléau ainsi que les procédures pour protéger les données sensibles des clients. Les réponses sont attendues avant le 14 janvier prochain.
Divergences entre vigilance et innovations technologiques
Du côté des entreprises, la réaction se veut mesurée mais résolue. Une porte-parole d’OpenAI, Kate Waters, souligne que si « les criminels n’inventent pas de nouveaux délits grâce à l’IA, ils en accélèrent toutefois l’exécution ». Pour elle, détecter systématiquement les schémas suspects et partager ces renseignements avec les forces de l’ordre est devenu incontournable. Paradoxalement, ajoute-t-elle, « l’IA sert aussi chaque mois à identifier des arnaques et aider le grand public ».
Au-delà des échanges épistolaires, le Congrès s’empare du sujet. D’autres initiatives législatives émergent : récemment, une proposition vise à réactualiser la définition pénale de la fraude afin de prendre en compte ce nouvel environnement numérique.
Si cette pression politique croissante traduit un malaise bien réel autour de l’irruption brutale de l’intelligence artificielle dans le quotidien des citoyens, elle révèle aussi combien la frontière entre progrès technologique et vulnérabilité sociale demeure ténue.