Publié le 25 juillet 2019, modifié le 3 novembre 2020.
Par La Rédaction

Comprendre la menace du crowdturfing sur les stores d’applications !

Publié le 25 juillet 2019, modifié le 3 novembre 2020.
Par La Rédaction

Le crowdturfing tire son nom d'une combinaison de crowdsourcing et d'astroturfing.

Lorsque vous achetez un produit ou effectuez une réservation, la plupart d’entre nous consultons des avis en ligne rédigés par d’autres clients pour nous aider à prendre une décision. Mais certaines entreprises peu scrupuleuses paient les gens pour écrire des critiques positives. D’autres cherchent à ternir la réputation des concurrents en payant pour des dizaines de commentaires négatifs. C’est ce que l’on appelle le «crowdturfing»

Le crowdturfing tire son nom d’une combinaison de crowdsourcing et d’astroturfing. Le premier est la tactique en ligne bien connue qui consiste à amener un grand nombre de personnes à faire un petit geste pour atteindre un objectif, tandis que l’astroturf c’est une campagne orchestrée sous le couvert de commentaires non sollicités.

Le coût de l’embauche de personnel a largement limité la propagation des faux commentaires. Mais les chercheurs préviennent que l’intelligence artificielle va changer cela et notamment autour des applications mobiles avec une interface utilisateur de crowdturfing cachée, qui est de plus en plus utilisé par les fraudeurs pour coordonner les exécutants et publier des tâches mobiles (par exemple, la manipulation du classement des applications) de l’App Store qui est strictement contrôlé.

Ces applications cachent leur contenu de crowdturfing derrière des interfaces utilisateur à l’apparence innocente pour contourner la validation des applications et s’infiltrer dans l’App Store. À notre connaissance, peu de choses ont été faites jusqu’à présent pour comprendre ce nouveau service abusif, en termes de portée, d’impact et de techniques, sans parler d’efforts déployés pour identifier de telles applications de crowdturfing furtives à grande échelle, en particulier sur la plate-forme Apple.

Des scientifiques de l’Université de Chicago ont montré qu’il était possible de former un réseau de neurones d’IA pour générer et publier des avis convaincants sur des sites comme Yelp et Tripadvisor. Les algorithmes de crowdturfing automatisés pourraient produire tellement de fausses critiques qu’il deviendrait rapidement impossible de savoir en quoi avoir confiance.

Nous avons tous déjà constaté la possibilité d’utiliser de fausses informations comme moyen d’influencer l’opinion publique et des élections. Si les attaquants peuvent utiliser l’intelligence artificielle pour générer des critiques à grande échelle, identiques au contenu réel, il sera très difficile de distinguer la réalité. Le professeur Zhao fait partie d’une équipe de chercheurs de l’Université de Chicago qui a publié un article qui montre comment l’IA peut être utilisée pour développer des revues sophistiquées non seulement indétectables par des méthodes contemporaines, mais également considérées comme extrêmement fiables par des lecteurs non avertis. (Zhao a déclaré qu’il n’avait encore vu aucun exemple d’intelligence artificielle utilisée pour générer de fausses critiques malveillantes dans le monde réel”.)

Lire aussi