Publié le 22 mars 2023, modifié le 24 mars 2023.
Par Christophe Romei

Voulez-vous comprendre la stratégie d’influence de TikTok et son exploitation des données ?

Publié le 22 mars 2023, modifié le 24 mars 2023.
Par Christophe Romei
TikTok

TikTokTikTok

Les mineurs passent chaque jour 1 h 47 sur l'application TikTok, le sénat fait des auditions pour comprendre la stratégie d'influence de TikTok et son exploitation des données notamment sur les enfants et les adolescents. La durée de l'enquête de la commission sera de 6 mois et a démarré début mars. Retour sur une des auditions.

Cette commission du sénat se focalise sur 3 points principaux. Le premier, c’est celui des retentissements psychologiques de la santé mentale, du développement cognitif des enfants et des adolescents. Le deuxième, c’est le problème du transfert des données et enfin le troisième est consacré au contenu, notamment lié à la désinformation, l’influence ou à la déstabilisation que la Chine pourrait y jouer. Les auditions sont publiques et accessibles, voici les 3 premières qui ont déjà eu lieu :

Nous nous sommes intéressés à cette dernière qui donne un point de vue mesuré et précis sur le sujet autour du décryptage de l’algorithme de Tiktok. Il a été rappelé que la plateforme TikTok doit faire une évaluation de ces risques systémiques auxquels l’algorithme de recommandation peut contribuer. Les plateformes similaires devraient mettre en place des API, c’est-à-dire des interfaces de données, pour pouvoir donner accès aux chercheurs à certaines données. Mais il n’est pas encore clair quelles vont être précisément les données qui vont être mises à disposition à travers ces interfaces. Il y a en ce moment, au niveau de la Commission européenne, des discussions comme les “Delegated Acts” qui vont essayer de préciser à quoi devrait ressembler l’implémentation de ces articles. Il y a également un groupe qui s’appelle le “Code of Practice on disinformation” auquel les plateformes ont été invitées à rejoindre de manière volontaire. Le but étant d’étayer un certain nombre de règles qui, si elles sont respectées, donneront une indication positive sur le fait que ça conviendrait aussi pour respecter le Digital Service Act.

Marc Faddoul qui est membre d’une organisation européenne à but non lucratif, l’AI Forensics avec une approche unique basée sur les données. Elle enquête sur des algorithmes influents et opaques. Elle développe ses propres outils d’audit, qu’elle publie en tant que logiciels gratuits pour responsabiliser la communauté des chercheurs et développer l’écosystème d’audit de l’IA. L’organisation pense qu’un examen cohérent et coordonné est la voie pour rétablir le déséquilibre de pouvoir entre les grandes plateformes technologiques et ceux qui les utilisent.

L’AI Forensics souhaite mettre en place des critères précis sur ce qu’on appelle le “reach”, c’est-à-dire la quantité d’utilisateurs et, dans une certaine mesure, la démographie qui peut être touchée par un certain contenu. Il rappelle dans l’audition que pour bien faire, il faudrait qu’il y ait des accès spécialisés. Par exemple, si on voit qu’il y a un contenu qui pose particulièrement problème parce qu’il contient de la désinformation ou parce qu’il s’agit d’une ingérence politique étrangère, qu’on peut savoir directement à combien de personnes cette vidéo a été montrée et même quelles peuvent être certaines des démographies des gens qui ont été touchés.

TikTok c’est 150 millions d’utilisateurs mensuels américains en 2022, contre 100 millions en 2020 – TikTok a déclaré en septembre 2021 que dans le monde, elle comptait plus d’un milliard d’utilisateurs mensuels.

Heating

Il y a eu une fuite récente sur TikTok qui était particulièrement intéressante puisque c’est un phénomène dont on sait qu’il se produit, mais on ne sait pas nécessairement son échelle et quel type de contenu vont être touchés. Il y a eu une fuite d’un document qui parlait de “heating“, c’est le terme qui est employé par la plateforme, pour parler de contenu qui va être artificiellement amplifié par la plateforme, pour notamment influencer la culture de ce qui se passe sur l’algorithme. On n’a pas aujourd’hui de preuve que ça contient aussi du contenu politique, mais la fonctionnalité existe et l’estimation était de 1 à 2 % d’après le document qui a été présenté. 1 à 2 % des vues, c’est considérable, seraient faites sur des vidéos qui ont été manuellement amplifiées.

Shadow banning

Est-ce que TikTok censure certains contenus ? C’est difficile à évaluer de l’extérieur. Il faut comprendre que le contenu qui est modéré par la plateforme va ensuite être utilisé pour entraîner l’algorithme de recommandation lui-même. C’est-à-dire que les contenus similaires à ceux qui ont été supprimés ou modérés vont avoir tendance à moins ressortir. C’est-à-dire que si on a un contenu qui est trop similaire à d’autres contenus qui ont été censurés, on peut avoir tendance à moins sortir dans les recommandations algorithmiques de la plateforme, ce qui appelé une zone grise pour les contenus qui ne sont pas illégaux, mais qui se ressemblent.

Rôle éditorial

Le rôle éditorial qu’ont les plateformes sur la circulation de l’information est conséquent. Par exemple, un algorithme comme celui de YouTube a plus de pouvoir éditorial sur la circulation de l’information que les bureaux d’édition des grands journaux américains ou français. Cela est d’autant plus vrai que sur les questions politiques, notamment, les plateformes en mettent de plus en plus… C’est une tendance, en réaction aux critiques qui ont été faites sur le fait qu’ils promouvaient beaucoup d’informations de faible qualité, les plateformes ont tendance à amplifier ce qu’ils appellent les sources d’autorité, c’est-à-dire des journaux ou des médias qui sont reconnus comme étant crédibles. Le choix même de ces médias constitue une ligne éditoriale, évidemment.

Marc Faddoul a rappelé que dans une étude comparative entre TikTok et YouTube durant les élections présidentielles. Il y avait là deux stratégies assez différentes entre TikTok et YouTube, où YouTube avait tendance à promouvoir beaucoup d’informations d’autorité, c’est-à-dire de médias comme France24 ou des chaînes d’information crédible, alors que sur TikTok, c’était beaucoup plus du contenu provenant d’utilisateurs qui avaient tendance à circuler. Donc, on avait moins cette politique mise en place pour TikTok.

L’algorithme de TikTok

Pour comprendre l’algorithme, il faut comprendre le design de l’expérience utilisateur qui est entièrement centré sur l’algorithme de recommandation et avec une vidéo à la fois. Ça vient dans la continuité d’une tendance qui existe sur les réseaux sociaux depuis plusieurs années, mais si on pense au premier fil Facebook, par exemple, qui était le premier endroit où on a vraiment un fil de recommandations algorithmiques qui va définir ce qui est consommé par l’utilisateur à une grande échelle. On avait typiquement sur un écran d’ordinateur cinq ou six posts visibles à n’importe quel moment, ce qui nous a donné tout de même une certaine liberté de choix pour l’utilisateur de savoir où est-ce qu’il allait concentrer son attention. Le passage sur mobile a déjà eu tendance aussi à réduire cette quantité d’informations présentes à un instant t sur l’écran d’un utilisateur. On voit que sur Twitter, sur Facebook, sur YouTube, partout, on a une tendance à augmenter la taille des posts pour en avoir de moins en moins, et donc un algorithme quelque part de plus en plus dirigiste qui va décider pour l’utilisateur ce qu’on va regarder.

Tiktok, c’est la forme la plus extrême de cette tendance où on a une vidéo à la fois. Ça a deux conséquences. Déjà de diminuer la charge cognitive pour l’utilisateur, c’est-à-dire que d’un coup, on n’a même plus besoin de se demander qu’est-ce qu’on va regarder, on a juste à swiper. L’autre conséquence que ça a, c’est que ça va permettre à l’algorithme d’avoir une quantité de données d’entraînement qui est bien supérieure à celle des autres plateformes et d’une qualité aussi bien supérieure, parce que pour chacune de ces vidéos qui vont être évaluées par l’utilisateur, c’est-à-dire toutes les cinq ou dix secondes, en la regardant en entier ou en passant à la suivante, on va avoir un point de données d’entraînement pour savoir si la vidéo en question correspond à son intérêt ou pas. Là où en une heure de visionnage de YouTube, on va regarder peut être une dizaine de vidéos et fournir une dizaine de points d’entraînement à la plateforme.

Sur TikTok, en une heure, on va donner plusieurs centaines, voire un millier de points de données d’entraînement qui vont ensuite pouvoir permettre de déterminer les intérêts niche de l’utilisateur.

Le futur de l’algorithme

On pourrait imaginer un futur où ces plateformes ont une obligation d’interopérabilité sur leur algorithme, ce qui permettrait à des partis tiers de fournir des systèmes de recommandation qui fonctionneraient sur la plateforme, voire qui permettraient aux plateformes d’être interopérables entre elles. Et du coup, l’utilisateur pourrait choisir un algorithme qui lui convient et au lieu d’avoir un algorithme qui cherche uniquement à le maintenir sur la plateforme, puisque ça, c’est quelque chose dont on ne peut rien faire, quelle que soit la plateforme qu’on va utiliser, on va avoir un algorithme qui va être là pour nous maintenir et nous garder engagés, ce qui n’est pas forcément dans notre intérêt. On pourrait avoir des algorithmes qui deviennent bien plus à notre service et potentiellement nous apporter de l’information intéressante sur certains sujets qu’on choisit et avec une fréquence qu’on choisit.

Il rappelle avec justesse que l’on n’a pas besoin de savoir exactement comment l’algorithme fonctionne en interne, on a besoin de savoir comment il se comporte.

MaJ 24/03/2023

Depuis plusieurs semaines certains pays européens et internationaux ont adopté des mesures de restriction ou d’interdiction de téléchargement et d’installation de l’application TikTok par leurs administrations.

Ce midi la France prend position -> “Après une analyse des enjeux, notamment sécuritaires, le gouvernement a décidé d’interdire dorénavant le téléchargement et l’installation d’applications récréatives sur les téléphones professionnels fournis aux agents publics. Le ministre de la Transformation et de la Fonction publiques Stanislas GUERINI adresse ce jour l’instruction correspondante aux ministres et secrétaires généraux des ministères. En effet, les applications récréatives ne présentent pas les niveaux de cybersécurité et de protection des données suffisants pour être déployés sur les équipements d’administrations. Ces applications peuvent donc constituer un risque sur la protection des données de ces administrations et de leurs agents publics. Cette interdiction s’applique sans délai et de manière uniforme. Des dérogations pourront être accordées à titre exceptionnel pour des besoins professionnels tels que la communication institutionnelle d’une administration.”

Hier à eu lieu l’audition de Shou Chew, le PDG de TikTok, qui a été bombardé de questions sur la relation de l’application avec sa société mère et l’influence potentielle de la Chine sur la plate-forme lors de l’audition de jeudi avec le House Energy and Commerce Committee.

Lire aussi