01.10.2020 à 09:55

Algorithmes«Google est capable de vous faire admettre que la Terre est plate»

Ex-ingénieur YouTube et intervenant dans le documentaire Netflix choc «Derrière nos écrans de fumée», Guillaume Chaslot a viré sa cuti. Interview.

par
Christophe Pinol
1 / 3
Guillaume Chaslot., ex-ingénieur chez YouTube: «Aujourd’hui, 70% de l’information vue sur YouTube vient des algorithmes de recommandation, pour qui la véracité ou non d’une vidéo importe peu»

Guillaume Chaslot., ex-ingénieur chez YouTube: «Aujourd’hui, 70% de l’information vue sur YouTube vient des algorithmes de recommandation, pour qui la véracité ou non d’une vidéo importe peu»

DR
Une image du documentaire «Derrière nos écrans de fumée».

Une image du documentaire «Derrière nos écrans de fumée».

DR
Une image du documentaire «Derrière nos écrans de fumée».

Une image du documentaire «Derrière nos écrans de fumée».

DR

Alors qu’une étude publiée mardi dernier par l’Office fédéral de la communication indique que les jeunes de 15 à 29 privilégient les réseaux sociaux pour s’informer et se faire une opinion, un documentaire Netflix explosif, «Derrière nos écrans de fumée», dénonce les nombreux travers de ces plateformes, entre propagation de fake news, augmentation des suicides chez les adolescents et polarisation des débats politiques. Disponible depuis quelques semaines, le documentaire était encore en tête des audiences en Suisse à l’heure où nous écrivions ces lignes.

Parmi les nombreux intervenants, tous ayant œuvré pour les géants de la Silicon Valley, on trouve un français, Guillaume Chaslot, ex-ingénieur chez YouTube. À l’époque, sa mission consistait à rendre la plateforme la plus addictive possible, notamment en perfectionnant son algorithme chargé d’analyser les centres d’intérêt des internautes pour leur recommander ce qui avait le plus de chance de les rendre accro.

Il est désormais lanceur d’alerte, en particulier face aux campagnes conspirationnistes apparues sur les réseaux sociaux, et a notamment contribué à démanteler, l’an passé, celle prétendant que la Terre est plate. Il nous raconte les dessous de YouTube, et en particulier de son algorithme.

Quel a été votre parcours chez YouTube?

J’y suis entré en 2011 et j’ai très vite eu l’impression que l’algorithme enfermait les gens dans des bulles de filtres avec ses suggestions toujours axées sur le même intérêt. Je voulais plus de diversité, qu’on donne plus d’ouverture au système. Mais à l’époque, les dirigeants ne voulaient pas en entendre parler. À l’époque, on n’avait que la croissance en ligne de mire: augmenter le nombre de vues et le temps passé sur la plateforme. J’ai donc arrêté pendant 6 mois. Avant de reprendre parce que je savais que c’était important. Et j’ai été licencié quand ils s’en sont rendu compte, en 2013. L’ironie de la chose c’est que ce système, qui permet d’accéder à du contenu autre que les recommandations ciblées de l’algorithme, est aujourd’hui justement en bêta test sur YouTube, sur le point d’être implémenté à la plateforme

«Derrière nos écrans de fumée» fait état de tout une série de problèmes avec les réseaux sociaux: leur pouvoir d’influence, les fake news, la vente de données personnelles… Mais y en a-t-il un qui surpasse les autres?

Pour moi, c’est cette amplification algorithmique. Un phénomène hors de contrôle et dont on ne mesure pas l’impact sur la société. Aujourd’hui, 70% de l’information vue sur YouTube vient des algorithmes de recommandation, pour qui la véracité ou non d’une vidéo importe peu. Les vidéos qui véhiculent de fausses informations génèrent d’ailleurs plus de clics. Et c’est pareil sur Facebook. Il y a quelques mois, le Wall Street Journal publiait un article fantastique expliquant que plus de 64% des gens qui avaient rejoint des groupes extrémistes l’avaient fait à la suite d’une recommandation algorithmique. C’est fou!

Vous décrivez dans le documentaire Netflix cette théorie conspirationniste de la Terre plate, recommandée des centaines de millions de fois par l’algorithme, et la façon dont celui-ci est parvenu à convaincre certains internautes. Comment cela fonctionne-t-il?

Imaginez quelqu’un dont la curiosité est piquée par une vidéo annonçant que la Terre est plate et qui clique dessus en se disant que ça va être rigolo. L’algorithme va alors lui en suggérer d’autres du même style. Et il suffit d’en regarder une deuxième pour bientôt se retrouver dans un univers où tout le monde pense que la Terre est plate. À partir de là, il vous est beaucoup plus facile d’admettre cette théorie. On est d’accord, il s’agit d’un cas extrême et peu de gens vont se laisser avoir, mais imaginez ce que l’algorithme est capable de faire avec une information moins folle, moins claire, s’il parvient à convaincre des gens de cette énormité.

Les témoignages des intervenants sont extrêmement alarmistes… Tim Kendall, ex-responsable de la monétisation de Facebook, craint même une guerre civile…

Oui, en étudiant l’algorithme, j’ai constaté qu’il poussait effectivement à la guerre civile, aux États-Unis mais aussi en France. On trouve sur YouTube une vidéo intitulée «Eric Zemmour: La guerre civile sera sanglante», recommandée des millions de fois car l’algorithme s’est rendu compte que parler de guerre civile générait des clics et que ça faisait rester les gens plus longtemps sur le réseau. Dans la vidéo, Eric Zemmour n’appelle pas directement à la guerre civile mais suggère qu’elle est inéluctable. Et c’est très dangereux puisque au lieu de se parler pour résoudre les problèmes, les gens se préparent à ce genre de situation – en achetant par exemple des armes. De son côté, Eric Zemmour comprend bien sûr que plus il est polémiste, plus il est populaire, et se renforce donc dans son discours extrémiste. C’est un cercle vicieux.

Comment lutter alors?

Il faut exiger de YouTube plus de transparence sur l’algorithme. Si on savait clairement combien de fois ce type de vidéo est recommandé, on y accorderait moins d’importance. Depuis mon départ de YouTube, j’ai créé un outil, AlgoTransparency.org, chargé d’informer sur le fonctionnement des algorithmes influençant l’accès à l’information. Il m’a permis d’estimer que la vidéo avait été proposée aux internautes entre 1 et 5 millions de fois. Mais sinon il n’existe aucun chiffre. Il faudrait maintenant responsabiliser les plateformes au même titre que les médias dans le cas de publication ou de diffusion de contenu. C’est toute l’idée du film: sensibiliser la population pour aider à changer les lois. J’ai bon espoir.

En attendant, quelles alternatives proposez-vous?

Le docu le dit très bien: ces plateformes utilisent nos données personnelles contre nous. Les leur transmettre est donc la première chose à éviter. Et plutôt que d’utiliser Google, qui les stocke ad vitam aeternam, je suggère d’opter pour un moteur de recherche comme Qwant. Il n’a de loin pas les mêmes moyens financiers, et Google se montrera toujours plus performant dans le cas de recherches compliquées, avec plus de 5 mots-clefs, mais en deçà, soit pour le 90% des recherches effectuées quotidiennement, les deux moteurs se valent. Avec même parfois des résultats plus probants pour Qwant.

Aujourd’hui, Instagram, propriété de Facebook, est en procès aux États-Unis, accusé d’utiliser la caméra de notre smartphone à notre insu pour nous espionner. Est-ce là aussi une menace réelle?

Je n’ai pas suivi cette affaire mais il y a effectivement beaucoup de programmes qui nous traquent. Certains plus que d’autres. Mais au lieu de ne plus utiliser nos smartphones et autres outils, je préconise de choisir les solutions les moins mauvaises: Qwant face à Google, ou iPhone plutôt qu’Android pour les smartphones, Apple étant beaucoup plus axé sur la vie privée et la sécurité.

Mais cette philosophie requiert une bonne connaissance du milieu de la part des utilisateurs, ce qui n’est pas donné à tout le monde.

C’est vrai, et ça rejoint ce que je reproche au documentaire: ne guère proposer d’alternatives. Dans les années qui viennent, il va donc falloir faire de la vulgarisation pour expliquer au public quelles sont les bonnes solutions. Cela dit, on a fait beaucoup de progrès ces trois dernières années. YouTube a par exemple pris de nombreuses mesures pour notamment arrêter de recommander ces théories conspirationnistes, Facebook a admis que le visionnage passif menait à la dépression et a instauré un visionnage plus actif…

Les choses s’arrangent. Et même si les dangers persistent, je suis plutôt optimiste. Il y a trois ans, quand je parlais de ces problèmes d’algorithme, personne ne m’écoutait. Aujourd’hui, des comités d’éthique à ce sujet se créent partout et les gens réalisent enfin la toxicité des réseaux sociaux. Si autant de changements surviennent ces trois ou cinq prochaines années, on peut espérer résoudre ces problèmes.

Votre opinion

Trouvé des erreurs?Dites-nous où!
32 commentaires
L'espace commentaires a été desactivé

Hubert

02.10.2020 à 13:35

si on se réfère aux lois fondamentales, les bêtises des médias de toutes sortes n'auront aucune influence négative !

Donutiste

01.10.2020 à 11:31

Consternant toutes ces fausses information. La terre est en forme de Donut.

Claude72

01.10.2020 à 11:28

La prochaine étape, une puce dans le crâne de chaque nouveau né .