Les vérificateurs de faits se dirigent vers la poubelle de l’histoire chez Meta.

« Nous mettrons fin au programme actuel de vérification des faits par des tiers aux États-Unis et commencerons à passer à un programme de notes communautaires », a annoncé mardi Joel Kaplan, directeur des affaires mondiales de Meta, dans un blog de l'entreprise.

Kaplan a ajouté que Meta s'attaquerait également au « changement de mission » qui a rendu les règles régissant les plates-formes de l'entreprise trop restrictives et sujettes à une application excessive.

« Nous supprimons un certain nombre de restrictions sur des sujets comme l'immigration, l'identité de genre et le genre qui font l'objet de fréquents discours et débats politiques », a-t-il écrit. « Il n'est pas juste que des choses puissent être dites à la télévision ou au Congrès, mais pas sur nos plateformes. »

De plus, Meta modifiera les systèmes automatisés qui analysent ses plateformes à la recherche de violations de politique. « (C) cela a entraîné trop d'erreurs et trop de contenus censurés qui n'auraient pas dû l'être », a écrit Kaplan.

À l’avenir, les systèmes se concentreront sur les violations illégales et de grande gravité, comme le terrorisme, l’exploitation sexuelle des enfants, la drogue, la fraude et les escroqueries, tandis que les violations moins graves des politiques dépendront du signalement d’un problème avant qu’une quelconque mesure ne soit prise.

Meta rend également plus difficile la suppression de contenu des plates-formes en obligeant plusieurs évaluateurs à prendre une décision afin de supprimer quelque chose et en permettant aux utilisateurs de voir plus de contenu civique (posts sur les élections, la politique ou les questions sociales) s'ils le souhaitent.

Outil de censure

Kaplan a expliqué que lorsque Meta a lancé son programme indépendant de vérification des faits en 2016, elle ne voulait pas être l'arbitre de la vérité, elle a donc confié la responsabilité de vérifier le contenu à des organisations indépendantes.

« L'intention du programme était de permettre à ces experts indépendants de donner aux gens plus d'informations sur ce qu'ils voient en ligne, en particulier les canulars viraux, afin qu'ils puissent juger par eux-mêmes ce qu'ils ont vu et lu », a-t-il écrit.

« Ce n'est pas ainsi que les choses se sont déroulées, surtout aux États-Unis », a-t-il poursuivi. « Les experts, comme tout le monde, ont leurs propres préjugés et perspectives. Cela s’est reflété dans les choix que certains ont faits sur ce qu’il fallait vérifier et comment.

« Au fil du temps, nous nous sommes retrouvés avec trop de contenus vérifiés pour que les gens puissent comprendre qu'il s'agissait de discours et de débats politiques légitimes », a-t-il noté. « Notre système a alors entraîné de réelles conséquences sous la forme d'étiquettes intrusives et d'une distribution réduite. Un programme destiné à informer est trop souvent devenu un outil de censure.»

David Inserra, chercheur en liberté d'expression et technologie au Cato Institute, un groupe de réflexion de Washington, DC, a fait partie d'une équipe chargée de la politique de contenu de Facebook et a déclaré qu'il était gêné par le biais de sélection du groupe. « Les seules personnes qui se sont inscrites pour vérifier les faits voulaient modérer le contenu », a-t-il déclaré à Technews.fr. « Les gens qui voulaient que les utilisateurs prennent leurs propres décisions concernant le contenu ne sont pas devenus des vérificateurs de faits. »

« Mon expérience concernant l'efficacité de la vérification des faits par Facebook a été globalement mitigée », a ajouté Darian Shimy, PDG et fondateur de FutureFund, une plateforme de collecte de fonds pour les écoles primaires et secondaires et les PTA, à Pleasanton, en Californie.

« On peut dire sans se tromper que cela a ajouté une couche de responsabilité, mais franchement, j'ai trouvé que c'était trop lent et incohérent pour suivre le rythme de la désinformation virale », a-t-il déclaré à Technews.fr. « En discutant avec de nombreuses personnes de mon entourage et en effectuant des recherches en interne, j'ai découvert que la plupart des gens pensaient que le fait de s'appuyer sur des vérificateurs de faits tiers créait une perception de parti pris, ce qui n'aidait pas toujours à instaurer la confiance avec les utilisateurs. »

« Pas une victoire pour la liberté d'expression »

Irina Raicu, directrice de l'éthique d'Internet au Markkula Center for Applied Ethics de l'Université de Santa Clara, a noté que de nombreuses désinformations apparaissaient sur Facebook dans le cadre du régime de vérification des faits en vigueur.

« Une partie du problème résidait dans l'automatisation de la modération du contenu », a-t-elle déclaré à Technews.fr. « Les outils algorithmiques étaient assez rudimentaires et ne prenaient pas en compte les nuances du langage et des images. Et le problème était encore plus répandu dans les publications rédigées dans des langues autres que l’anglais.

« Avec des milliards de contenus publiés quotidiennement, il était tout simplement impossible pour les vérificateurs humains de suivre le rythme », a ajouté Paul Benigeri, co-fondateur et PDG d'Archive, une société qui développe des logiciels pour automatiser les flux de marketing numérique du commerce électronique. à New York.

« La vérification des faits ressemblait davantage à une démarche de relations publiques », a-t-il déclaré à Technews.fr. « Parfois, cela a fonctionné, mais cela n'a jamais réussi à détecter l'intégralité du volume de messages trompeurs. »

Meta abandonnant son système de vérification des faits a été interrogée par Tal-Or Cohen Montemayor, fondateur et directeur exécutif de CyberWell, une organisation à but non lucratif dédiée à la lutte contre l'antisémitisme sur les réseaux sociaux, dont le siège est à San Francisco.

« Même si le précédent système de vérification des faits s’est révélé être une méthode inefficace et non évolutive pour lutter contre la désinformation et la désinformation lors de conflits et d’urgences en temps réel », a-t-elle déclaré à Technews.fr, « la réponse ne peut pas être moins de responsabilité et moins d’investissements de la part des gouvernements. plates-formes.

« Ce n’est pas une victoire pour la liberté d’expression », a-t-elle déclaré. « Il s'agit d'un échange de préjugés humains au sein d'un petit groupe confiné de vérificateurs de faits à grande échelle via les notes de la communauté. La seule façon d’empêcher la censure et la manipulation des données par un gouvernement ou une entreprise serait d’instaurer des exigences juridiques et des réformes sur les grandes technologies qui imposent la réforme des médias sociaux et les exigences de transparence.

Solution communautaire défectueuse

Le remplacement des Community Notes de Meta pour la vérification des faits est calqué sur un système similaire déployé sur X, anciennement Twitter. « L'approche communautaire est intéressante dans la mesure où elle résout en partie la question de l'échelle », a déclaré Cody Buntain, professeur adjoint au College of Information de l'Université du Maryland. « Cela permet à beaucoup plus de personnes de s'impliquer dans ce processus et d'ajouter du contexte. »

« Le problème est que les notes communautaires, même si elles peuvent fonctionner à grande échelle pour des informations occasionnelles ou des histoires occasionnelles qui deviennent virales, ne sont généralement pas assez rapides et sont totalement submergées par de nouveaux événements majeurs », a-t-il expliqué.

« Nous l’avons vu à la suite des attaques en Israël en octobre 2023 », a-t-il poursuivi. « Il y avait des gens très engagés dans le processus de note communautaire, mais Twitter, en tant que plateforme, a été submergé par la quantité de désinformation qui circulait autour de cet événement. »

« Lorsque les plateformes disent : « Nous allons nous en laver les mains et laisser la communauté s'en occuper », cela devient problématique dans ces moments où les seules personnes capables de réellement gérer des afflux massifs de flux à haute vitesse et à faible des informations de qualité sont les plateformes », a-t-il déclaré. « Les notes de la communauté ne sont pas vraiment conçues pour traiter de ces problèmes, et c'est dans ces moments-là que vous souhaitez le plus obtenir des informations de haute qualité. »

« Je n'ai jamais été fan des notes communautaires », a ajouté Karen Kovacs North, professeur clinique de communication à l'Annenberg School for Communication and Journalism de l'Université de Californie du Sud.

« Le type de personnes prêtes à prendre des notes sur quelque chose est généralement polarisé et passionné », a-t-elle déclaré à Technews.fr. « Les gens du milieu ne prennent pas le temps de formuler leurs commentaires sur une histoire ou un élément de contenu. »

S'attirer les faveurs de Trump

Vincent Raynauld, professeur adjoint au Département d'études en communication de l'Emerson College, a noté que même si la modération communautaire semble excellente en théorie, elle pose certains problèmes. « Même si le contenu peut être signalé comme étant de la désinformation ou trompeur, le contenu est toujours accessible aux gens », a-t-il déclaré à Technews.fr.

« Ainsi, même si certaines personnes voient la note de la communauté, elles peuvent quand même consommer ce contenu, et ce contenu peut toujours avoir un impact sur leurs attitudes, leurs connaissances et leur comportement », a-t-il expliqué.

Parallèlement à l'annonce de Kaplan, Meta a publié une vidéo du PDG Mark Zuckerberg saluant les dernières initiatives de l'entreprise. « Nous allons revenir à nos racines et nous concentrer sur la réduction des erreurs, la simplification de nos politiques et le rétablissement de la liberté d'expression sur nos plateformes », a-t-il déclaré.

« L'annonce de Zuckerberg n'a rien à voir avec l'amélioration des plateformes de Meta et tout à voir avec le fait de s'attirer les faveurs de Donald Trump », a affirmé Dan Kennedy, professeur de journalisme à la Northeastern University de Boston.

« Il fut un temps où Zuckerberg se souciait du fait que ses produits soient utilisés pour promouvoir une désinformation dangereuse, sur l'insurrection du 6 janvier et Covid », a-t-il déclaré à Technews.fr. « Maintenant, Trump revient au pouvoir, et l'un des rivaux de Zuckerberg, Elon Musk, se déchaîne devant l'indulgence de Trump, donc Zuckerberg ne fait que suivre le programme. »

« Aucun système de vérification des faits et de modération n'est parfait », a-t-il ajouté, « mais si Zuckerberg s'en souciait vraiment, il s'efforcerait de l'améliorer plutôt que de s'en débarrasser complètement. »

Musk, créateur de tendances

Damian Rollison, directeur du marketing chez SOCi, une plateforme cloud de comarketing dont le siège est à San Diego, a souligné l'ironie de la dernière décision de Meta. « Je pense qu'il est prudent de dire que personne n'avait prédit que la prise de contrôle chaotique de Twitter par Elon Musk deviendrait une tendance que d'autres plateformes technologiques suivraient, et pourtant nous y sommes », a-t-il déclaré à Technews.fr.

« Nous pouvons voir maintenant, rétrospectivement, que Musk a établi une norme pour une approche nouvellement conservatrice en matière d’assouplissement de la modération du contenu en ligne, une approche que Meta a désormais adoptée avant la nouvelle administration Trump », a-t-il déclaré.

« Cela signifiera probablement que Facebook et Instagram connaîtront une augmentation des discours politiques et des publications sur des sujets controversés », a-t-il poursuivi.

« Comme pour Musk's X, où les revenus publicitaires ont diminué de moitié, ce changement pourrait rendre la plateforme moins attractive pour les annonceurs », a-t-il ajouté. « Cela pourrait également cimenter une tendance selon laquelle Facebook devient le réseau social des utilisateurs plus âgés et plus conservateurs et cède la génération Z au profit de TikTok, Instagram occupant un terrain d'entente entre eux. »