Meta a lancé un système de notes de contexte inspiré de X pour contrer la désinformation, après avoir mis fin au fact-checking aux États-Unis. Une transition qui suscite l’inquiétude dans les médias de grands chemins.
Virage stratégique sur le même modèle que Musk
Meta, la maison mère de Facebook, Instagram, WhatsApp et Threads, a opéré un virage stratégique en matière de lutte contre la désinformation. Le 14 mars 2025, le groupe a introduit un système de modération collective appuyé sur des « notes de contexte », directement calqué sur le modèle de X, marquant un abandon progressif du fact-checking traditionnel. Cette décision, qui fait suite à la suppression de ce dernier aux États-Unis en janvier, reflète une volonté de s’aligner sur une approche perçue comme moins biaisée, mais elle inquiète une partie du monde médiatique déjà soucieux du virage politique entamé par le patron de Meta Mark Zuckerberg.
Une rupture avec le fact-checking jugé « trop orienté »
L’annonce intervient dans un contexte particulier. Après l’élection de Donald Trump, Mark Zuckerberg, PDG de Meta, a critiqué les programmes de fact-checking, les qualifiant de « trop orientés politiquement ». « Nous voulons que les notes de contexte soient moins biaisées et plus scalables » (en somme, qui puisse s’adapter, se développer plus facilement) a déclaré le groupe dans un communiqué. Cette prise de position singe celle prise par Elon Musk qui avait initié cette forme de modération de type plus communautaire sur son réseau social X.
Voir aussi : Qui sont les « Décodeurs » ? Entre GAFAM, argent et influence. Première partie
Notes de contexte
Concrètement, les notes de contexte permettent à des utilisateurs référencés de proposer des précisions ou des sources pour contextualiser une publication jugée trompeuse. Si ces notes sont validées par un nombre suffisant de contributeurs aux opinions variées, elles deviennent visibles. Meta s’appuie initialement sur l’algorithme open source de X pour orchestrer ce processus, qui, à terme, exclura toute intervention humaine au profit d’une régulation par les utilisateurs et l’intelligence artificielle.
Dans un premier temps, ces notes ne seront pas publiques. Elles seront évaluées par les équipes de Meta avant un déploiement progressif auprès de 200 000 utilisateurs inscrits sur une liste d’attente. Contrairement au fact-checking, ce système n’affectera pas la visibilité des publications incriminées, une différence notable qui pourrait limiter son effet dissuasif.
Un déploiement mondial encore incertain
Meta ambitionne d’étendre ce mécanisme à l’échelle mondiale, mais cette transition soulève des interrogations. Si le fact-checking reste en place hors des États-Unis pour l’instant, le groupe envisage sa suppression totale. Plusieurs pays et régions, notamment en Europe, pourraient s’y opposer. Les législations locales, souvent strictes en matière de désinformation, risquent de juger les notes de contexte insuffisantes pour contrer les fake news de manière efficace.
Fin des arbitres de la vérité ?
Casey Newton, journaliste spécialisé dans la tech, dénonce, dans des propos repris par le média Brut, une ambiguïté : « Meta dit ne pas vouloir être un arbitre de la vérité, mais il a financé ces arbitres pendant des années. Qui prendra le relais ? ».
En calquant son mode de modération sur celui de X, Meta entend se décharger d’une responsabilité éditoriale lourde tout en répondant aux critiques sur sa partialité. Le « la » en matière de modération semble désormais être donné par Elon Musk. C’est donc aux utilisateurs qu’incombe la responsabilité de ces vérifications. A voir désormais comment se fera l’équilibre entre liberté d’expression et fiabilité de l’information.
Voir aussi : Meta/Zuckeberg, demi-tour droite !
Rodolphe Chalamel