Ojim.fr
PUBLICATIONS
Yann Barthès, Dilcrah, Netflix, Frontex, Bellingcat... Découvrez les publications papier et numériques de l'Observatoire du journalisme.
→ En savoir plus
PUBLICATIONS
Yann Barthès, Dilcrah, Netflix, Frontex, Bellingcat... Découvrez les publications papier et numériques de l'Observatoire du journalisme.
→ En savoir plus
Wokipédia : Wikipédia est-il une source fiable ? Deuxième partie

18 septembre 2024

Temps de lecture : 6 minutes
Accueil | Dossiers | Wokipédia : Wikipédia est-il une source fiable ? Deuxième partie

Wokipédia : Wikipédia est-il une source fiable ? Deuxième partie

Temps de lecture : 6 minutes

Suite de notre dossier.

Un vocabulaire pour la gauche, un vocabulaire pour la droite

Le Man­hat­tan Insti­tute a mené sur le Wikipé­dia anglo­phone une enquête qui gag­n­erait à être dupliquée pour la France. L’organisme a analysé le ton – posi­tif, neu­tre ou négatif – avec lequel un cer­tain nom­bre de ter­mes étaient abor­dés, ces ter­mes venant de listes préex­is­tantes. Il pou­vait s’agir des noms des prési­dents améri­cains, des mem­bres du Con­grès, des juges de la Cour suprême. Résul­tat : les per­son­nal­ités asso­ciées à la droite sont plus sou­vent abor­dées néga­tive­ment que les per­son­nal­ités asso­ciées à la gauche. Le Man­hat­tan Insti­tute en con­clut que « ces ten­dances con­stituent des élé­ments de preuve de la présence de biais poli­tiques dans les arti­cles Wikipé­dia ». Les noms des prési­dents les plus récents ont égale­ment été testés. On trou­ve, par ordre décrois­sant de pos­i­tiv­ité : François Hol­lande, Emmanuel Macron, Jacques Chirac, Nico­las Sarkozy.

Ce graphique du Manhattan Institute montre que les termes associés à la droite (symbolisés par des bâtons rouges) sont plus souvent abordés sur un ton négatif, alors qu’on observe l’effet inverse pour les termes associés à la gauche (symbolisés par des bâtons bleus).

Ce graphique du Man­hat­tan Insti­tute mon­tre que les ter­mes asso­ciés à la droite (sym­bol­isés par des bâtons rouges) sont plus sou­vent abor­dés sur un ton négatif, alors qu’on observe l’effet inverse pour les ter­mes asso­ciés à la gauche (sym­bol­isés par des bâtons bleus).

Wikipédia reprend les termes de la gauche libérale libertaire

En plus d’utiliser un ton plus favor­able pour les per­son­nal­ités de gauche que pour les per­son­nal­ités de droite, Wikipé­dia utilise plus volon­tiers les ter­mes util­isés par la gauche libérale lib­er­taire. En 2012, une étude avait mon­tré que les arti­cles anglais de Wikipé­dia par­laient plus sou­vent de « estate tax » ou de « Iraq war » que de « death tax » et de « war on ter­ror ». Il se trou­ve que les pre­miers ter­mes sont util­isés par les Démoc­rates, et les sec­onds par les Répub­li­cains. Ce choix n’a rien d’anodin. Impos­er son vocab­u­laire est la pre­mière étape pour impos­er ses idées. C’est pour cela que l’on par­le « d’ultra-gauche » et non « d’extrême-gauche » lorsqu’on par­le de cer­taines mil­ices vio­lentes, ou que les « antifas » se font appel­er ain­si sans s’appesantir sur la déf­i­ni­tion du fas­cisme, qui n’a en fait pas grand-chose à voir avec ce qu’ils com­bat­tent. En 2018, la sit­u­a­tion était inchangée.

Wikipédia aux côtés des médias de gauche

Wikipédia de connivence avec les médias de gauche

Le Man­hat­tan Insti­tute a mon­tré que Wikipé­dia fai­sait plus sou­vent référence à des médias de gauche qu’à des médias de droite. Autrement dit, les con­tribu­teurs con­som­ment plus facile­ment les pre­miers titres. Il est donc assez prob­a­ble que, pour la majorité du moins, ils y retrou­vent leurs con­vic­tions. De plus, cette sur­représen­ta­tion des médias de la gauche libérale lib­er­taire dans Wikipé­dia leur per­met d’être mieux référencés par les moteurs de recherche, donc d’être plus facile­ment pro­posés à quelqu’un qui ferait une recherche rapi­de sur un sujet pour lequel il n’a pas d’idée préconçue.

L’affaire George Floyd, révélatrice d’une politique

Si Wikipé­dia est pen­sé comme une ency­clopédie numérique, on retrou­ve dans cer­tains con­tenus des ficelles util­isées dans les arti­cles de presse. Le plus con­nu, qui est égale­ment le plus dis­cret, est le choix des mots. Prenons deux événe­ments dis­tincts : la mort de Georges Floyd, que l’on ne présente pas, et celle de Lak­en Riley, enlevée et tuée en Géorgie lors d’une séance de jog­ging, en févri­er 2024. En anglais, les pages Wikipé­dia de ces événe­ments se nom­ment respec­tive­ment « Mur­der of George Floyd » et « Killing of Lak­en Riley ». Au reste, pour la Fon­da­tion Wikimé­dia, l’affaire George Floyd est presque un catal­y­seur. À l’occasion des mou­ve­ments qui, sous la houlette de Black Lives Mat­ter, ont suivi cette affaire, la Fon­da­tion se tar­gue d’avoir « pris plusieurs engage­ments explicites pour faire avancer la jus­tice raciale par des investisse­ments et sup­ports accrus ».

Le Grand remplacement, théorie honnie de Wikipédia

Cer­tains con­cepts font égale­ment les frais d’un traite­ment qui n’a plus rien d’encyclopédique. Depuis 2013, la page du Grand rem­place­ment a subi de nom­breuses mod­i­fi­ca­tions, à l’occasion desquelles le terme est suc­ces­sive­ment décrit comme un « con­cept », puis une « théorie », « théorie con­spir­a­tionniste », « théorie du com­plot d’extrême-droite », « théorie com­plo­tiste d’extrême-droite, raciste et xéno­phobe, aux orig­ines néo-nazies et anti­sémites ». N’en jetez plus. Le para­doxe, c’est que plus le Grand rem­place­ment est vis­i­ble, plus Wikipé­dia le décrit comme une théorie sans lien avec la réal­ité. Wikipé­dia veille d’ailleurs à ce que cette déf­i­ni­tion soit large­ment dif­fusée grâce à son ser­vice de « mise en con­texte », notam­ment util­isé sous les vidéos Youtube. Lorsque vous regardez une vidéo, un encart peut s’afficher, appor­tant cer­taines infor­ma­tions. C’est ain­si qu’en novem­bre 2021, le média Livre Noir, aujourd’hui Fron­tières, a pub­lié un micro-trot­toir mon­trant les avis d’habitants des quartiers pop­u­laires au sujet du Grand rem­place­ment. Quelques min­utes après la mise en ligne de la vidéo, un encart de Wikipé­dia s’affichait, menant à la page con­cer­nant ce terme.

La cabale de Wikipédia contre les journalistes de droite

Quand on veut con­naître rapi­de­ment le pro­fil d’une per­son­nal­ité quel­conque, le pre­mier réflexe de la majorité des gens est de con­sul­ter sa fiche Wikipé­dia. Or, de nom­breux con­tribu­teurs, la plu­part de gauche, char­gent celles des jour­nal­istes classés à droite. C’est ain­si que, sur la page d’Eugénie Bastié, jour­nal­iste au Figaro, le Figaro Vox est qual­i­fié de « média d’opinion de droite dure » et Causeur de « jour­nal con­ser­va­teur ». Eugénie Bastié serait une « fig­ure de la droite con­ser­va­trice » et l’un des « nou­veaux vis­ages de la droite réac­tion­naire » qui ali­mente des polémiques sur les réseaux soci­aux et a per­mis la « résur­gence médi­a­tique des dis­cours réac­tion­naires ». André Bercoff est lui aus­si ans le viseur de Wikipé­dia, qui l’accuse d’être com­plo­tiste, d’extrême-droite, ain­si que défenseur de Don­ald Trump. Le jour­nal­iste Idriss Aberkane par­le à ce sujet de net­toy­age ou noir­cisse­ment « de cour­toisie » sur TV Lib­ertés. « Cer­taines pages vont être impec­ca­ble­ment pro­pres », explique-t-il, et tout ce qui est négatif en sera retiré, que ce soit les affaires de har­cèle­ment moral ou les affaires finan­cières. À l’inverse, d’autres pages subis­sent un noir­cisse­ment volon­taire et par­fois trompeur.

Un danger pour le développement de l’Intelligence artificielle

Les biais idéologiques de Wikipé­dia ne sont pas seule­ment un prob­lème pour l’accès à la con­nais­sance de tous. Aujourd’hui, Wikipé­dia con­stitue l’une des sources habituelle­ment util­isées pour entraîn­er les mod­ules d’intelligence arti­fi­cielle comme Chat­G­PT. La ten­dance à abor­der des per­son­nal­ités de gauche avec bien­veil­lance et des per­son­nal­ités de droite avec hos­til­ité est donc très dan­gereuse pour l’avenir de l’information. Que ce soit parce que cer­taines per­son­nes se doc­u­mentent avec Chat­G­PT, ou parce que cer­tains jour­nal­istes s’appuient sur l’intelligence arti­fi­cielle pour écrire leurs arti­cles, cette entité est de plus en plus présente dans notre quo­ti­di­en. Autrement dit, une fois de plus, nous nous ser­vons d’un out­il biaisé, d’autant plus dan­gereux qu’il est présen­té comme neu­tre. À suivre.

Vidéos à la une

Derniers portraits ajoutés