Ojim.fr
PUBLICATIONS
Yann Barthès, Dilcrah, Netflix, Frontex, Bellingcat... Découvrez les publications papier et numériques de l'Observatoire du journalisme.
→ En savoir plus
PUBLICATIONS
Yann Barthès, Dilcrah, Netflix, Frontex, Bellingcat... Découvrez les publications papier et numériques de l'Observatoire du journalisme.
→ En savoir plus
Les algorithmes au secours de la censure ? Le projet Deepnews

12 mars 2019

Temps de lecture : 3 minutes
Accueil | Veille médias | Les algorithmes au secours de la censure ? Le projet Deepnews

Les algorithmes au secours de la censure ? Le projet Deepnews

Temps de lecture : 3 minutes

Devant la multiplication des sources d’information, en particulier sur internet, de nombreux projets existent pour qualifier l’information. Du désastreux et non crédible Decodex (financé par Google) du Monde, au Checknews de Libération en passant par les notes de Facebook ou de Google. Depuis que deux lois votées en Allemagne et en France sur les infox sur les réseaux sociaux prévoient des sanctions pécuniaires ou pénales contre les contrevenants, de nombreuses sociétés commerciales tentent de bâtir un modèle prédictif qui permettrait d’éliminer les fameuses infox.

Les critères du « bon algorithme »

Un excel­lent arti­cle du Mon­day Note de Frédéric Fil­loux (25 févri­er 2019) pré­cise les critères que devrait sat­is­faire l’algorithme du futur :

  • Devrait pou­voir être util­isé par tout l’écosystème, rédac­teurs, édi­teurs, pub­lic­i­taires, marchands.
  • Devrait être automatique
  • Devrait être en temps réel, sans attente d’analyse humaine
  • Devrait approcher une fia­bil­ité de 100%

Le projet Deepnews

Deep­news est né à Stan­ford en 2016/2017. Dévelop­pé pen­dant deux ans aux États-Unis grâce à une bourse, il a été trans­féré à Paris à l’été 2018 pour des raisons de coût. Le sys­tème est entière­ment fondé sur l’intelligence arti­fi­cielle et classe les infor­ma­tions (exclu­sive­ment en anglais pour le moment, avons nous com­pris) sur une échelle de 1 à 5 en fonc­tion de leur pos­si­ble vérac­ité. Une note de 5 égale une infor­ma­tion qua­si sûre, une note de 1 égale une infor­ma­tion qua­si fausse, avec les trois notes intermédiaires.

Les paramètres (de l’ordre de 22/25 mil­lions) per­me­t­tent de clas­si­fi­er les items, de les met­tre en rap­port, pour décel­er des inter­férences qual­i­fi­antes. Des com­para­isons sont ensuite faites entre des analy­ses humaines et celles de l’intelligence artificielle.

Limites et interrogations

L’auteur indique que début 2019 Deep­news clas­si­fie cor­recte­ment 80% des cas. Autrement dit une analyse automa­tique con­firme une analyse humaine dans 80% des cas. La dévi­a­tion humain/non humain sem­blerait inférieure à un point (4 au lieu de 5, 3 au lieu de 2 ou le con­traire etc). Un mod­èle con­cur­rent dévelop­pé par Elon Musk et ses asso­ciés, Open AI aurait recours à un nom­bre de paramètres net­te­ment plus impor­tant (70 fois plus nom­breux) mais avec des résul­tats net­te­ment inférieurs plus proches des 50%, le sys­tème se trompant une fois sur deux. Deep­news sem­ble mieux fonc­tion­ner, ses créa­teurs essayant de le tromper par exem­ple en sup­p­ri­mant la ponc­tu­a­tion d’un texte ou en enl­e­vant tous les noms pro­pres pour le leur­rer et cor­riger ensuite.

Dans tous les cas ces nou­veaux sys­tèmes – dont la moti­va­tion est bien plus le futur prof­it que la recherche de la vérité uni­verselle – posent ques­tion. Que se passe-t-il lorsque le sys­tème se trompe ? Quels sont les freins qui per­me­t­tent de cor­riger en temps réel ? Com­ment inté­gr­er dif­férents univers lin­guis­tiques ? Le sys­tème pour­rait il men­er à une sorte de con­trôle uni­versel de l’information ? L’enfer est pavé de bonnes inten­tions dis­ait ma grand-mère. Deep­news et ses frères sem­blent plus proches du dia­blotin fourchu que des gen­tils anges, même s’ils s’attribuent volon­tiers les ailes de ces derniers. Au nom de la vérité vraie, bien entendu.

Mots-clefs : ,

Voir aussi

Vidéos à la une

Derniers portraits ajoutés