À l’initiative de Reporters sans frontières, la Charte de Paris, révélée le 10 novembre 2023, entend dessiner les principes éthiques liés à l’utilisation de l’intelligence artificielle dans le journalisme.
Les travaux ont commencé en juillet 2023 : sous la houlette de Reporters sans frontières, associations, « experts » de l’intelligence artificielle et représentants des journalistes et médias grand public ont planché sur une « Charte de Paris » destinée à réfléchir sur les principes éthiques des journalistes à l’heure de l’expansion de l’intelligence artificielle. Présidée par la journaliste philipino-américaine Maria Ressa, la commission destinée à créer cette Charte dévoilait ses principes éthiques sur l’intelligence artificielle et le journalisme le 10 novembre dernier.
Derrière la Charte : des visages de l’AFP, des EGI et de France TV
Figure de circonstance de la « lutte contre la désinformation », la présidente de la Commission Maria Ressa est soutenue par l’Union européenne ; ce Prix Nobel de la paix est également « en liaison avec le comité de pilotage des États généraux de l’information (EGI) », à en croire le CESE. Parmi les membres de la Commission impliqués dans ces mêmes États généraux, se trouve aussi Camille François, enseignante en affaires publiques internationales à la Columbia University School of International an Public Affairs.
La commission se compose par ailleurs d’Éric Scherer, président du comité Actualités à l’Union européenne de Radio-Télévision et directeur du News MédiaLab ainsi que des affaires internationales à France Télévisions ; Bruno Patino, président du directoire d’Arte France, ex-accroc aux réseaux sociaux qui analyse les dommages causés par « le déluge numérique » ; et enfin, le très britannique rédacteur en chef central de l’Agence France-Presse (AFP), Phil Chetwynd.
La soupe « démocratique » entre personnes qui pensent bien
Fort de ce comité très convenu, la Charte en appelle à ce que « l’IA respecte les droits humains (sic), la paix et la démocratie, et serve nos aspirations et nos valeurs communes ». Selon ses rapporteurs, les systèmes d’Intelligence Artificielle pourront servir la « fonction sociale du journalisme et des médias » à condition qu’ils soient utilisés de manière « transparente, équitable, responsable ». S’ils prônent le soutien au « journalisme indépendant » (dont on suppose qu’il leur faudra nécessairement partager les « valeurs communes » précitées sans que celles-ci ne soient clairement définies), les auteurs de la Charte entendent s’engager « en faveur des médias de confiance », dont il n’est pas non plus précisé la définition.
Composée de dix points, la Charte entend en premier lieu réaffirmer la déontologie journalistique face à l’IA (point 1, 10) et s’assurer qu’il reviendra bien au journaliste de définir les choix éditoriaux (point 2, 9). Elle promeut la transparence dans l’utilisation des technologies, conditionnée à la responsabilité de leurs diffuseurs (point 3, 4 et 5). Elle souligne aussi l’importance de la traçabilité, la fiabilité de l’information produite par IA (point 6,7) et affirme la nécessité pour ces outils de respecter « la diversité et l’intégrité de l’information », à condition qu’ils favorisent « l’ouverture d’esprit et le dialogue démocratique ». Vaste programme.
Voir aussi : L’intelligence artificielle (IA) tue déjà par champignons interposés