Le 21 septembre 2023, le quotidien Le Monde publiait un article montrant que les médias français sont partagés entre crainte et volonté d’utiliser avec parcimonie l’Intelligence Artificielle (IA). Cela concerne l’Intelligence Artificielle (IA) génératrice d’images ou de textes, à l’image de ChatGPT par exemple.
Utiliser avec parcimonie ?
Certains médias sont particulièrement enthousiastes. Il en va ainsi de Brut, média entièrement vidéo, qui verrait une véritable chance en l’utilisation de l’Intelligence Artificielle (IA). Il s’agit même de l’opinion de l’un des cofondateurs de Brut, Guillaume Lacroix, lequel serait persuadé que tester cette technologie offrirait « un formidable outil de création à condition qu’il soit au service de l’information ». Mais comment demeurer entièrement « au service de l’information » en un tel domaine quand des médias secondaires ou de faux médias américains ou du Proche-Orient ont déjà diffusé il y a plusieurs mois de faux journaux télévisés avec de faux journalistes déjà très réalistes ? Il n’empêche que Brut veut s’essayer à l’Intelligence Artificielle et que le journaliste Nicolas Nerrant a été chargé de créer des vidéos d’information en s’appuyant sur diverses Intelligences Artificielles (IA). Dès ce mois d’octobre, Brut devrait expérimenter la traduction par Intelligence Artificielle, un logiciel tel que HeyGen permettant de « cloner les voix et de synchroniser les mouvements des lèvres » des journalistes. Objectif ? Se développer à l’étranger. La direction de Brut assure que les contenus seront clairement identifiables et validés.
Cette conception favorable ne concerne d’ailleurs pas que des médias français puisque, d’après Le Monde, le média suisse Heidi.news utilise déjà l’Intelligence Artificielle (IA), autrement dit des algorithmes, pour l’écriture mais aussi le tri et l’organisation de l’information. Dans le même temps, le New York Times recrute « un rédacteur en chef chargé de l’Intelligence Artificielle (IA) générative ».
Tout est loin d’être parfait dans le meilleur des mondes de l’Intelligence Artificielle (IA)…
Le Monde tente de démontrer que les craintes sont trop importantes par rapport à la réalité. Pourquoi ? D’abord, ChatGPT ou Bard, de Google, n’écriraient pas des articles identiques à ceux des journalistes. Pour le moment ? L’exemple emblématique de BuzzFeed, se précipitant dès janvier 2023 dans l’utilisation de l’Intelligence Artificielle (IA) en a montré les limites, proposant des contenus maladroits, répétitifs et contenant souvent de fausses informations. Cependant, cela date de bientôt une année et une année, en matière d’Intelligence Artificielle (IA), c’est un temps très long. NewsGuard aurait identifié près de 500 sites produisant des articles écrits par des chatbots dans le monde, articles qu’elle considère comme de petite taille et « peu fiable ».
Le monde de l’audiovisuel se montrerait frileux, même si la chaîne suisse M le Média fait présenter la météo par une présentatrice virtuelle. Dans les coulisses de TF1, la frilosité n’implique pas rejet. Ainsi, pour le PDG Rodolphe Belmer, l’Intelligence Artificielle pourrait être utilisée dans le futur mais dans des domaines tels que les effets spéciaux. Une position très floue.
Voir aussi : ChatGPT : premiers dangers et entrée en scène de la propagande idéologique générée par l’Intelligence Artificielle
…mais cela évolue vite, très vite
Plusieurs études ont montré qu’environ 70 % des employés de tous les types d’entreprises reconnaissent faire appel régulièrement à l’Intelligence Artificielle (IA), à commencer par ChatGPT ou des logiciels de création d’images. Il n’est donc pas surprenant que ce phénomène se retrouve aussi au sein des médias et que ces derniers essaient de créer les conditions d’une sorte de contrôle de l’utilisation, par exemple des chartes garantissant des usages encadrés (Les Échos-Le Parisien, Le Figaro, Le Monde…).
Cependant, l’Intelligence Artificielle (IA) va très vite. Ainsi, ChatGPT est en passe d’être directement connecté à internet, avec deux conséquences importantes pour les médias.
En premier lieu, le chatbot ne sera plus limité pour les informations récentes. C’est un point crucial. Jusqu’à présent, ses données se limitaient à 2021. L’information a été indiquée par OpenIA sur X (ex-Twitter), le 27 septembre 2023. ChatGPT va donc pouvoir exploiter des données à jour et fiables mais aussi les relier directement aux sources. Il devient ainsi possible d’utiliser le chatbot d’OpenIA de manière actualisée. De plus, cela va éviter ce que les habitués nomment les « hallucinations » de ChatGPT, quand il répond n’importe quoi puisque ses données n’étaient pas actualisées. L’un des objectifs clairement affirmé d’OpenIA est de ne pas être dépassé dans le cadre de l’actualité.
Ce type d’évolution rapide ne peut qu’obliger les médias traditionnels à s’adapter rapidement eux-aussi. Il devient bien plus facile d’écrire un article avec une Intelligence Artificielle (IA) à jour sur le plan de l’actualité. D’une certaine manière, la nécessité d’une adaptation est déjà intégrée puisque les éditeurs de presse et acteurs de l’audiovisuel cherchent à négocier une forme de rémunération pour l’utilisation de leurs informations…
Reste une donnée importante : le facteur humain. L’écriture à l’aide de chatbots dépend des compétences de l’utilisateur. S’il ne sait pas interroger correctement une Intelligence Artificielle (IA) telle que ChatGPT il obtient n’importe quoi, un style maladroit etc. Quand il devient expert, cela donne des articles indétectables. C’est le cas sur les sites spécialisés dans le domaine du numérique, qui indiquent clairement quand ces articles sont produits par Intelligence Artificielle (IA). Dans un futur très proche, les médias risquent fort d’avoir à informer sur l’origine de la production de leurs informations.