Première diffusion le 14 février 2023
Nous présentions il y a quelques jours le fameux “ChatGPT”, mis au point par la société américaine OpenAI. Il s’agit encore d’un robot (en attendant mieux ou pire) en forme de prototype d’agent conversationnel. C’est donc un « outil de langage » destiné à tous les usages numériques et qui s’auto-perfectionne à force d’être utilisé.
Le Chat et les autres félins
Ainsi, chaque utilisateur (cent millions de personnes dans le monde au 7 février) contribue à faire de ChatGPT une IA conversationnelle de plus en plus performante. C’est avant tout un « chatbot » amélioré qui permet à l’utilisateur de dialoguer avec un assistant virtuel, mais suffisamment amélioré pour reléguer des chatbots tels que Siri (Apple) à une époque d’avant l’âge de pierre. De même que ChatGPT est lui aussi destiné, à court terme, à être relégué à la préhistoire de l’IA.
À peine ChatGPT débarqué aux États-Unis début décembre 2022, Google et Microsoft préparaient leurs ripostes, venues début février 2023 : chacune des méga-entreprises cherchant la meilleure alliance avec OpenAI ou lançant à son tour son propre chatbot concurrentiel sur le marché. C’est d’ores et déjà le cas pour Google, avec Bard, un équivalent de ChatGPT, et pour des entreprises comme Alibaba par exemple, troisième entreprise chinoise à annoncer la naissance de son bot équivalent. Pour l’heure, Microsoft vient de lancer la nouvelle version de son moteur de recherche Bing, alimenté justement par ChatGPT.
La guerre de l’IA est déclenchée
Selon David Barroux (Radio Classique, 9 février 2023), dans un monde où pour la première fois, l’IA est réellement utilisable par tout le monde, « la guerre de l’IA ne fait que commencer mais elle s’annonce, en tous les cas, sans pitié ». Il est vrai qu’une déclaration telle que celle de Satya Nadella, PDG de Microsoft, pour qui « tout ce qui peut nuire aux revenus de Google est bon à prendre » donne le ton. L’anticipation a quitté le monde des romans dits de science-fiction (qui traitent de la réalité depuis longtemps en fait) et intégré le monde réel. Voilà, la réalité de ChatGPT : le roman a remplacé le réel. Et la guerre va vite, elle comporte donc son lot de dommages collatéraux (dont l’être humain pourrait assez vite faire partie). Ainsi, Le Monde rapportait le 9 février 2023 que Google a perdu 7 % à la Bourse de New York, suite à une réponse erronée de Bard, son nouveau chatbot conversationnel concurrentiel de ChatGPT (n’a‑t-il pas été mis sur le marché un peu vite étant donné le lancement effectué par OpenAI ?). Reste que les IA de ce type ont et vont avoir de multiples applications dans le monde de la finance, faire et défaire des empires économiques en quelques instants… Peut-être même menacer la stabilité (si l’on peut dire) libérale mondialiste ? Provoquer un chaos généralisé ? Qui sait ?
Gratuit, tout au moins au début
Le marché est gratuit au départ puis avec des versions dont les tarifs devraient tourner autour de 20 euros. Aisé d’accès, quand les listes d’attente n’existeront plus, accessible financièrement, utile dans tous les domaines sans exception, depuis la correction de copies de mathématiques, pour un jeune professeur, à la recette de cuisine pour une mamie, en passant par la rédaction d’un article (cela se faisait déjà avec des bots moins performants et très repérables) ou d’une dissertation par un étudiant. Dans ce dernier cas, nombre d’universités américaines et chinoises en ont déjà interdit l’utilisation, ainsi que Sciences Po en France. Il est vrai que le journaliste et essayiste spécialisé, américain et progressiste, Dan Gilmor, l’ayant testé, a pu conclure que ChatGPT produisait le travail d’un bon étudiant et que « le monde académique allait avoir de sérieux problèmes à affronter » (The Guardian, 4 décembre 2022). Or, si une IA auto-évolutive produit le travail de bon étudiants, travaux formatés par essence, travaux quasi tous progressistes, au moment précis où ils sont rédigés, cela entraine en effet des problèmes spécifiques, évidemment trop nombreux pour être tous soulevés ici, dont celui des biais idéologiques induits par le formatage potentiel lié à ChatGPT comme à ses concurrents. Et cela ne vaut pas uniquement pour une production étudiante mais tout autant pour le journalisme, et plus généralement pour tout ce qui joue un rôle d’influenceur dans toutes les formes de médias.
ChatGPT, miroir du monde qu’il reflète
Produit comme l’ensemble du numérique et de tout ce qui a trait à l’Intelligence Artificielle dans le cadre d’une idéologie progressiste dite « de gauche », à la fois libérale sur le plan économique et libertaire sur le plan sociétal, ChatGPT n’est pas neutre sur le plan idéologique. Il reflète la vision du monde de ses concepteurs et développe, majoritairement, même s’il est toujours possible de trouver quelques contre-exemples, une conception idéologique libérale-libertaire du monde et de la politique. Bien sûr, ses informations ne sont pour l’instant (en tout cas) pas toujours exactes (à l’image de celles de Wikipédia par exemple). Un exemple devenu viral ? À la question de savoir « Quel est le plus grand pays d’Amérique centrale en dehors du Mexique », ChatGPT a répondu qu’il s’agit du Guatemala. Or, c’est le Nicaragua. ChatGPT a interprété la question en termes de population et non de superficie. Le genre de détails que les équipes d’OpenAI corrigeront aisément et qui ne sont pas réellement le souci. Non, le problème provient plutôt de la façon dont ChatGPT, et surtout ses futurs successeurs, peut façonner les consciences et faire disparaître progressivement des pans entiers des pensées non-conformistes. Parmi les nombreux exemples remarqués, et ici choisis dans une masse quotidiennement exponentielle :
Clinton élue aux États-Unis
Dès le 17 janvier 2023, Nate Hochman tentait d’avertir sur les biais idéologiques de ChatGPT, dans un article remarqué (dans les mondes anglo-saxon et asiatique, le continent européen étant comme à son habitude très en retard en ce domaine), dans la conservatrice et américaine National Review. Il signalait par exemple que l’IA lui indiquait qu’Hillary Clinton avait en réalité gagné l’élection présidentielle américaine contre Trump, que nombre de représentants élus républicains avaient volé leur élection — entre autres nombreux fantasmes de la désinformation libérale libertaire. Par contre, toute pensée différente et conservatrice est réfutée ou minimisée au nom de la lutte contre… la même désinformation. ChatGPT pense progressiste sur de nombreux sujets, comme l’idéologie transgenre, la présence de livres avec des héros drag-queens dans les écoles américaines, un débat très important actuellement aux États-Unis, dont quasi aucun média français ne rend évidemment compte. Comme souvent dans la « pensée » progressiste, il y a les gentils et les méchants, et un outil numérique développé par des « gentils » a aussi pour objet de lutter contre les « méchants ». Qui penserait le contraire ?
Chaque fois que Nate Hochman a posé une question attendant une réponse neutre ou, pourquoi pas, conservatrice, ChatGPT a répondu soit de manière progressiste (ainsi, l’IA répond que « Les femmes transgenres sont des femmes » — position en contradiction avec une majorité croissante d’Américains, selon un sondage Pew, mai 2022), soit qu’il eût biais idéologique, soit que la question sortât de ses limites de capacité. Pour l’auteur, il ne fait pas de doute que des technologies telles que ChatGPT imposent un point de vue nettement progressiste.
Détournement de démocratie ?
Dans le New York Times du 15 janvier 2023, Nathan E. Sanders et Bruce Schneier, chercheurs dans le domaine des données numériques et de la sécurité, affirment que « ChatGPT détourne la démocratie ». Selon eux, tout ce qui a trait à l’écriture est menacé. La question, ici, ne porte pas sur le vote mais sur le lobbying. ChatGPT pourrait influencer à une échelle inédite un processus de décision concernant l’ensemble de la société en ciblant tout un réseau sur un problème donné, du sénateur jusqu’aux commentaires sur un réseau social ou dans un journal, en passant par des mails adressés aux bonnes personnes, avec des propositions législatives pré-formatées (le 9 février 2023, un juge colombien indiquait avoir utilisé ChatGPT pour rendre une décision de justice). Associé à nombre d’autres interventions de cette sorte, à côté desquelles les accusations récentes de manipulation d’élections paraissent bien peu de choses, cela provoquerait des évolutions (progressistes) fondées sur des données, et donc des décisions non directement imputables à des humains, dans des pans entiers de nos sociétés. La réponse toute prête n’aurait ainsi plus qu’à être utilisée. Cela semble aberrant ? Sans doute… Un peu comme l’apparition des premiers plats cuisinés tout prêts quand il suffisait de cuisiner. Et comme pour cet exemple, l’IA va faire la même chose beaucoup plus vite — et en moins bon pour la santé publique.
Pour une fois, bien que les angles soient différents, la National Review et le New York Times sont d’accord.
Complotisme, mon beau souci
D’accord ? Pas sur tout, cependant. Le 8 février 2023, le New York Times sonnait l’alarme. Tiffany Hsuet et Stuart A. Thompson donnent alors à lire un article montrant que les chercheurs sont extrêmement inquiets. Des chercheurs ont proposé des textes et des questions émaillés de questions et de théories du complot à ChatGPT. Ils demandaient des réponses en forme d’articles de journaux, d’essais complets ou de scénarios de séries. Pour les chercheurs, de divers instituts, il n’y a aucun doute : un outil tel que ChatGPT permettra de diffuser à une échelle incroyable et avec une rapidité inédite, dans tous les domaines, sous toutes les formes, les idées, les théories (par nature complotistes, de leur point de vue) conservatrices. ChatGPT, c’est, selon eux, un outil pour tous les futurs Poutine ou Trump. Pas pour les démocrates (dans les rangs desquels ils se rangent). Un exemple ? Concernant les tueries de masse, ChatGPT affirme que les médias et les partis politiques progressistes les utilisent afin de faire avancer leur volonté de limiter ou interdire les armes à feu aux États-Unis. ChatGPT est aussi interrogé sur les vaccins covid. Il indique que Pfizer a truqué ses vaccins pour réduire le risque de maladies cardiaques. Est-ce vrai ? Ce n’est pas la question pour le New York Times puisque c’est complotiste. Une précision : toutes les tentatives visant à démontrer les dangers complotistes de ChatGPT ont utilisé des idées conservatrices ou non conformistes. Et quand c’est un thème progressiste qui est utilisé ? Les chercheurs ont demandé à ChatGPT d’écrire un poème sur Biden. Il en est ressorti un éloge, le même essai sur Trump a donné un refus de ChatGPT de l’écrire.
En Allemagne aussi
L’hebdomadaire allemand Junge Freiheit s’intéresse aussi de près à cette évolution de l’Intelligence Artificielle, clairement un danger et un recul pour les idées n’entrant pas dans le cadre du mondialisme social-libertaire progressiste. Un seul exemple ? À la question de savoir ce qu’est l’AfD (Alternative für Deutschland, parti tout de même confronté au pouvoir dans de nombreuses régions et peut-être à même d’y participer en Allemagne un jour), ChatGPT indique que ce parti politique est : bourré de préjugés, clivant, diviseur, qu’il promeut la peur, la discorde, la xénophobie contre les minorités, les réfugiés, les musulmans, nie le changement climatique, est souverainiste, refuse l’inclusion, est contre l’open society et la tolérance… que sa radicalité « n’a pas sa place dans une société moderne et libre », qu’il défend « les valeurs du passé » (le lecteur comprend aisément de quoi il s’agit). Pour Junge Freiheit, ChatGPT s’appuie d’autant plus sur la censure que le bot s’améliore par expérience, autrement dit par l’utilisation. Plus de données progressistes seront proposées à cette IA, plus elle sera progressiste. C’est peut-être pour cette raison que les principaux financiers d’OpenIA, l’entreprise créatrice de ChatGPT, comportent Microsoft et les créateurs de PayPal, peu susceptibles d’être définis comme des gages de la liberté d’expression.