Ojim.fr
PUBLICATIONS
Yann Barthès, Dilcrah, Netflix, Frontex, Bellingcat... Découvrez les publications papier et numériques de l'Observatoire du journalisme.
→ En savoir plus
PUBLICATIONS
Yann Barthès, Dilcrah, Netflix, Frontex, Bellingcat... Découvrez les publications papier et numériques de l'Observatoire du journalisme.
→ En savoir plus
ChatGPT 4 va bien

12 avril 2023

Temps de lecture : 4 minutes
Accueil | Veille médias | ChatGPT 4 va bien

ChatGPT 4 va bien

Temps de lecture : 4 minutes

Nous vous avons déjà présenté ChatGPT et nous en avons déjà signalé certains biais. Mais le félin n’a pas fini de miauler.

ChatGPT est entré sur le marché de l’emploi

Selon Bloomberg, dans son édi­tion européenne datée du 29 mars 2023, Chat­G­PT n’aurait pas que des aspects négat­ifs. Heureuse­ment, sans doute. Ain­si, c’est un véri­ta­ble marché de l’emploi qui se dévelop­perait autour de cette nou­velle tech­nolo­gie, tan­dis qu’il est d’usage de l’accuser, prob­a­ble­ment à rai­son, de s’apprêter à détru­ire des pans entiers d’emplois qui devien­dront obsolètes. C’est peut-être le lot de l’histoire tech­nologique de l’humanité.

Le mag­a­zine en ligne remar­que que « Les appli­ca­tions à crois­sance rapi­de ont créé un marché de vendeurs pour quiconque, même les diplômés en arts libéraux, est capa­ble de les utilis­er cor­recte­ment ». La ques­tion qui se pose cepen­dant pour Bloomberg est avant tout : com­bi­en cela rap­porte-t-il ? Aux dernières nou­velles ? Jusqu’à 335 000 dol­lars par an. Cela, sans avoir besoin d’un diplôme d’ingénieur en informatique.

Le rôle étrange des « ingénieurs rapides »

De quoi s’agit-il ? Ce sont des emplois pour « ingénieurs rapi­des », employés dont le rôle est d’amener l’IA à pro­duire le résul­tat le plus per­for­mant sur un sujet don­né. Ils poussent ain­si Chat­G­PT 4 dans ses retranche­ments. Deux­ième rôle : ces « ingénieurs » ayant ce tal­ent par­ti­c­uli­er sont chargés par les entre­pris­es de « for­mer leur main‑d’œuvre pour exploiter les out­ils ». Or, Chat­G­PT n’est pas le seul sys­tème de lan­gage d’IA. Ils sont déjà plus d’une douzaine… Chat­G­PT 4 est le haut d’un ice­berg en crois­sance con­tin­ue. Pour Bloomberg, et com­ment con­tester cela, « à mesure que la tech­nolo­gie pro­lifère, de nom­breuses entre­pris­es décou­vrent qu’elles ont besoin de quelqu’un pour ajouter de la rigueur à leurs résul­tats ». Con­crète­ment, que font les employés for­més par les « ingénieurs » ? Ils rédi­gent de courts textes for­matés qui, enreg­istrés dans les bases de don­nées des IA, sont ensuite util­is­ables par les clients. C’est peut-être là que le bât blesse.

Que vaut une partie de ces articles ? L’exemple BuzzFeed

Si l’on prend l’exemple de Buz­zFeed, pas grand-chose. Dès le début de l’année 2023, le média a été clair d’emblée sur ses objec­tifs : il allait pub­li­er du con­tenu généré par IA, tout en promet­tant de veiller à ce que le niveau de ce con­tenu soit élevé. La ques­tion de savoir s’il n’était pas préférable de con­serv­er des rédac­teurs humains plutôt que de con­fi­er la rédac­tion à des IA était tranchée avant même d’être posée. La direc­tion de Buz­zFeed affir­mait que son objec­tif était juste­ment de ne pas tomber dans ce que nom­bre de ses con­fères allait, selon elle, faire : pub­li­er du con­tenu de qual­ité médiocre. Et prof­iter de ces pub­li­ca­tions pour lim­iter les coûts dans tous les domaines, à com­mencer par le domaine humain. Cela sem­blait par­tir d’une bonne inten­tion. Mais quand il y a un chat…

Voir aus­si : Buz­zfeed a une tronche de fake news

L’engagement de Buz­zFeed est déjà tombé à l’eau. Nom­bre de ses arti­cles pro­duits par l’IA sont d’une qual­ité à la fois mau­vaise et répéti­tive. Buz­zFeed n’emploie sans doute pas d’ « ingénieur rapi­de » (il est vrai que vu le salaire…). Par exem­ple, le média a pub­lié une quar­an­taine d’articles en forme de guides de voy­ages vers des des­ti­na­tions de divers­es nature. Ces arti­cles sont à la fois faibles, au point de par­fois fris­er le ridicule, répéti­tifs et comme copiés les uns sur les autres (en France, nous sommes habitués aux copiés-col­lés quo­ti­di­ens des dépêch­es AFP par ce qui reste de journaux).

La plu­part des arti­cles com­men­cent par la même ques­tion : « Je sais ce que vous pensez… ». Puis, ils indiquent le nom de la des­ti­na­tion et lui trou­vent une car­ac­téris­tique qui serait habituelle. Ain­si, pour Buz­zFeed nom­bre de lecteurs sont sus­cep­ti­bles de penser que Cape May, dans le New Jer­sey, pour­rait être une « mar­que de may­on­naise ». Pire, la des­ti­na­tion pro­posée est tou­jours et de façon affir­ma­tive le « joy­au » de la région ou du pays con­cerné. Ain­si, en gros, bien que vous con­fondiez Cape May avec de la may­on­naise, c’est en réal­ité le « joy­au » du New Jersey.

Au fur et à mesure, les IA apprenant par elles-mêmes, ces con­tenus sont inté­grés dans leurs bases de don­nées et servi­ront de base à de futures répons­es pour quiconque dans le monde s’intéresse à l’une de ces des­ti­na­tions touristiques.

Résul­tat ? Le con­tenu n’est pas seule­ment très éloigné des promess­es de la direc­tion de Buz­zFeed, il est aus­si très loin des résul­tats du per­son­nel humain de ce média. Quel exem­ple donne Buz­zFeed ? Celui de se trans­former en usine à contenu.

Ah… au fait, Chat­G­PT 5 est en approche. Les gou­verne­ments, même ceux qui inter­dis­ent ou en par­lent, vont avoir du mal à suiv­re le rythme.

Mots-clefs : , ,

Voir aussi

Vidéos à la une

Derniers portraits ajoutés