Ojim.fr
PUBLICATIONS
Yann Barthès, Dilcrah, Netflix, Frontex, Bellingcat... Découvrez les publications papier et numériques de l'Observatoire du journalisme.
→ En savoir plus
PUBLICATIONS
Yann Barthès, Dilcrah, Netflix, Frontex, Bellingcat... Découvrez les publications papier et numériques de l'Observatoire du journalisme.
→ En savoir plus
L’humanité serait en danger, selon les fondateurs d’OpenAI

7 juin 2023

Temps de lecture : 3 minutes
Accueil | Veille médias | L’humanité serait en danger, selon les fondateurs d’OpenAI

L’humanité serait en danger, selon les fondateurs d’OpenAI

Temps de lecture : 3 minutes

Qu’il s’agisse d’un appel authentique ou d’une façon cynique de se faire de la publicité, OpenAI a lancé un appel à une régulation mondiale de l’Intelligence Artificielle. L’appel émane des cadres de l’entreprise qui a mis au point et lancé sur le marché ChatGPT.

Un danger pour l’humanité ?

Les cadres d’OpenAI appel­lent ain­si à une régu­la­tion mon­di­ale de l’Intelligence arti­fi­cielle, indi­quant que dans les dix prochaines années l’humanité sera con­fron­tée à de nom­breux risques d’une Intel­li­gence Arti­fi­cielle dotée d’une super-intel­li­gence. Venant de la société mère de Chat­G­PT, il sem­ble dif­fi­cile de voir un coup de pub­lic­ité, même si en cette matière tout reste pos­si­ble, tant Ope­nAI et Chat­G­PT sem­blent ne pas en avoir besoin. Les cadres con­cernés ne sont pas n’importe lesquels : Sam Alt­man, Greg Brock­man et Ilya Sutskev­er. La tête de pont d’OpenAI en somme. Ils appel­lent à un encadrement strict de l’intelligence arti­fi­cielle, au sein d’une note pub­liée lun­di 22 mai 2023 sur le site de la société. Les sys­tèmes d’IA seraient proches d’un tour­nant. Et l’humanité presque dépassée, si ce n’est pas déjà le cas.

Une humanité face-à-face avec une super-intelligence

Selon les fon­da­teurs et dirigeants d’OpenAI, « La super-intel­li­gence sera plus puis­sante que les autres tech­nolo­gies aux­quelles lhuman­ité a dû faire face dans le passé ». Et si des lim­ites devraient être posées rapi­de­ment, une action à l’échelle mon­di­ale serait d’ores et déjà une urgence con­cer­nant l’Intelligence Arti­fi­cielle Générale (AGI).

Un leurre pour éviter les contraintes nationales ?

Dans leur note, les trois spé­cial­istes com­par­ent les risques à ceux posés par le nucléaire, indi­quant que l’Intelligence Arti­fi­cielle dépassera dans dix ans les com­pé­tences de la plu­part des experts. Il y aurait ain­si un « risque exis­ten­tiel » pour les sociétés humaines. Comme la sur­v­enue d’une super-intel­li­gence n’est pas une prob­a­bil­ité mais un fait cer­tain et prochain, la ques­tion serait donc d’en con­trôler les normes à l’échelle inter­na­tionale, un peu à l’image du nucléaire. L’un des points de vue exprimés par Ope­nAI quant à cette agence de con­trôle sem­ble cepen­dant naïf. Pour eux, ce con­trôle devrait être démoc­ra­tique et le fait des citoyens util­isa­teurs. Le lecteur peine à croire en une telle éven­tu­al­ité ? Tant que l’Intelligence Arti­fi­cielle est régulée nationale­ment, Ope­nAI doit s’adapter aux lois de chaque pays… Cet appel pour­rait bien n’être en réal­ité qu’un arti­fice plus ou moins intel­li­gent afin d’éviter cette contrainte.

Nous avons publié une série d’articles sur l’IA, ChatGPT et les médias

Voir aussi

Vidéos à la une

Derniers portraits ajoutés