Qu’il s’agisse d’un appel authentique ou d’une façon cynique de se faire de la publicité, OpenAI a lancé un appel à une régulation mondiale de l’Intelligence Artificielle. L’appel émane des cadres de l’entreprise qui a mis au point et lancé sur le marché ChatGPT.
Un danger pour l’humanité ?
Les cadres d’OpenAI appellent ainsi à une régulation mondiale de l’Intelligence artificielle, indiquant que dans les dix prochaines années l’humanité sera confrontée à de nombreux risques d’une Intelligence Artificielle dotée d’une super-intelligence. Venant de la société mère de ChatGPT, il semble difficile de voir un coup de publicité, même si en cette matière tout reste possible, tant OpenAI et ChatGPT semblent ne pas en avoir besoin. Les cadres concernés ne sont pas n’importe lesquels : Sam Altman, Greg Brockman et Ilya Sutskever. La tête de pont d’OpenAI en somme. Ils appellent à un encadrement strict de l’intelligence artificielle, au sein d’une note publiée lundi 22 mai 2023 sur le site de la société. Les systèmes d’IA seraient proches d’un tournant. Et l’humanité presque dépassée, si ce n’est pas déjà le cas.
Une humanité face-à-face avec une super-intelligence
Selon les fondateurs et dirigeants d’OpenAI, « La super-intelligence sera plus puissante que les autres technologies auxquelles l’humanité a dû faire face dans le passé ». Et si des limites devraient être posées rapidement, une action à l’échelle mondiale serait d’ores et déjà une urgence concernant l’Intelligence Artificielle Générale (AGI).
Un leurre pour éviter les contraintes nationales ?
Dans leur note, les trois spécialistes comparent les risques à ceux posés par le nucléaire, indiquant que l’Intelligence Artificielle dépassera dans dix ans les compétences de la plupart des experts. Il y aurait ainsi un « risque existentiel » pour les sociétés humaines. Comme la survenue d’une super-intelligence n’est pas une probabilité mais un fait certain et prochain, la question serait donc d’en contrôler les normes à l’échelle internationale, un peu à l’image du nucléaire. L’un des points de vue exprimés par OpenAI quant à cette agence de contrôle semble cependant naïf. Pour eux, ce contrôle devrait être démocratique et le fait des citoyens utilisateurs. Le lecteur peine à croire en une telle éventualité ? Tant que l’Intelligence Artificielle est régulée nationalement, OpenAI doit s’adapter aux lois de chaque pays… Cet appel pourrait bien n’être en réalité qu’un artifice plus ou moins intelligent afin d’éviter cette contrainte.