Coup de projecteur sur la restitution officielle des États généraux de l’information 2024. Deuxième partie : les propositions et recommandations du groupe de travail « Espace informationnel et innovation technologique ».
Alors qu’un premier article présente les principales propositions et recommandations émises par le Comité de pilotage de ces EGI, et en éclaire les atouts et lacunes, le présent article propose un coup de projecteur sur ce qui ressort des rapports rédigés à l’issue de cet exercice par le groupe de travail « Espace informationnel et innovation technologique », présidé par Sébastien Soriano, directeur général de l’Institut national de l’information géographique et forestière. Il sera suivi de deux autres consacrés aux 4 autres groupes de travail constitués lors de ces EGI.
Ruptures technologiques
Ce thème aborde des questions cruciales tenant aux ruptures technologiques induites par l’intervention, désormais systématique dans l’espace informationnel, du numérique et de l’intelligence artificielle (et plus particulièrement de l’IA générative) et de nouveaux types d’acteurs — qui y sont associés de l’amont à l’aval des chaînes de valeur qui s’y déploient, au point de conduire peu ou prou le journalisme, les médias et même l’information à changer de nature et à devoir affronter de nouvelles menaces.
La place privilégiée que ce thème semble avoir occupé dans l’esprit des membres du comité de pilotage illustre – tout en les justifiant – les inquiétudes particulières que de telles ruptures et menaces peuvent faire naître dans cet espace informationnel. Une part prépondérante des propositions émises par le comité de pilotage provient en effet des travaux et propositions émises par ce groupe de travail.
Constats et recommandations
Six constats majeurs ont été posés par ce groupe de travail, à savoir :
- La nouvelle donne numérique est porteuse de bénéfices et de risques informationnels
- Les algorithmes jouent un rôle déterminant dans l’expérience des utilisateurs
- Ces algorithmes servent le modèle économique des plateformes de réseaux sociaux
- Les systèmes d’intelligence artificielle générative concurrencent les médias en matière de production d’information
- Telles qu’elles se développent, les technologies ne permettent pas un modèle économique soutenable pour les médias
- Les innovations technologiques bouleversent notre rapport même à l’information
À partir de ces constats, des analyses expertes ont permis de dégager sept recommandations détaillant leurs enjeux, les modalités de leur mise en œuvre et leur faisabilité juridique et technique.
Sept propositions
Les sept propositions émises par le groupe de travail sont les suivantes :
- Proposition 1 : Faire vivre un pluralisme des algorithmes ;
- Proposition 2 : Ajouter une distribution obligatoire des contenus d’information aux obligations des très grandes plateformes numériques ;
- Proposition 3 : Pousser les éditeurs de contenus à se rassembler pour protéger et monnayer leurs droits face aux plateformes numériques et aux entreprises d’IA ;
- Proposition 4 : Consacrer un statut spécifique d’influenceurs à large audience pour mieux encadrer les super-propagateurs de fausses informations ;
- Proposition 5 : Soutenir la croissance de l’espace informationnel, en garantissant l’accès aux données utiles ainsi que l’auditabilité des systèmes algorithmiques ;
- Proposition 6 : Imposer des obligations de transparence aux annonceurs et aux responsables des achats pour leur compte ;
- Proposition 7 : Confier à un régulateur indépendant la mission de faire vivre ces mesures dans la durée.
Et trois messages
De façon transversale, trois grands messages portent ces propositions : aller vers un pluralisme des algorithmes ; responsabiliser le secteur, grands acteurs du numérique comme annonceurs ; penser le « dernier kilomètre » de la régulation pour veiller au bon respect des obligations tout en animant le secteur et en s’appuyant sur des données fiables pour éclairer les arbitrages.
« Si elles sont présentées par ordre de priorité, les sept recommandations […] sont complémentaires entre elles. Elles visent deux objectifs principaux :
→ Promouvoir le choix et l’auditabilité algorithmique pour réduire la prégnance des contenus toxiques – au premier rang desquels les fausses informations – sur les plateformes numériques. Cet objectif est décliné par les propositions 1, 4 et 5. Il s’agit dans ces trois cas de sortir d’une régulation confiant aux plateformes le soin de résoudre le problème posé par leurs propres algorithmes en conférant aux utilisateurs le pouvoir de choisir et de configurer leurs algorithmes de recommandation et de modération, en durcissant l’encadrement des influenceurs en ligne pour mieux lutter contre les super-propagateurs et en renforçant et en garantissant l’accès aux données pour les chercheurs leur permettant d’auditer les algorithmes des plateformes.
→ Assurer aux médias un modèle économique pérenne à l’ère numérique, enjeu majeur pour ces acteurs mais également pour la société dans son ensemble au regard de l’importance démocratique fondamental d’une information fiable, de qualité et pluraliste. Les propositions 2, 3 et 6 sous-tendent cet objectif afin de rendre les contenus médiatiques plus visibles parmi le flot ininterrompu de contenus en ligne, d’assurer que les contenus médiatiques soient traçables, protégés et dûment rémunérés à l’heure de l’IA générative et que la publicité en ligne ne soit plus investie majoritairement sur les plateformes numériques au détriment des médias. Enfin, sans régulateur (proposition 7), ces propositions risqueraient de n’être que des mesures d’auto-régulation, nuisant à leur efficacité. Il est donc fondamental d’adosser ces propositions à un régulateur clairement identifié, doté de moyens humains et financiers suffisants, aux compétences clairement définies et disposant de moyens de sanctions.
Dans l’ensemble, le groupe a mené un travail approfondi pour inscrire l’ensemble de ces propositions dans les dispositions légales et réglementaires françaises et européennes et ainsi maximiser la faisabilité opérationnelle de celles-ci. » (extrait du rapport)
Rigueur technique et juridique
Force est de reconnaître que la composition du groupe de travail, les expertises mobilisées et la méthodologie retenue ont permis de l’aborder avec une compétence et une rigueur techniques et juridiques que reflète parfaitement la qualité remarquable de cette partie importante du rapport global[i] (pages 67 à 116), comme celle des fiches thématiques produites lors de ces travaux[ii] qui ont en effet permis d’aborder les points cruciaux ayant trait aux sujets suivants :
- Les droits voisins et le partage de la valeur dans l’espace numérique informationnel
- Les algorithmes des plateformes
- Éditeur ou hébergeur : vers un troisième statut pour les plateformes ?
- Intelligence artificielle générative et création de contenu informationnel
- Innovations technologiques et accès à l’information
- Le cadre européen de régulation numérique
- Économie de l’attention, économie de la désinformation ?
Avec quelques lacunes
Néanmoins, et sans que ces observations cherchent à en minimer l’intérêt, nous devons relever quelques lacunes dans la démarche poursuivie.
1. Cette situation tenant probablement autant aux orientations et instructions délivrées lors du lancement de ces travaux qu’aux statuts publics des principaux rédacteurs et aux réserves plus ou moins légitimes qu’ils leur imposent, il ressort à la fois un certain angélisme qui se manifeste notamment par l’occultation de certaines sources et natures de menaces qui motiveraient elles aussi des préconisations contraignantes, ainsi qu’un « parti pris idéologique » — que nous pourrions qualifier d’ « informationnisme » — conduisant non seulement à ignorer certaines catégories de médias (médias internationaux, médias indépendants alternatifs, etc.) et de contenus mais aussi à promouvoir de manière délibérée les contenus informationnels revêtant certaines garanties plus par principe que par objectivité dans l’espace informationnel numérique global ; ici comme ailleurs, les experts mobilisés ont pris le parti de considérer des situations ou les contenus d’information en jeu ne souffraient d’aucune imperfection (imprécision / approximation / incomplétude ; incertitude / invérifiabilité / indécidabilité / non fiabilité ; confidentialité ; etc.) dans un univers informationnel idéal artificiellement « objectivé » qui offrirait la totalité des données utiles à leur production (principe du tiers exclu) selon des schémas binaires (vrai / faux, oui / non) et qui n’accorderait à la subjectivité des agents et des regards portés qu’une valeur infime, sinon négligeable, prenant ainsi le risque d’œuvrer à l’invisibilité, par leur neutralisation et/ou leur disqualification, d’informations importantes sans qu’en aient été préalablement pertinemment examiner leur intégrité et leur intérêt.
2. Bien que se prévalant d’avoir pris un soin particulier à intégrer la dimension internationale des problématiques examinées, le groupe de travail semble avoir occulté des données et acquis internationaux pourtant fondamentaux dans sa démarche.
S’en inspirant probablement quelque part, ne serait-ce qu’en raison du rôle majeur qu’a tenu le président du comité de pilotage Christophe Deloire dans leur élaboration, les préconisations formulées par ce groupe de travail ne reflètent pas véritablement, dans toute leur potentialité créatrice et réformatrice, ni l’esprit et le souffle de l’Initiative internationale sur l’information et la démocratie qui a pour but de mettre en oeuvre des garanties démocratiques dans l’espace global de la communication et de l’information, en offrant une réponse structurelle au chaos informationnel qui menace la démocratie, les droits fondamentaux et la poursuite des Objectifs de développement durable (ODD)[iii], ni ceux des Principes mondiaux des Nations unies pour l’intégrité de l’information[iv] publiés le 24 juin 2024, qui établissent une importante feuille de route internationale pour renforcer l’intégrité de l’information (voir plus particulièrement les éléments relatifs aux incitations saines, à la responsabilisation du public, ainsi qu’aux médias indépendants, libres et pluralistes), ni ceux des principes fondamentaux du droit international de l’information[v] souvent dérivés de conventions internationales, comme le Pacte international relatif aux droits civils et politiques (PIDCP), qui garantit la liberté d’expression et d’information, ou encore ceux de la législation en matière de propriété intellectuelle, comme les accords administrés par l’Organisation Mondiale de la Propriété Intellectuelle (OMPI), qui joue également un rôle clé en établissant comment l’information et les créations intellectuelles sont protégées et partagées à travers les frontières.
3. L’ambition de lutter contre la manipulation de l’information, que ce soit ou non en ligne, à partir de moyens techniques aussi sophistiqués soient-ils, présente des difficultés juridiques considérables tenant d’abord à la qualification en droit d’« une fausse information », et ensuite à l’établissement du caractère effectivement délictuel de sa mise à la disposition du public.
Or, les différents documents qui rendent compte de ses travaux ne comportent aucune définition ni hypothèse de travail ayant trait aux concepts et notions essentielles d’information, d’intégrité de l’information, de désinformation, etc. convoquées dans le développement des idées et des thèses soutenues. S’il n’existe pas de définition universellement acceptée de ces termes, notamment en France quand bien même des esquisses commencent à émerger de certains processus législatifs et juridictionnels[vi], les entités des Nations Unies ont formulé des définitions opérationnelles dans une note d’orientation rendue publique en juin 2023[vii]. La Rapporteuse spéciale sur la promotion et la protection du droit à la liberté d’opinion et d’expression des Nations Unies définit la désinformation comme « la diffusion intentionnelle d’une fausse information en vue de causer un préjudice social grave ». L’Organisation des Nations Unies pour l’éducation, la science et la culture (UNESCO) utilise le terme « désinformation » pour décrire des contenus faux ou trompeurs qui peuvent causer un préjudice particulier, indépendamment des intentions, du degré de conscience et des comportements qui sous-tendent leur production et leur diffusion. Par ailleurs, l’Union européenne a dédié à lutte contre la propagation de la désinformation et de la désinformation en ligne de nombreux processus et instruments qui s’articulent autour des éléments de définition suivants : « La désinformation est un contenu faux ou trompeur qui est diffusé dans l’intention de tromper ou d’obtenir un gain économique ou politique, et qui peut causer un préjudice public. La désinformation est un contenu faux ou trompeur partagé sans intention nuisible, bien que les effets puissent encore être nocifs. »[viii].
Ces différents éléments participent à créer une complexité juridique telle qu’est finalement laissée à l’appréciation du juge la responsabilité de qualifier toute information soupçonnée d’être l’objet d’un délit comme manifestement fausse, manipulée, ou trompeuse, dénuée de tout lien avec des faits réels, ou, a contrario, comme fiable et de qualité, et de déterminer l’intentionnalité délibérée et la mauvaise foi éventuelles de son auteur lors de son usage à destination de tiers. Dès lors se pose la question fondamentale de la capacité effective pour des éditeurs, hébergeurs ou diffuseurs de contenus informationnels de trancher de manière humaine ou algorithmique à l’égard de leur fausseté éventuelle, comme du caractère éventuellement délictuel de leur mise à la disposition du public, les obligeant à faire appel aux compétences et processus des opérateurs de vérification des faits et d’établissement des preuves.
4. Alors que l’Etat français, en cohérence avec l’approche européenne en la matière, amplifie la dématérialisation et la technologisation des différents processus de médiation qui interviennent dans l’espace public et/ou en interaction avec lui, en même temps qu’il présente la gouvernance et la régulation « par la donnée » ainsi que la blockchain comme les alpha et omega du cyberespace, offrant ainsi aux entreprises technologiques (principalement nord-américaines) la maîtrise (quasi souveraine) des usages licites et illicites des données publiques et privées, et donc la possibilité d’en altérer l’intégrité, la confiance placée par le groupe de travail – et le comité de pilotage – dans les instruments législatifs et juridiques nationaux et européens pour répondre aux niveaux d’effectivité, d’efficacité et d’efficience attendus aux défis et menaces identifiés semble quelque peu excessive si l’on en juge aux contentieux de plus en plus nombreux qui opposent les opérateurs de services numériques et plateformes hébergeant ou produisant des contenus informels aux régulateurs publics nationaux et européens (cf. par exemple le contentieux relatif à l’utilisation illicite par la société Linkedin, propriété de Microsoft, des données des internautes pour établir des modèles d’intelligence artificielle).
5. Enfin, le caractère (très/trop ?) global et systémique, voire même systématique, des investigations opérées sur les différents registres identifiés ci-dessus qui s’est traduit par une indifférenciation / décorrélation des analyses en fonction de la variété des situations (courante, de crise, de guerre, d’urgence, etc…), des finalités (actualité, enquête, prévision, sondage, influence, manipulation[ix], etc.) et des domaines (politique, économique, sociétal, social, géopolitique, diplomatique, scientifique, technologique, météorologique, etc.) n’a pas permis de dégager des spécificités pertinentes qu’auraient pu faire apparaître des explorations peut-être moins brillantes mais plus exhaustives permettant de mieux embrasser la globalité des situations, des jeux et des enjeux.
Nous terminons ce coup de projecteur en soulignant qu’il semble illusoire de penser que des réponses nationales, fut-elles juridiques, pourront relever seules les défis identifiés ici.
Notes
[i] Cf. Le rapport des États généraux de l’information
[ii] Cf. Les fiches thématiques produites par le groupe « Espace informationnel et innovation technologique des États généraux de l’information »
[iii] Cette initiative a engendré deux résultats majeurs :
- La signature par 54 pays du Partenariat international sur l’information et la démocratie qui définit les principes de l’espace global de la communication et de l’information et appelle les plateformes qui le structure à les mettre en œuvre,
- La création du Forum sur l’information et la démocratie par 11 organisations de la société civile pour développer ces principes et formuler des recommandations concrètes pour sa régulation et l’autorégulation des acteurs. (NB : Le secrétariat permanent du Forum est soutenu par Reporters sans frontières (RSF).) Cf. Forum sur l’information et la démocratie ainsi que Déclaration internationale sur l’information et la démocratie
[iv] Les Principes mondiaux des Nations unies pour l’intégrité de l’information créent un cadre holistique pour guider l’action des différentes parties prenantes en vue d’un écosystème de l’information plus sain. Ce cadre consiste en cinq principes de renforcement de l’intégrité de l’information qui ont tous en commun un engagement inébranlable en faveur des droits de l’homme (confiance et résilience de la société ; médias indépendants, libres et pluralistes ; transparence et recherche ; responsabilisation du public ; et incitations saines), chacun d’entre eux comprenant des recommandations à l’intention des principaux groupes de parties prenantes. En plus d’être fondés sur le droit international, y compris le droit international des droits de l’homme, les Principes mondiaux s’appuient sur les idées proposées dans la note d’orientation n°8 du Secrétaire général des Nations ; ils complètent les Principes directeurs des Nations Unies relatifs aux entreprises et aux droits de l’homme, les Lignes directrices de l’UNESCO pour la gouvernance des plateformes numériques, le Plan d’action des Nations Unies sur la sécurité des journalistes et la question de l’impunité, la Recommandation de l’UNESCO sur l’éthique de l’intelligence artificielle et la Stratégie et le Plan d’action des Nations Unies pour la lutte contre les discours de haine. Cf. Principes mondiaux pour l’intégrité de l’information
[v] Cf. Droit international de l’information : guide essentiel
[vi] La qualification en droit d’« une fausse information », qui diffère de la qualification en droit d’ « une fausse nouvelle » telle que l’établit la loi sur la liberté de la presse de 1881, n’a été établie en France qu’à l’occasion des débats parlementaires liées à la proposition de loi sur la lutte contre la manipulation de l’information de 2018. A l’issue du processus législatif, la loi adoptée (Loi n° 2018–1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l’information) – très controversée – s’abstient de fixer de manière définitive une telle qualification, et ne se fonde que sur une définition émise en commission, qui stipule que « Toute allégation ou imputation d’un fait dépourvu d’éléments vérifiables de nature à la rendre vraisemblable constitue une fausse information. »
Dans sa décision du 20 décembre 2018, le Conseil constitutionnel a émis une réserve d’interprétation sur cette notion de « fausse information ». Celle-ci ne peut s’appliquer qu’à « des allégations ou imputations inexactes ou trompeuses d’un fait de nature à altérer la sincérité du scrutin à venir. Ces allégations ne recouvrent ni les opinions, ni les parodies, ni les inexactitudes partielles ou les simples exagérations. Elles sont celles dont il est possible de démontrer la fausseté de manière objective. […] Seule la diffusion de telles allégations ou imputations répondant à trois conditions cumulatives peut être mise en cause : elle doit être artificielle ou automatisée, massive et délibérée ». Ne sont concernées que « les fausses informations délibérées, donc celles publiées avec une pleine conscience de leur caractère fallacieux et avec une claire intention de nuire ».
[vii] Cf. Note d’orientation no 8 Intégrité de l’information sur les plateformes numériques
[viii] Cf. le dossier établi par la Commission européenne sur Lutte contre la désinformation en ligne
[ix] Les spécialistes de ces questions ont identifié une trentaine de techniques de manipulation ayant fait l’objet de recherches scientifiques et dont l’efficacité est expérimentalement prouvée.