Le traditionnel floutage des visages dans les reportages télévisés est mis en danger par l’intelligence artificielle. Par prudence, France Télévisions renonce à se servir du procédé mais avec le développement d’une telle technologie, ce sont des milliers de témoins et de personnes mineures qui pourraient être exposés.
C’est une rumeur qui traîne depuis plusieurs semaines du côté de France télévisions et qui a finalement été formalisée par un article du journal Challenges. La télévision publique française craint que l’outil de floutage soit obsolète et a donc décidé de ne plus y recourir.
Un procédé utile et sécurisant… Jusqu’à présent
Le procédé est connu de tous. Lorsqu’un journaliste interroge un témoin qui s’expose en montrant son visage, il est « flouté » et sa voix est modifiée artificiellement. La méthode peut servir dans le cadre d’enquêtes en France ou à l’étranger et concerne également les mineurs dont le floutage préserve l’anonymat.
Les algorithmes génératifs seraient néanmoins en train de changer la donne avec notamment en ligne de mire les travaux sur la reconnaissance faciale, brèche sécuritaire dans laquelle la France s’engouffre à l’instar d’États comme la Chine. Si aujourd’hui les outils d’intelligence artificielle accessibles au tout-venant ne permettent pas de tromper le floutage, ils permettent déjà de contourner le floutage léger. La vitesse des progrès en matière d’intelligence artificielle peut laisser envisager que rapidement, un outil plus précis sera à la portée de tous et inévitablement entre les mains de personnes mal intentionnées.
Les floutages passés au risque d’être démasqués
Les risques sont alors multiples. Dans le cas des reportages sur les trafics de drogue, les riverains qui se seraient confiés devant les caméras pourront être démasqués par les organisations criminelles. De la même manière, les témoins qui mettent en cause les agissements d’un pays (généralement le leur) pourront être confondus par des Etats dont beaucoup connaissent un raidissement sécuritaire.
Une des grandes inquiétudes sur l’évolution en cours porte sur des milliers d’heures d’enregistrements disponible en ligne. Les nouveaux outils d’intelligence artificielle seront-ils en mesure de réétudier les visages floutés ? La sécurité potentielle de milliers de témoin pourrait alors être remise en cause. France TV prend le problème au sérieux et a décidé de ne plus diffuser les « replays » de contenus dans lesquels des visages floutés ne répondant pas aux nouvelles normes d’anonymisation.
Vivre sans le floutage
Pour faire sans et en attendant une hypothétique nouvelle technologie à la rescousse, France TV a présenté une les « bonnes pratiques déontologiques », qui impliquent de ne plus filmer les témoins dans les environnements qui leurs sont familiers (professionnel, familial, loisir…).
Face à la reconnaissance faciale, le document préconise également de filmer de dos et de laisser le visage hors-champs. Pour encore plus de précaution il est même demandé au journaliste, quand cela est possible, de solliciter une tierce personne à filmer de dos ou même à faire « rejouer » la scène d’entretien avec un journaliste. Une méthode que l’on voit déjà dans des reconstitutions d’enquête dans des magazines criminels. Si le contenu perd en « authenticité », la méthode semble néanmoins plus sécurisante pour les sources d’information.
Avatar artificiel
Dans les cas où ces techniques seraient rendues impossibles, France TV propose tout bonnement d’ajouter un cache opaque sur le visage ou d’ajouter un avatar artificiel qui sera à son tour flouté.
La « charte de l’anonymat » de France TV admet que les séquences seront « moins regardables » mais insiste néanmoins « la sécurité de nos sources est à ce prix ».
Une intégrité journalistique brandie comme étendard mais aussi une nécessité de se protéger de potentielles condamnations. En novembre 2014, France TV avait été condamnée à verser 7 000 € de dommages et intérêts à une victime de violences conjugales après la diffusion d’un reportage sur France 2.
Contrôleur de nudité
L’initiative de France Télévisions s’inscrit dans une prise de conscience plus générale du monde médiatique face au développement de l’intelligence artificielle. Le réseau social Instagram du groupe Meta (Facebook) va ainsi créer un « contrôleur de nudité » pour détecter les photos de nus envoyées à un public mineur afin de… Les flouter ! Encore faudra-t-il que les outils pour empêcher le floutage ne soient pas entre les mains de ce jeune public. La rapidité des avancées en matière d’intelligence artificielle devrait ainsi donner lieu à des combats d’ingénierie numérique interposés.