Deepfakes : Infocalypse Now?

Jennifer Lawrence-Buscemi on her favorite housewives
(Source: https://www.telerama.fr/sites/tr_master/files/styles/simplecrop1000/public/deepfake_0.jpg?itok=Ms2dFW-H)

Le deepfake est le nouveau trouble-fête dans l’horizon informationnel. Il s’agit d’une technique de synthèse d’images qui met à profit le deep learning pour créer des vidéos truquées déconcertantes de réalisme. Son fonctionnement repose sur la mise en concurrence de deux réseaux neuronaux : l’un crée des contenus artificiels, l’autre identifie et discrimine les images qui nous feraient penser qu’il s’agisse d’un faux. Le générateur « apprend » et affine sa méthode pour créer des truquages de plus en plus difficiles à discerner [1].

Tantôt impressionnants dans leur capacité à ressusciter les morts, tantôt drôles, les deepfakes peuvent aussi se montrer effrayants lorsqu’on comprend qu’il s’agit d’une technologie à la portée de n’importe quel esprit malveillant – par exemple pour créer une sex tape de quelqu’un à qui l’on voudrait nuire.

Le visage de l’actrice Gal Gadot sur le corps d’une actrice pornographique
(Source: https://video-images.vice.com/articles/5a2ed1a79591232f402b13ba/lede/1513018103056-Screen-Shot-2017-12-11-at-120730-PM.png?crop=0.9478722028198162xw:1xh;center,center&resize=1400:*)

D’ailleurs à ce jour, 96% des deepfakes sont effectivement des contenus pornographiques, avec les conséquences parfois dramatiques que cela peut avoir sur la vie des individus concernés. Mais mettons-nous un instant dans la tête d’un « méchant » dans James Bond et apprécions le potentiel destructeur que pourrait avoir cette technologie à l’échelle d’une société dans son ensemble : qu’aurait comme effet l’apparition d’une vidéo où nous voyons Joe Biden s’entretenir avec son équipe de campagne, se félicitant d’avoir truqué avec succès les élections américaines ?

Ou que pensez-vous qu’aurait fait Donald Trump en 2016 quand a été diffusé l’enregistrement où on l’entend tenir les fameux propos misogynes « Grab Her by the Pussy » si la technologie des deepfakes avait déjà été disponible ? Aucun doute qu’il aurait tout nié en bloc. Les deepfakes facilitent le mensonge et les mots d’Hannah Arendt (Lubtchansky et Errera 1974) sont terrifiants d’actualité :

« Quand tout le monde vous ment en permanence, le résultat n’est pas que vous croyez ces mensonges mais que plus personne ne croit plus rien. »

-Hannah Arendt

Infocalypse imminente?

Mais alors, l’« infocalypse » est-elle imminente ? Pourrons-nous encore arrêter l’« infodémie »? Sommes-nous définitivement entrés dans l’ère de la post-vérité ? À se fier au champ lexical alarmiste utilisé par certains observateurs, les deepfakes sonneraient le glas de notre société de l’information : We’re All Fucked !

C’est aller un peu vite en besogne ! Paradoxalement nous oublions ici de prendre un peu recul et de nous tourner vers l’information consignée du passé : l’Histoire. Et celle-ci nous le montre bien : nous ne sommes pas face à un phénomène nouveau. « Les images sont instrumentalisées depuis très longtemps. La technologie deepfake marque juste une accélération du processus » (Jerôme 2019) nous assure l’historien du visuel Laurent Gervereau.

Si nous sommes tant déroutés quand on nous apprend qu’on ne peut désormais plus croire ce qu’on voit, c’est que le document audiovisuel avait jusque-là cet « accent de vérité » (Chabin 2014, p. 12). D’autre part, la notion de contexte, si importante pour la critique de l’information écrite, est largement laissée de côté dans le cas des documents audiovisuels pour des raisons historiques : jusqu’il y a peu, les documents audiovisuels étaient majoritairement des publications et non des traces d’un processus administratifs comme le sont les archives classiques (Chabin 2014, pp. 12-13).

Seulement, les temps ont changé et la réalisation de vidéos s’est totalement démocratisée grâce aux téléphones portables, inondant l’infosphère de vidéos : d’ici 2021, les vidéos sur internet représenteront 82 % du trafic internet mondial. Le statut d’exception qu’on attribuait au format audiovisuel va s’atténuer, sans doute que leurs truquages vont eux-aussi se normaliser – quand les deepfakes étaient encore peu connus, les clichés étaient considérés comme une preuve absolue, mais sous peu la société va prendre une certaine distance face à ce média (Dugoin-Clément 2020).

Donc tout va bien?

(Source: https://i.kym-cdn.com/photos/images/original/001/401/347/312.jpg)

Attention, le but ici n’est certainement pas de minimiser le danger potentiel des deepfakes, bien au contraire. La visée de ce billet est d’inciter à ne pas céder à un certain fatalisme. La situation est sérieuse, mais des solutions existent :

  • Combattre le feu par le feu – “What if only a machine could defeat another machine?” s’interroge le personnage d’Alan Turing dans The Imitation Game (Tyldum 2014). Ainsi par exemple Jigsaw (Google) entraîne de puissants logiciels à détecter les deepfakes.
  • D’autre part il faut à tout prix impliquer les diffuseurs de l’information : les plateformes et modérateurs. Ainsi Facebook et Twitter ont (enfin) reconnu le problème et ont réagi en mettant à jour leur politique.

Cependant, avant toute chose des efforts doivent aussi être investis dans les utilisateurs. Entretenir leur esprit critique, certes, mais également leur donner les moyens de pouvoir déconstruire les « faux » et cela passera par la contextualisation des documents audiovisuels truqués.

Pour reconstituer le contexte (qui est le producteur ? quand et de quelle manière les images ont-elles été prises ? et pourquoi?) il faut donc urgemment améliorer l’archivage d’internet, sachant qu’actuellement, le contexte historique de notre histoire numérique récente est en grande partie assumée par des archivistes bénévoles et par l’organisme à but non lucratif Internet Archive (Edwards 2020). Agissons!



[1] Pour en apprendre plus sur le fonctionnement technique des deepfakes et leur application, lire l’excellent billet de blog d’Alexia « Je crois ce que je vois » : remise en question à l’ère du deepfake, 07.12.2020, également sur Recherches d’IdéeS.

Bibliographie

CHABIN, Marie-Anne. 2014. « Qu’est-ce qu’une archive audiovisuelle ». E-dossier de l’audiovisuel : L’extension des usages de l’archive audiovisuelle [en ligne]. Mars 2014. pp 7-15. [Consulté le 29 novembre 2020]. Disponible en ligne à l’adresse : https://laurentmartinblog.files.wordpress.com/2014/12/lextension-des-usages-de-l-archive-juin2014.pdf

DUGOIN-CLEMENT, Christine. 2020. Les « deepfakes », ces fausses vidéos créées pour nous influencer. The Conversation [en ligne]. 20 février 2020. [Consulté le 29 novembre 2020]. Disponible en ligne à l’adresse : https://theconversation.com/les-deepfakes-ces-fausses-videos-creees-pour-nous-influencer-131783

EDWARDS, Benj. 2020. Fake video threatens to rewrite history. Here’s how to protect it. Fast Company [en ligne]. 3 octobre 2020. [Consulté le 29 novembre 2020]. Disponible à l’adresse : https://www.fastcompany.com/90549441/how-to-prevent-deepfakes

ERTZSCHEID, Olivier. 2017. Gal Gadot fait du porno. Lost in falsification. Affordance.info [en ligne]. 17 décembre 2017. [Consulté le 29 novembre 2020]. Disponible en ligne à l’adresse : https://www.affordance.info/mon_weblog/2017/12/gal-gadot-porno-politique-faux-document.html

JEROME, Benjamin. 2019. Deepfakes: “L’image a toujours été instrumentalisée » [entretien avec Laurent Gervereau]. Le Parisien [en ligne]. 29 octobre 2019. [Consulté le 29 novembre 2020]. Disponible en ligne à l’adresse : https://www.leparisien.fr/high-tech/deepfakes-l-image-a-toujours-ete-instrumentalisee-25-10-2019-8180157.php

LUBTCHANSKY Jean Claude et ERRERA Roger [réalisateurs]. 1974. Un certain regard, Film d’entretiens entre Hannah Arendt et Roger Errera, New York, 1973 [enregistrement vidéo]. YouTube [en ligne]. 1974. [Consulté le 29 novembre 2020]. Disponible en ligne à l’adresse : https://www.youtube.com/watch?v=cK3TMi9GqwE

TYLDUM, Morten [réalisateur]. 2014. The Imitation Game [film]. Etats-Unis : Bear Pictures.

WARZEL Charlie. 2018. He Predicted The 2016 Fake News Crisis. Now He’s Worried About An Information Apocalypse. BuzzFeed [en ligne]. 11 février 2018. [Consulté le 29 novembre 2020]. Disponible en ligne à l’adresse : https://www.buzzfeednews.com/article/charliewarzel/the-terrifying-future-of-fake-news

Carnet d'IdéeS - blog du Master IS

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *