Deepfakes : la lutte est engagée

19/09/2023 - 8 min. de lecture

Deepfakes : la lutte est engagée - Cercle K2

Cercle K2 neither approves or disapproves of the opinions expressed in the articles. Their authors are exclusively responsible for their content.

Daniel Guinier est Expert de justice honoraire et ancien Expert près la Cour Pénale Internationale de La Haye.

---

La technologie invite un jour au progrès et le lendemain dévoile son côté obscur et ses effets pervers. L'ère numérique n'échappe pas à cette règle. Elle est amplifiée par la présence d'un écosystème technologique convergeant en mesure de générer rapidement des déviances sans frein pour les limiter. Ainsi, aux bienfaits du numérique, de l'Internet et de l'intelligence artificielle (IA), vient se greffer la part négative, avec notamment la désinformation de masse et l'ingérence au travers des réseaux sociaux et les deepfakes. Tandis que la nature et l'ampleur de la menace sont loin d'être connues, les phénomènes conjoints méritent la plus grande attention. Certaines conséquences ont déjà été entrevues, tant au plan des personnes que géopolitique, au point que certains dirigeants en viennent à réclamer une trêve technologique, ce qui semble impensable du fait d'intérêts discordants. Il s'agit ici d'examiner les actions à envisager.

 

Introduction

Deepfake est un terme formé à partir de "deep learning" (apprentissage profond) et fake (contrefait). Il désigne des techniques de trucage multimédia hyperréalistes reposant sur l'IA, dans l'intention de tromper en créant des canulars et de fausses informations (infox). Les quatre formes sont liées aux médias son[1], image, vidéo[2] et texte. Concernant les trois premières, il s'agit de superposer des enregistrements synthétiques de façon à reproduire l'expression du visage ou la voix d'une personne[3], à partir d'enregistrements originaux réalisés de façon classique souvent disponibles sur l'Internet, en la représentant de façon trompeuse dans une attitude ou un lieu différent, et en lui faisait prononcer des propos qu'elle n'a pas tenus. La quatrième forme relève de texte génératif pour laquelle il s'agit de coupler des modèles de langage naturel avec l'IA pour laisser croire à une création humaine. 

Ainsi avec l'IA, les médias sociaux n'auraient pas besoin d'opérateurs humains pour la création de contenu. Ceci pourrait être utilisé pour produire de fausses informations en masse sur les réseaux sociaux, en disposant de surcroit du recours aux "bots" sociaux comme vecteurs. Contrairement aux "bots" traditionnels, -programmes qui s'exécutent sur un grand nombre de machines compromises (dites "zombies") d'adresse IP pour diriger des actions malveillantes coordonnées-, les "bots" sociaux sont liés à des comptes d'appartenance à un réseau social pour interagir en temps réel. En 2016, nous avions alerté sur leur capacité d'être pris pour des humains pour ouvrir des comptes, désinformer et manipuler de façon massive en ayant recours à des fausses informations et à l'IA. Associés aux deepfakes ils pourront donc en favoriser la diffusion et l'accompagnement.

Bien des situations seront à surmonter si on en juge par ces quelques exemples, alors que l'offre en matière de génération de deepfakes ne cesse de croître sur l'Internet depuis 2016.

  • En 2017, la BBC diffuse un discours du président Barack Obama émanant d'une AI, essentiellement indiscernable de la réalité, puis en janvier 2018, une application en ligne nommée FakeApp  permet de modifier des vidéos où les visages sont permutés. A cette époque, des célébrités ont été les principales victimes de deepfakes à caractère sexuel.
  • En 2020 le directeur d’une banque reçoit un appel téléphonique d’un dirigeant d'entreprise avec qui il s’était déjà entretenu et dont il reconnaît parfaitement la voix. Ce que le banquier ne soupçonne pas, c’est que la voix est générée par une IA. Il lui est demandé d'autoriser des transferts internationaux à hauteur de 35 millions de dollars pour finaliser une acquisition. Ce type d'escroquerie bien connue dite "arnaque au président" se trouve ici "augmentée" par l’IA.
  • En 2022, une vidéo est apparue en ligne sur l'Internet montrant le président de l'Ukraine, Volodymyr Zelensky appelant ses soldats à déposer leurs armes face à l'invasion de la Russie. Bien que la vidéo soit de qualité médiocre, permettant de démasquer rapidement la supercherie, la présence virale d'une telle vidéo de meilleure qualité sur les réseaux sociaux aurait pu avoir de graves conséquences.
  • En 2023, la France a formellement accusé la Russie de mener une vaste opération d'ingérence numérique pour avoir publié de faux articles hostiles à l'Ukraine sensés édités par de grands quotidiens français, marquant ainsi un nouvel épisode de la guerre hybride menée contre les Occidentaux, sans même pour cela avoir besoin d'IA…

Il en ressort que la détection et le traitement des fausses informations, de leur origine et de leur diffusion en masse sont des défis alarmants, dans un monde où les sources d'information sont multiples et décentralisées.

 

Détection des deepfakes

Une compétition est engagée entre la génération et la détection de médias synthétiques. A partir d'une nouvelle méthode de détection, il est possible de créer un algorithme de génération capable de tromper cette dernière. Il est cependant constaté des progrès dans la robustesse et la précision de la détection, notamment en utilisant des signaux physiques et biologiques difficiles à imiter par l'IA, et en s'assurant que la détection soit généralisable et difficilement rétro-ingéniérée pour ne pas aider à développer de nouveaux générateurs de deepfakes. Enfin, le système devrait pouvoir être utilisable en soumettant tout fichier suspect au travers d'une plateforme, comme celle proposée par Intel avec FakeCatcher.

FakeCatcher[4] repose sur une technique d'exploration optique non invasive attachée aux variations du volume sanguin microvasculaire dues à la nature pulsatile de la circulation[5]. FakeCatcher recherche des indices authentiques dans des vidéos réelles en évaluant les flux sanguins tandis que le cœur pompe le sang et que les veines changent de couleur. Après un apprentissage automatique, il est possible de détecter en temps réel et avec précision si une vidéo est fausse, du fait que le bruit ajouté par toute opération générative perturbe les corrélations spatiales, spectrales et temporelles, et supprime certains signaux.

La détection peut aussi être renforcée en s'appuyant sur le mouvement facial naturel qui obéit à la structure du visage, tandis que celui des deepfakes est différent.

PhaseForensics[6] utilise l'une de ces techniques qui exploite la représentation du mouvement basée sur la dynamique temporelle faciale. Son application aux sous-régions du visage permet une estimation robuste dans ces régions, tout en étant moins sensible aux variations entre divers ensembles de données. Pour cela, les filtres passe-bande utilisés pour calculer la phase locale par image constituent une défense contre les perturbations, et les informations sur le mouvement sont extraites à différentes fréquences pour être soumis à l'apprentissage par un réseau de neurones. Son principal avantage est sa capacité de généralisation.

Le deepfake purement vocal repose également sur l'AI. Il vise à créer un modèle capable de reproduire la voix par entraînement avec des enregistrements du locuteur légitime. Le modèle est ensuite prêt à générer une voix synthétique ressemblante en se basant sur les motifs et les caractéristiques obtenus à partir de la voix réelle. Concernant la détection[7], au cours de l'apprentissage l'algorithme recherche les signatures biométriques des locuteurs, et lors de  sa mise en œuvre, il considère les enregistrements réels d'un locuteur donné et en recherche les signatures dans un enregistrement douteux.

Enfin, la détection de contenu textuel généré par l'IA, ce qui est le cas du système ChatGPT, est plus délicate. Si un premier outil de détection GPTZero cherche des indices qu'un texte rédigé par ChatGPT sans marquage, il a des limites qui se traduisent notamment par des taux d'acceptation et de rejet à tord trop élevés.

 

Détection des "bots" sociaux

Une des grandes difficultés pour la détection des "bots" sociaux est qu'ils sont de plus en plus sophistiqués pour rendre floue la frontière comportementale entre le "bot" et l'Humain. Ils sont capables de trouver des informations sur l'Internet et dans des bases de données, pour émuler le comportement humain : activités, profil, messages et conversation en direct, etc., et notamment de rechercher des personnes influentes et des contenus intéressants, à l'aide d'indices de popularité et de mots-clés. Suite à la détermination d'un contenu approprié, un "bot" social est alors en mesure d'apporter des réponses en langage naturel avec l'IA. 

La communauté scientifique est déjà avancée dans la conception de méthodes capables de détecter automatiquement les "bots" sociaux ou, en tout cas, de permettre la distinction entre un Humain et un "bot". Diverses approches pour la détection des "bots" sociaux sont vues dans la littérature scientifique. E. Ferrara et al. (2016), en proposent trois. L'une se fonde sur l'étude des liens des utilisateurs légitimes en ayant recours au graphe du "botnet social". L'autre s'appuie sur une plateforme sociale d'essai de Turing ayant une capacité d'évaluation des nuances d'ordre conversationnel et des anomalies. La dernière repose sur des caractéristiques de plusieurs classes : réseau, utilisateurs, amis, temporalité, contenu et sentiment. Après que L. Alvisi, et al. (2013) aient soulignés le besoin de techniques de détection complémentaires, il paraît utile d'envisager la combinaison d'approches multiples du fait que les "bots" sociaux évoluent avec l'IA. Des efforts de recherches pluridisciplinaires sont donc attendus dans ce sens.

 

Conclusion

Alors que nous sommes dépouillés de nos données, parfois à notre insu, et qu'il nous est proposé un monde terne au travers de métavers, les deepfakes et la désinformation sont en mesure de ruiner la confiance dans la réalité médiatisée et de conduire au futur "dystopique" d'une société dans laquelle les citoyens ne disposeraient plus de l'exercice de leur libre-arbitre.

Pour répondre aux défis alarmants d'un monde où les sources d'information sont multiples et décentralisées, susceptibles de diffusion rapide en masse, il ressort que plusieurs approches sont attendues visant à atténuer la menace que représente les deepfakes et leur diffusion. La détection s'impose par l'usage de méthodes complémentaires, tout comme le traitement des fausses informations et la détermination de leur provenance par le recours à un marquage robuste ou à une technologie blockchain. Il en est de même pour l'atténuation de leur diffusion en masse, en agissant conjointement contre les "bots" sociaux. 

Si la multiplication des détecteurs est apte à neutraliser les deepfakes, la courte exposition du contenu en ligne avant de disparaître aurait malgré tout un impact, au moins psychologique. En conséquence, ni les technologies, ni les recherches à ce propos ne suffiraient sans être accompagnées d'initiatives législatives et règlementaires, de veille fondée sur différentes sources, d'experts en nombre suffisant, et surtout de sensibilisation des gouvernants, des journalistes et des citoyens, pour les amener à agir utilement en connaissance. Il va de soi que nous sommes tous concernés et que l'Homme doit en effet être éduqué pour lui garantir le maintien dans son Humanité.

Dans l'immédiat, les plateformes de médias sociaux comme Facebook et Twitter[8] ont ​​d'ores et déjà banni la diffusion de deepfakes, les entreprises informent leurs personnels sur la menace en mettant en œuvre des procédures de sécurité adaptés pour contrer la cybercriminalité et en particulier les tentatives d'escroquerie, et certains États préparent des projets de loi. C'est le cas de la France avec l'adoption par le Sénat le 4 juillet 2023 de deux  amendements visant à encadrer les deepfakes, en les inscrivant dans un projet de loi visant à sécuriser et à réguler l’espace numérique.

Daniel Guinier

---

Bibliographie sélective

Alvisi L., et al. (2013) : The evolution of sybil defense via social networks. Proc. 2013 IEEE Symposium on Security and Privacy, pp. 382–396.

Ferrara E., et al. (2016) : The rise of social bots. Communications of the ACM, vol. 59, n°7, juillet, pp. 95-106.

Ciftci U. A., et al. (2020) : FakeCatcher : Detection of Synthetic Portrait Videos using Biological Signals IEEE Transactions on Pattern Analysis and Machine Intelligence

Guinier D. (2016) : Réseaux et "bots" sociaux : du meilleur attendu au pire à craindre. Expertises, n°417, octobre, pp. 331-335.

Guinier D. (2017) : MacronLeaks et autres cyberattaques, et diffusion de fausses informations. Expertises, n°426, juillet-août, pp. 262-268.

Guinier D. (2019) : Réseaux sociaux : Paradoxe et convergence technologique. Expertises, n°444, mars, pp. 111-114.

Pianese A., et al. (2022) : Deepfake audio detection by speaker verification, arxiv, 28 septembre.

Prashnani E., et al. (2022) : Generalizable deepfake detection with phase-based motion analysis.

Thies J., et al. (2016) : Face2Face : Real-time face capture and reenactment of RGB Videos. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 2387-2395.

---

[1] Voir Adobe Voco "Photoshop-for-voice" causes concern. Archive BBC, 7 nov. 2016.

[2] Voir J. Thies, et al. (2016).

[3] Voir https://www.youtube.com/watch?v=VQgYPv8tb6A et https://www.youtube.com/watch?v=mfdxREbGSGU.

[4] Voir U. A. Ciftci, et al. (2020).

[5] Dénommée photopléthysmographie.

[6] Voir E. Prashnani, et al. (2022).

[7] Voir A. Pianese, et al. (2022).

[8] Baptisé X depuis le 24 juillet 2023.

19/09/2023

Last publications