Que sont les « Deep Fakes » ?

·

·

Que sont les « Deep Fakes » ?

Un hypertrucage très abouti

La technologie de l’« hypertrucage » ou « permutation intelligente de visages » (« deep-fakes ») est une technique reposant sur l’intelligence artificielle et visant à fabriquer des synthèses d’images réalistes. Elle repose sur la technique dite des « réseaux adversatifs générateurs » (GAN) permettant de mettre en concurrence deux algorithmes : l’un tente de recopier une vidéo à l’identique et d’y importer une forme de visage, l’autre juge si la qualité est respectée et le rendu réaliste. La recherche sur les « GAN » est très active, et est considérée comme un des domaines phares de « l’apprentissage profond » (« deep learning ») par l’INRIA (Institut national de recherche en informatique et en automatique).

Hypertrucages et manipulation de l’information

Les « hypertrucages » ont d’abord été popularisés sur internet, notamment via le site Reddit, où des internautes se sont servis de la technologie disponible afin de créer de fausses vidéos érotiques mettant en scène des célébrités et de la « porno divulgation ». Face aux vives réactions, de nombreux acteurs se sont emparés du sujet. Twitter et Gfycat ont annoncé leur politique visant à supprimer tout contenu « d’hypertrucage » et à bloquer leurs éditeurs. Le site pornographique « Pornhub » a également annoncé une politique de blocage de ses contenus. Reddit a fermé les parties du site où s’échangeaient fréquemment des « hypertrucages » le 7 février 2018. La manipulation de l’information, que ce soit par le biais des « hypertrucages » ou non, pose un défi démocratique. Le rapport conjoint du CAPS (Centre d’analyse, de prévision et de stratégie du ministère de l’Europe et des Affaires étrangères) et l’IRSEM (Institut de recherche stratégique de l’École militaire du ministère des Armées) appelle en effet à la prudence en notant que la propagation de telles technologies dans le futur pourra participer à une « atomisation extrême de l’information, avec la disparition ou la fragilisation des acteurs pouvant servir de tiers de confiance », c’est-à-dire les médias. 

Durcissement du droit français

Dans cette perspective et face au constat de la dangerosité des manipulations informationnelles que la France a renforcé son arsenal législatif. La loi n° 2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l’information s’applique dans l’ensemble de ses dispositions à la lutte contre toutes les fausses informations, y compris celles se fondant sur des « hypertrucages ». Les « hypertrucages » étant une des modalités des « infox », la loi du 22 décembre 2018 relative à la lutte contre la manipulation de l’information fournit de premières armes pour lutter contre ce phénomène. Elle prévoit trois dispositions principales. D’abord, la création d’un référé spécifique pour faire stopper en urgence la diffusion des fausses informations en période électorale (c’est-à-dire trois mois avant les élections de portée nationale). Le texte permet à toute personne ayant intérêt à agir de saisir, en période électorale, le juge judiciaire dans le cadre d’une action en référé, en cas de diffusion « délibérée, artificielle ou automatisée, et massive » d’une information manifestement fausse (« inexacte ou trompeuse ») et susceptible d’altérer la sincérité du scrutin. Ensuite, il est exigé une plus grande transparence des réseaux sociaux, moteurs de recherche, plateformes de partage de contenus, ou agrégateurs d’informations qui devront, en période électorale toujours, divulguer l’origine des messages sponsorisés et dévoiler qui a payé et combien pour augmenter la propagation d’une information. En dehors des périodes électorales, la loi consacre un devoir de coopération à la charge de ces plateformes et définit des mécanismes de corégulation, associant engagements des plateformes et supervision par le Conseil supérieur de l’audiovisuel (CSA). Enfin, le CSA a vu ses pouvoirs de régulation augmenter et obtenu le pouvoir de faire cesser la diffusion sur le territoire français d’une chaîne de télévision étrangère diffusant des fausses informations dans l’objectif de porter atteinte à la sincérité du scrutin ou « atteinte aux intérêts fondamentaux de la Nation, dont le fonctionnement régulier de ses institutions ». Au niveau européen, l’unité de prospective scientifique et technologique du Parlement européen organisait le 7 novembre 2018 une session de travail consacrée à l’usage (et aux abus) des technologies dans un cadre électoral. Le Parlement européen parle lui-même de « techniques de propagande informatique » pour décrire les moyens numériques capables de manipuler le processus démocratique. C’est pour répondre à cette préoccupation que la division « communication stratégique » du Service européen pour l’action extérieure (SEAE) a créé le « groupe de travail de communication stratégique orientée vers le voisinage oriental » (East StratCom Task Force), qui s’est fixé trois objectifs principaux : 1) la veille, en collaboration avec la société civile et avec d’autres institutions européennes, tel le centre du renseignement INTCEN ; 2) la lutte contre la désinformation, en favorisant la prise de conscience du phénomène auprès des consommateurs de nouvelles ; 3) le renforcement de médias indépendants et visant l’objectivité dans le voisinage oriental. Des initiatives privées ont également vu le jour. Par exemple, l’Association France Presse est partenaire du projet européen InVid (pour In Video Veritas) lancé en janvier 2016. Destiné aux journalistes, ce plug-in qui peut être téléchargé sur n’importe quel navigateur internet est censé les aider à repérer les vidéos truquées souvent partagées en masse sur les réseaux sociaux. Il permet notamment de savoir si une vidéo a été manipulée techniquement avant d’être mise en ligne. Plusieurs institutions de recherche ont décidé de mettre en place leur propre outil de vérification. C’est notamment le cas du chercheur Vincent Nozick, membre du laboratoire d’informatique Gaspard-Monge (IGM) de l’Université Paris Marne-la-Vallée qui a développé un programme, le « Mesonet », dont la mission est de repérer les « hypertrucages » en s’appuyant notamment sur le mouvement des paupières dans les vidéos concernées. Une initiative similaire menée par une équipe de l’Université de l’État de New-York a réussi à détecter les fausses vidéos dans 95 % des cas.


Chat Icon