Alors que le risque d'arnaques aux deepfakes augmente dangereusement, des solutions se mettent en place. Mais peut-on espérer se débarrasser complètement de ce fléau ?
Le fabricant chinois Honor a récemment présenté une technologie innovante de détection de deepfakes intégrée à son dernier smartphone pliant, le Magic V3. Le système analyse les caractéristiques visuelles à l'échelle des pixels pour repérer les anomalies typiques des visages synthétiques. Cette technologie s'ajoute à d'autres initiatives de détection, comme celles développées par le commandement français de la cyberdéfense, Intel, ou encore YouTube. Des avancées qui s'inscrivent dans un contexte où la lutte contre les deepfakes devient cruciale, notamment après une escroquerie spectaculaire ayant coûté 25 millions de dollars à une entreprise de Hong Kong en début d'année.
Jérôme Colombain:
[0:02] En début d'année, une entreprise de Hong Kong a été victime d'une arnaque incroyable qui a fait beaucoup de bruit. Une escroquerie via une visioconférence avec de faux visages d'interlocuteurs générés par intelligence artificielle. Bilan de la fraude, 25 millions de dollars. Alors pour éviter ce type d'arnaque au deepfake, pour éviter que cela ne devienne aussi banal que les tentatives d'escroquerie par faux SMS et que cela ne provoque des dégâts monstrueux, des systèmes de détection de deepfakes sont en train de se mettre en place.
Jérôme Colombain:
[0:35] Et pour la première fois, sur un smartphone. C'est le fabricant chinois Honor qui a présenté récemment un système de détection de deepfakes disponible sur son dernier mobile pliant, le Magic V3. Une technologie présentée comme exclusive qui permet de reconnaître un visage synthétique et d'avertir dans ce cas l'utilisateur. Le procédé consiste à analyser les caractéristiques visuelles à l'échelle des pixels afin de repérer des anomalies, comme par exemple des artefacts de bordure, des incohérences dans la continuité des images ou encore des divergences dans la position des cheveux ou des oreilles. Grâce à ces signaux visuels, l'IA intégrée dans le smartphone est en théorie capable d'identifier la moindre imperfection. C'est donc dans le Magic V3, qui vient de sortir en France il y a quelques semaines.
Jérôme Colombain:
[1:23] La détection de deepfakes, c'est aussi d'ailleurs un enjeu de défense nationale. Et c'est pour cela que le commandement français de la cyberdéfense, le ComCyber, s'est également doté, il y a quelque temps, d'un outil de détection des deepfakes. En cas de doute sur l'origine d'une image, fixe ou vidéo, les spécialistes de la cyberdéfense peuvent envoyer le contenu suspect dans un logiciel qui va dire si l'image est réelle ou falsifiée. Pour les vidéos, l'outil délivre une courbe qui montre le pourcentage d'éléments réels et d'éléments visiblement trafiqués. Alors la lutte contre les deepfakes n'est pas nouvelle. En 2022, Intel avait mis au point un système baptisé Fake Catcher, un outil permettant d'identifier les deepfakes vidéo avec un taux de réussite de 96% et cela en utilisant ce qu'on appelle la détection du vivant. En fait, il s'agit d'un algorithme qui détecte s'il y a bien un flux sanguin qui circule sur le visage d'une personne. Alors, ça ne se voit pas à l'œil nu, mais grâce à l'analyse très fine des différences de lumière sur ce visage, il est possible de dire s'il est vivant ou s'il s'agit par exemple d'une photo, d'une image générée artificiellement.
Jérôme Colombain:
[2:33] Auparavant, une autre technique consistait tout simplement à compter le nombre de battements de paupières, car l'IA, visiblement, ne sait pas battre des paupières comme un être humain. En tout cas, elle ne savait pas le faire il y a encore quelques temps. On voit donc que des solutions se mettent en place, mais le véritable enjeu aujourd'hui, c'est que ces solutions soient accessibles au plus grand nombre. Dans un smartphone, c'est un premier pas. Il y a d'autres endroits où on va en avoir besoin. Par exemple, sur YouTube, YouTube va proposer un système capable de détecter, d'une part, les voix chantées synthétiques, ce qu'on appelle les deepfakes audio, mais également des deepfakes visuels, des images générées par intelligence artificielle. Le but étant là de protéger les droits des artistes et des créateurs contre la contrefaçon.
Jérôme Colombain:
[3:15] C'est donc l'IA qui vient au secours des ravages de l'IA elle-même. Mais il y a aussi des solutions plus basiques pour détecter les deepfakes, comme par exemple le marquage numérique, le watermarking, qui consiste à insérer des filigranes invisibles dans les vidéos pour garantir leur authenticité. Ça permet de protéger des images en amont pour éviter qu'elles soient piratées et par exemple qu'on vous fasse dire n'importe quoi dans une fausse vidéo. D'autres solutions basées sur la blockchain permettent également de certifier et de tracer l'authentification de vidéos dès leur production. Et puis il y aurait même, paraît-il, des solutions très simples, comme demander à une personne qui vous parle en visio et pour laquelle vous avez des doutes, de simplement tourner la tête sur le côté, ou encore de passer sa main sur le visage. Ça aurait pour effet de générer des artefacts, c'est-à-dire de troubler l'image et donc de révéler qu'il ne s'agit pas d'un vrai visage.
Jérôme Colombain:
[4:11] Alors, de la méthode la plus basique à la méthode la plus élaborée, on voit que des solutions de sécurité se mettent en place, c'est une bonne chose, mais on sait que l'IA s'améliore en permanence, et ces systèmes de détection sont sans doute voués à être toujours dépassés à un moment ou à un autre. En fait, comme toujours en matière de cybersécurité, c'est l'éternelle histoire du chat et de la souris qui ne s'arrête jamais. Salut, à demain.