Aller au contenu

Deep face : de quoi s’agit-il, et comment s’en prémunir ?

deep face img
Reading Time: 3 minutes

Avez-vous déjà entendu parler du deep face ? Il s’agit d’un enregistrement vidéo qui a été modifié et/ou truqué grâce à l’intelligence artificielle. Cette technique a été inventée en 2014, par le chercheur en informatique Ian Goodfellow. 

Vous avez peut-être déjà vu cette vidéo où Barack Obama insultait Donald Trump lors d’un discours officiel… Eh bien, elle n’est pas vraie ! Outre la diffusion de fausses informations sur le net, les deep faces sont également utilisés par les fraudeurs pour usurper l’identité de tiers et commettre des fraudes au virement. 

Depuis 2017, le nombre de deep fakes (vidéo et/ou audio) a beaucoup augmenté. A titre d’exemple, le nombre de vidéos deep fake en ligne en 2019 étaient d’environ 15000, contre un peu moins de 8000 vidéos un an auparavant.

Quant aux chiffres sur la fraude, ils suivent une courbe similaire : en 2021, 1 entreprise sur 4 a subi une fraude avérée… et 1 entreprise sur 5 a même subi plus de 5 attaques. 

Quand on sait que le deep face est une porte ouverte sur la fraude, il y a de quoi avoir quelques inquiétudes. Comment, dès lors, s’en prémunir ?   

Qu’est ce que le Deep face ?

Le terme deep fake est une abréviation de « deep learning » et « fake », qui peut être traduit en français par « fausse profondeur ». Il désigne des contenus altérés, et donc faux, qui grâce à l’intelligence artificielle revêtent l’apparence de la réalité. Quant au terme “deep face”, il désigne plus particulièrement la technique qui permet de reproduire le visage d’une personne cible sur une vidéo. 

Avec cette technologie, il est très facile de se faire passer pour quelqu’un qu’on n’est pas, ou de prêter à une personne des propos qu’elle n’a jamais tenus. Son usage ouvre alors la porte à l’usurpation d’identité et à la fraude. 

Comment ça marche ?

Il existe plusieurs techniques pour créer un deep face : 

  • La première, qui est aussi la plus commune, est le « face swap ». Il s’agit simplement d’échanger le visage d’une personne x et le corps d’une personne y. 
  • La deuxième est plus complexe : c’est le « face to face ». Ici, le fraudeur analyse les visages, puis enregistre le mouvement de certains points de repère. Chaque visage est ensuite ajouté à une banque d’identités. La même technique est ensuite appliquée sur la vidéo source, avant qu’un programme ne calque le “faux” visage sur celui de la victime. L’intelligence artificielle apprend ainsi à reconnaître à quoi ressemble le visage source sous tous les angles. C’est cette technique qui a été utilisée dans la fameuse vidéo où Barack Obama insulte Donald Trump. 
  • Enfin, la troisième technique est nommée le “lip sync”. Dans ce cas, il s’agit de modifier directement les lèvres de la victime pour lui faire dire ce qu’on veut. Le patron de Facebook Mark Zuckerberg en a été victime : il est en effet apparu dans une vidéo où on le voyait prêter allégeance à une organisation criminelle fictive. 

Autre exemple : en 2019, la présidente de la Chambre des représentants aux États-Unis, Nancy Pelosi, est apparue ivre dans une vidéo. Les images avaient bien entendu été modifiées. 

Deep face et fraude au virement

Pourquoi s’en inquiéter ? 

Grâce à l’intelligence artificielle, tout le monde ou presque peut créer des deep faces. Or, la prolifération de ces vidéos est une menace : non seulement ils sont vecteurs de fake news, mais ils ouvrent en plus la porte à la fraude dans les entreprises. 

Dès qu’une entreprise souffre de processus de vérification lacunaires (communication insuffisante, absence de séparation des tâches, absence d’automatisation, etc.), il existe en effet des risques qu’elle tombe dans le piège. 

Le mode opératoire est le même que celui de la fraude au président. Il s’agit d’usurper l’identité d’un dirigeant et de contacter une personne de l’entreprise cible pour l’enjoindre à procéder à un virement urgent. Face à la pression qu’elle subit, la personne ne prête pas attention aux détails de la vidéo (ni à sa crédibilité potentielle), d’autant que l’intelligence artificielle permet de réaliser des vidéos convaincantes. Elle cède alors au fraudeur, comme ce dirigeant britannique d’une entreprise du secteur de l’énergie qui, ayant reçu un appel du dirigeant de sa maison mère située en Allemagne, a effectué un virement urgent de 220 000 euros sur le compte bancaire d’un sous-traitant en Hongrie. Problème : il ne s’agissait évidemment pas du dirigeant de la maison mère, mais d’une voix synthétique. 

Comment s’en protéger avec Trustpair ?

La règle d’or est la suivante : n’agissez jamais dans l’urgence pour effectuer un virement. Pensez également à vérifier de manière systématique les coordonnées bancaires de vos interlocuteurs, et assurez vous que votre entreprise a sécurisé sa chaîne de paiement. L’automatisation des données peut également aider à faire barrage aux fraudes. Ainsi, une solution anti fraude telle que Trustpair permet de se prémunir contre les risques posés par les deep faces, en automatisant tous les contrôles manuels… et donc potentiellement faillibles.  

Nouveau call-to-action

Newsletter Trustpair

Inscrivez-vous à la newsletter Trustpair et recevez chaque mois nos conseils et actualités.

Suivez-nous pour rester informer

Ressources Trustpair

Les experts Trustpair mettent à disposition des ressources gratuites pour les équipes Finance.