Sommaire
Dans un monde où l’intelligence artificielle (IA) ne cesse de gagner en puissance, la technologie des deepfakes s’est malheureusement aussi frayé un chemin vers les sphères malveillantes. Selon une étude récente publiée par ISMS.online, ces vidéos et audios trafiqués sont désormais la deuxième menace de sécurité la plus fréquente pour les entreprises britanniques. Près d’un tiers d’entre elles ont été confrontées à ce type d’incident au cours de l’année écoulée. Une vraie préoccupation qui ne fait que commencer (et on n’a pas fini d’en entendre parler) !
Les deepfakes, qu’est-ce que c’est au juste ?
Avant d’aller plus loin, faisons un petit topo sur ces fameux deepfakes. En clair, il s’agit de contenus multimédias (vidéos, audios, images) qui ont été altérés de façon hyper réaliste grâce à l’IA. Un véritable trompe-l’œil numérique, quoi ! On peut par exemple remplacer le visage ou la voix d’une personne par celle d’une autre, de manière quasi parfaite. Bien malin celui qui arrivera à faire la différence !
C’est une technologie fascinante, mais aussi terriblement inquiétante quand elle tombe entre de mauvaises mains. Car oui, les deepfakes peuvent être utilisés à des fins malveillantes, comme le démontre cette étude d’ISMS.online. Exit les canulars débiles de youtubeurs, on entre dans une autre dimension avec les cyberattaques !
32% des entreprises britanniques victimes de deepfakes
Selon le rapport,
près de 32 % des entreprises britanniques ont été confrontées à un incident de sécurité de type « deepfake » au cours des 12 derniers mois.
Un chiffre qui a de quoi faire froid dans le dos, surtout quand on connaît les dégâts potentiels de ce genre d’attaque !
Le piège du BEC (Business Email Compromise)
L’une des techniques les plus répandues est la compromission par courrier électronique des entreprises, aussi connue sous le nom de BEC (Business Email Compromise). Un acteur malveillant va usurper l’identité d’un dirigeant ou d’un collaborateur, en clonant sa voix et son apparence grâce aux deepfakes. Il peut ensuite demander à des employés d’effectuer des transferts d’argent ou de divulguer des informations sensibles. Le tout avec un réalisme bluffant, évidemment.
(Imaginez la scène : votre patron qui vous envoie un petit message vidéo avec sa vraie voix et son vrai visage, pour vous demander de virer 250 000 € sur un compte en Suisse. Vous n’allez quand même pas dire non, si ?)
D’autres utilisations malveillantes sont possibles
Mais ce n’est pas tout ! Les deepfakes peuvent aussi servir à dérober des informations confidentielles, ternir la réputation d’une entreprise ou d’une personne, ou même contourner les systèmes d’authentification biométrique (reconnaissance faciale et vocale). Bref, de quoi nourrir les pires cauchemars des responsables de la sécurité informatique !
Sécuriser la chaîne d’approvisionnement, une priorité
Mais au fait, qui sont les principales victimes de ces attaques par deepfakes ? Selon l’étude,
41 % des personnes interrogées déclarent que les données des partenaires ont été les plus compromises au cours de l’année écoulée.
Un constat alarmant qui souligne les risques liés à la chaîne d’approvisionnement et aux fournisseurs tiers.
D’ailleurs, pas moins de 79 % des entreprises ont subi un incident de sécurité causé par un fournisseur ou un partenaire externe, soit une hausse de 22 % par rapport à l’année précédente. Sécuriser cette chaîne d’approvisionnement devient donc une priorité absolue pour se prémunir contre les deepfakes (et bien d’autres menaces, d’ailleurs).
La formation des employés, un rempart indispensable
Mais que faire concrètement pour lutter contre ces attaques de plus en plus sophistiquées ? La réponse passe d’abord par la formation et la sensibilisation, tant au niveau des fournisseurs que des employés en interne. Près de la moitié des professionnels interrogés (47 %) ont d’ailleurs indiqué mettre davantage l’accent sur ces initiatives.
Il faut dire que les deepfakes jouent sur la crédulité et le manque de vigilance des utilisateurs. Les former à repérer les signes avant-coureurs et à adopter les bons réflexes devient donc crucial. Parce qu’un simple clic imprudent peut parfois suffire à ouvrir la porte aux attaquants…
L’IA, une épée à double tranchant
Ironiquement, l’IA – qui est à l’origine même des deepfakes – pourrait aussi devenir notre meilleure alliée pour contrer cette menace. Selon l’étude, 72 % des professionnels estiment que l’intelligence artificielle et l’apprentissage automatique contribueront à améliorer les programmes de sécurité des données dans les années à venir.
Détecter les anomalies suspectes, analyser les comportements à risque ou encore évaluer la fiabilité d’un contenu multimédia… Voilà autant de tâches pour lesquelles l’IA sera sans doute plus performante que les humains. Une révolution qui pourrait bien changer la donne dans la lutte contre les deepfakes (à condition de rester maître de cette technologie, évidemment).
Garder un œil vigilant sur les deepfakes
Que retenir de cette étude inquiétante ? D’abord, que les deepfakes représentent bel et bien une menace sérieuse, en pleine expansion dans le monde de la cybersécurité. Ensuite, que se protéger passe par une approche globale : formation, sensibilisation, sécurisation de la chaîne d’approvisionnement, sans oublier l’apport potentiel de l’IA elle-même.
Bref, c’est un combat de tous les instants qui s’annonce, à mener sur tous les fronts. Alors, restons vigilants et n’hésitons pas à former nos employés (comme nos fournisseurs) à détecter ces attaques de plus en plus sophistiquées. Parce que dans la guerre contre les deepfakes, la meilleure arme reste encore la prudence !
Résumé / TL;DR
- Les deepfakes sont des contenus multimédias (vidéos, audios, images) altérés de façon ultra-réaliste par l’IA.
- 32% des entreprises britanniques ont été victimes d’attaques par deepfakes l’année dernière.
- La technique la plus répandue est le Business Email Compromise (BEC), où un attaquant usurpe l’identité d’un dirigeant.
- Les fournisseurs et partenaires sont une cible de choix pour ces attaques, d’où l’importance de sécuriser la chaîne d’approvisionnement.
- La formation et la sensibilisation des employés sont cruciales pour détecter les signaux d’alerte.
- L’IA pourrait à la fois être une menace (en générant des deepfakes) et une solution (pour les détecter).