Deepfakes et arnaques dopées à l’IA : la facture explose, la riposte tâtonne
Entre l'employé de Hong Kong qui transfère 25 millions de dollars à des avatars et la décoratrice française dépouillée de 830 000 euros par un faux Brad Pitt, l'industrialisation de la fraude par IA prend de vitesse les régulateurs.
Les tentatives de fraude par deepfake ont bondi de 700 % en France en un an. Les pertes mondiales atteignent 442 milliards de dollars en 2025. Les régulateurs courent derrière.
- Les tentatives de fraude par deepfake ont bondi de 700 % en France entre le T1 2024 et le T1 2025, selon Sumsub.
- Un employé d'une multinationale de Hong Kong a transféré 25 millions de dollars à des avatars créés par IA lors d'une visioconférence préenregistrée.
- Anne, 53 ans, a perdu 830 000 euros en un an et demi dans une arnaque sentimentale orchestrée par un faux Brad Pitt.
- Interpol évalue à 442 milliards de dollars les sommes détournées par fraude financière mondiale en 2025, tous vecteurs confondus.
- L'escroquerie aggravée par usurpation d'identité via réseau de communication électronique est punie de 7 ans d'emprisonnement et 750 000 € d'amende (art. 313-2 du Code pénal).
Le 27 avril 2025 [1], la Banque de France [2] et l’Autorité de contrôle prudentiel et de résolution [3] ont publié une alerte conjointe. Des fraudeurs diffusent des vidéos truquées de François Villeroy de Galhau, gouverneur de la Banque de France [4], et d’Emmanuelle Assouan, dans lesquelles les deux dirigeants vantent prétendument des placements miracles [5]. « Les fraudeurs exploitent l’intelligence artificielle pour concevoir des deepfakes en usurpant l’image des dirigeants des deux institutions » [6], révèle le document officiel. Le rappel est sec: « jamais un dirigeant de la Banque de France ou de l’ACPR ne recommandera un site ou un produit financier particulier » [7].
Cette alerte n’est pas un cas isolé. C’est le symptôme d’une bascule industrielle. Selon une étude de la société Sumsub [8], spécialiste de la vérification d’identité, les tentatives de fraude impliquant des deepfakes ont augmenté de 700 % en France entre le premier trimestre 2024 et celui de 2025 [9]. Les faux documents générés par IA - dits « synthétiques » - progressent de 281 % sur la même période [10]. À l’échelle mondiale, la hausse est également de 700 % [11].
L’arnaque à 25 millions de dollars qui a sidéré les enquêteurs
Le scénario tient en une visioconférence. Un employé d’une multinationale basée à Hong Kong [12] reçoit un mail d’invitation de son directeur financier basé au Royaume-Uni [13]. Il flaire d’abord un phishing, puis se connecte. Sur son écran, ses collègues. Visages familiers, voix reconnues. La réunion s’enchaîne. À la fin, il exécute quinze transactions [14] sur cinq comptes bancaires différents [15]: 200 millions de dollars de Hong Kong, soit 25 millions de dollars américains [16].
Tous les participants à la visioconférence, à l’exception de l’employé, étaient des deepfakes générés par intelligence artificielle [17]. « Durant cette vidéoconférence à plusieurs personnes, il s’est avéré que toutes les personnes à part lui étaient fausses, mais semblaient plus vraies que nature » [18], a déclaré Baron Chan Shun-ching, surintendant principal à Hong Kong [19]. Les escrocs avaient téléchargé pendant des mois des vidéos de salariés de la multinationale, d’anciennes conférences accessibles via YouTube [20]. Tout était préenregistré [21]. L’employé a découvert l’arnaque une semaine plus tard en appelant ses vrais collègues à Londres [22]. Aucune arrestation n’a été annoncée [23].
Le précédent existait déjà. En 2019, le dirigeant d’une entreprise britannique filiale d’un groupe allemand avait transféré 220 000 euros [24] en Hongrie après un appel téléphonique frauduleux utilisant un deepfake vocal de son patron [25]. Aucune des sources consultées ne mentionne une condamnation des auteurs de cette fraude pionnière, ni l’émergence d’une jurisprudence française spécifique aux escroqueries par deepfake. Cinq ans plus tard, la sophistication a changé d’échelle.
Anne, 53 ans, et le faux Brad Pitt
L’industrie ne vise pas que les multinationales. En février 2023 [26], Anne, 53 ans [27], décoratrice d’intérieur [28], est contactée sur Instagram par une personne se présentant comme Jane Etta Pitt, la mère de Brad Pitt [29]. Celle-ci affirme voir en elle la compagne idéale pour son fils [30]. Le faux Brad Pitt enchaîne: « Ma mère m’a beaucoup parlé de toi » [31].
Suivent les demandes d’argent. D’abord 9 000 euros de droits de douane [32], justifiés par des comptes bloqués à cause du procès avec Angelina Jolie [33]. Puis un cancer du rein, et un virement nécessaire pour financer le traitement [34]. Anne vire vers un compte la quasi-totalité de sa prestation compensatoire perçue lors de son divorce, soit 775 000 euros [35]. L’arnaque dure un an et demi [36], jusqu’à ce que le vrai Brad Pitt officialise une autre relation dans les médias [37].
Bilan: 830 000 euros perdus [38], trois tentatives de suicide [39], une hospitalisation pour dépression sévère [40], la maison et les meubles vendus [41]. Anne est désormais hébergée chez une amie sur l’île de La Réunion [42]. Marwan Ouarab, fondateur du site Find My Scammer [43], affirme avoir identifié l’auteur via un lien piégé donnant accès à son téléphone [44]: un homme originaire du Nigeria [45], avec 34 victimes recensées sur l’appareil [46], se faisant passer pour Brad Pitt ou Keanu Reeves [47]. Les sources consultées indiquent qu’Anne a porté plainte après avoir découvert l’arnaque [48], mais ne précisent pas l’autorité saisie, l’état d’avancement de l’enquête en France, ni l’éventuelle ouverture d’une coopération judiciaire avec le Nigeria. Cette zone d’ombre est en soi instructive: elle illustre la difficulté à transformer ces escroqueries transnationales en procédures pénales abouties.
Les chiffres: ce que disent les sources, ce qu’elles ne disent pas
Les statistiques de Sumsub méritent une lecture précise. La hausse de 700 % concerne la France [9], mais aussi le monde [11]. Au Royaume-Uni, l’augmentation atteint 900 % [49], en Allemagne 1 100 % [50]. En Asie-Pacifique, la hausse atteint 1 100 % [51], avec des pics à Hong Kong (1 900 %) [52] et Singapour (1 500 %) [53]. Le Canada culmine à 3 400 % [54]. Les chiffres ne convergent pas selon le périmètre géographique mesuré: pour les faux documents synthétiques, la hausse est de 281 % en France [10] mais de 566 % en Allemagne [55] et 1 200 % au Mexique [56]. Les deux séries ne mesurent pas la même chose: Sumsub distingue les tentatives de fraude par deepfake (vidéos, voix) des documents synthétiques (passeports, factures).
Sur la fraude documentaire en Europe, la hausse est de 33 % entre le T1 2024 et le T1 2025, selon Sumsub [57]. Cybermalveillance.gouv.fr [58], lui, rapporte une hausse de 20 % du nombre de victimes assistées en 2025 [59] et un bond de 107 % des demandes liées aux violations de données [60]. Les périmètres diffèrent: Sumsub mesure des tentatives détectées par ses outils de vérification, Cybermalveillance compte des victimes qui se signalent. Les deux séries éclairent le même phénomène par deux fenêtres distinctes.
Tous les chiffres référencés par Sumsub sont issus de millions de contrôles de vérification d’identité effectués dans le monde entre le T1 2024 et le T1 2025 [61]. C’est une base privée, pas un registre public. Le lecteur le sait.
Les pertes financières déclarées liées aux deepfakes ont atteint 410 millions de dollars au premier semestre 2025 [62], contre 359 millions sur l’ensemble de l’année 2024 [63], selon Surfshark [64]. Sur la même période, 580 incidents ont été répertoriés contre 150 sur 2024 entier [65][66].
442 milliards de dollars: la prévision d’Interpol
Dans sa deuxième évaluation annuelle des menaces liées à la fraude financière [67], Interpol [68] indique que plus de 442 milliards de dollars ont été détournés en 2025 [69]. Une précision s’impose: ce chiffre couvre l’ensemble de la fraude financière mondiale (escroqueries en ligne, arnaque au président, faux ordres de virement, fraude à l’investissement), tous vecteurs confondus. Il ne mesure pas la part imputable aux seuls deepfakes, qui correspond, selon Surfshark, à 410 millions de dollars sur le seul premier semestre 2025 [62] - un écart de trois ordres de grandeur qui rappelle que les deepfakes restent, à ce stade, un accélérateur d’une économie criminelle bien plus large. Le chiffre d’Interpol couvre une année 2025 publiée en cours d’exercice: il agrège des constats d’enquêtes en cours et une projection annuelle, non un bilan définitif.
L’organisation prévoit une intensification forte au cours des trois à cinq prochaines années [70], portée par l’essor de l’intelligence artificielle dite « agentique » [71]. Selon Interpol, la fraude assistée par l’IA serait environ 4,5 fois plus rentable que les méthodes traditionnelles [72]. Les criminels utilisent les deepfakes audio pour imiter la voix de dirigeants d’entreprise [73]. Dans certains cas, ces imitations ont permis de valider des transferts bancaires frauduleux en temps réel, notamment en Asie-Pacifique [74]. L’écosystème s’industrialise: des plateformes de « fraude en tant que service » [75] proposent des outils automatisés, des scripts d’arnaques et des systèmes d’IA générative prêts à l’emploi [76]. Longtemps concentrés en Asie du Sud-Est, les centres d’escroquerie se sont étendus vers le Moyen-Orient, l’Afrique et l’Amérique latine [77]. Ces infrastructures regroupent des centaines de milliers de personnes [78] issues d’environ 80 nationalités [79]. Une partie est elle-même victime de traite d’êtres humains, recrutée par de fausses offres d’emploi avant d’être contrainte de participer aux arnaques [80].
Interpol indique avoir soutenu plus de 1 500 enquêtes transnationales [81] impliquant 1,1 milliard de dollars d’avoirs détournés [82]. Les notices et diffusions liées à la fraude ont augmenté de 54 % depuis 2024 [83]. L’opération Shadow Storm, force d’intervention internationale financée par le ministère de l’Intérieur du Royaume-Uni [84], a été lancée pour cibler les centres d’arnaque, en s’appuyant notamment sur le mécanisme I-GRIP destiné à bloquer rapidement les paiements frauduleux [85].
Le cadre juridique français: escroquerie aggravée et loi du 21 mai 2024
Deux régimes pénaux distincts encadrent les faits relatés ici. Le premier vise l’escroquerie elle-même - le cœur des affaires de Hong Kong et du faux Brad Pitt. L’article 313-1 du Code pénal définit l’escroquerie comme « le fait, soit par l’usage d’un faux nom ou d’une fausse qualité, soit par l’abus d’une qualité vraie, soit par l’emploi de manœuvres frauduleuses, de tromper une personne […] et de la déterminer ainsi à remettre des fonds »: la peine prévue est de cinq ans d’emprisonnement et 375 000 euros d’amende, selon plusieurs sources. L’article 313-2 prévoit des circonstances aggravantes lorsque l’escroquerie est commise « en utilisant, à l’insu de la victime, les données à caractère personnel d’un tiers » ou par bande organisée, selon plusieurs sources. La quasi-totalité des fraudes par deepfake - qui supposent l’usurpation numérique d’une identité réelle - relèvent de cette qualification aggravée.
Le second régime vise la fabrication et la diffusion du deepfake lui-même. La loi n°2024-449 du 21 mai 2024 visant à sécuriser et réguler l’espace numérique [86][87] a élargi l’article 226-8 du Code pénal [88], qui réprimait déjà la diffusion d’un montage réalisé avec l’image ou la voix d’une personne sans son consentement. La peine est portée à deux ans d’emprisonnement et 45 000 euros d’amende lorsque la diffusion a lieu sur les réseaux sociaux [89]. Un nouvel article 226-8-1 du Code pénal vise spécifiquement les deepfakes à caractère sexuel [90]. L’article 226-5 sanctionne la tentative [91]. L’article 9 du Code civil [92] continue de garantir le droit au respect de la vie privée et l’interdiction d’utiliser l’image ou la voix d’une personne sans son consentement. Articulés, ces deux régimes permettent en théorie de poursuivre cumulativement le créateur du deepfake et l’escroc qui l’utilise pour soutirer des fonds. En pratique, aucune des sources consultées ne recense de condamnation prononcée à ce jour en France sur le fondement de l’article 226-8-1, entré en vigueur en mai 2024.
Régulation européenne: l’AI Act en déploiement, le DSA en rodage
La régulation européenne avance sur deux jambes, l’une et l’autre encore en convalescence. Le règlement européen sur l’IA - l’AI Act - pose des règles en fonction du niveau de risque des systèmes [93]. Certaines pratiques sont interdites [94], les systèmes à haut risque font l’objet d’un encadrement spécifique [95], et les systèmes générant du contenu doivent permettre d’identifier leur origine [96]. C’est, en théorie, l’arme la plus directe contre les deepfakes: obligation de marquage, de transparence, de traçabilité. Côté français, la DGCCRF [97] et la DGE [98] ont publié leur projet de désignation des autorités nationales chargées de la mise en œuvre [99], avec l’appui technique de l’ANSSI [100] et du PEReN [101]. Le schéma doit encore être soumis au Parlement par le biais d’un projet de loi [102]: autrement dit, le dispositif d’application n’est pas opérationnel.
Deuxième étage, le règlement sur les services numériques (Digital Services Act, DSA), qui impose aux très grandes plateformes des obligations d’évaluation et d’atténuation des risques systémiques - désinformation, manipulation électorale, atteintes aux droits fondamentaux. La Commission européenne a ouvert une procédure formelle contre Meta depuis avril 2024 pour des violations présumées du DSA [103][104]. À ce jour, elle n’a clos aucune de ces enquêtes [105]. Entre l’AI Act dont les autorités d’application ne sont pas encore désignées et un DSA dont les premières procédures n’ont pas abouti, l’arsenal européen affiche un décalage de phase manifeste avec une fraude qui, elle, progresse fortement chaque trimestre.
Plateformes: entre obligations DSA et inertie documentée
Le DSA fait des très grandes plateformes les premières lignes de défense: à elles d’évaluer les risques systémiques, de mettre en place des mesures d’atténuation proportionnées, de retirer rapidement les contenus signalés. Le cas irlandais offre un test grandeur nature. Une vidéo deepfake montrant Catherine Connolly [106] annoncer son retrait de l’élection présidentielle du 24 octobre [107] a circulé sur Facebook. La candidate a déposé plainte auprès de la commission électorale [108]. L’autorité des médias irlandaise, Coimisiún na Meán [109], a contacté la plateforme pour connaître ses mesures [110]. Mais l’Irlande n’a pas encore donné à son organisme de surveillance de l’IA les pouvoirs nécessaires pour faire respecter les règles européennes [111].
Adrian Weckler, journaliste spécialisé en technologies pour l’Irish Independent [112], a résumé la situation: « Nous avons une vidéo qui a perturbé l’élection présidentielle, mais personne ne semble en être responsable » [113]. Meta a déclaré avoir supprimé certaines vidéos liées à Catherine Connolly enfreignant ses politiques [114], mais n’a pas pu confirmer si la vidéo deepfake spécifique largement diffusée sur Facebook avait été retirée [115]. YouTube, à l’inverse, a supprimé la chaîne « RTÉ News AI », qui usurpait l’identité de la chaîne publique irlandaise [116][117]. La réponse asymétrique des deux plateformes - action documentée chez l’une, opacité chez l’autre - éclaire l’enjeu: sans pouvoir d’enquête contraignant et sans sanction effective, les obligations du DSA restent largement déclaratives.
Ce que personne ne dit: la rentabilité, pas la sophistication
Le récit dominant insiste sur la prouesse technique. Visioconférence préenregistrée, voix clonée, visage reconstruit. Mais les chiffres d’Interpol racontent autre chose: la fraude assistée par l’IA est 4,5 fois plus rentable que les méthodes traditionnelles [72]. Ce n’est pas la qualité du faux qui fait la bascule, c’est le rapport coût-revenu. Une plateforme de « fraude en tant que service » fournit le script, l’avatar, la voix [76]. Le criminel n’a plus besoin d’être expert. Il achète un kit. Le marché s’étend du Moyen-Orient à l’Amérique latine [77], avec une main-d’œuvre de centaines de milliers de personnes [78] dont une partie est victime de traite [80]. La régulation européenne cible les plateformes qui produisent ou diffusent; elle ne touche pas la chaîne logistique qui industrialise. Les 442 milliards de dollars d’Interpol [69] mesurent une économie, pas un accident technologique.
La voix critique: la riposte est en retard
Pavel Goldman-Kalaydin, responsable IA chez Sumsub [118], résume la position de l’industrie de la vérification: « la riposte passe par une double exigence: intégrer des outils biométriques capables de détecter les signes de génération artificielle - images truquées, incohérences faciales, voix synthétiques -, et adapter ces solutions aux réalités régionales » [119]. L’étude de Sumsub conclut également: « Les protocoles de vérification actuels sont obsolètes face à la montée de ces nouvelles menaces » [120]. « L’avenir de la lutte contre la fraude repose sur l’IA, mais utilisée du bon côté de la barrière » [121].
Côté français, Jérôme Notin, directeur général de Cybermalveillance.gouv.fr [122], constate: 5 millions de visiteurs sur la plateforme en 2025 [58], plus de 500 000 victimes assistées (en hausse de 20 %) [123][59]. L’hameçonnage progresse de 70 % [124], les fraudes au virement de 170 % [125], la fraude au faux conseiller bancaire de 159 % [126], le faux placement financier auprès des particuliers de 277 % [127]. L’usurpation de numéro de téléphone affiche +517 % [128] malgré la loi Naegelen [129]. Le cyberharcèlement progresse de 138 % tous publics confondus [130].
Anne Le Henanff, ministre déléguée chargée de l’Intelligence artificielle et du Numérique [131], a salué la contribution du GIP ACYMA, en référence à la Stratégie nationale de cybersécurité 2026-2030 [132]. Le calendrier raconte une autre histoire: la loi française a été adoptée en mai 2024 [87], le règlement européen sur l’IA est en cours de mise en œuvre, l’Irlande n’a pas transposé les pouvoirs de surveillance [111], et Sumsub mesure une hausse de 700 % en un an [9]. Les fraudeurs n’attendent pas le projet de loi.
Ce que les sources ne disent pas
Aucune des sources consultées ne précise le taux de récupération des fonds après une arnaque de type « arnaque au président » par deepfake. Aucune ne quantifie le nombre de condamnations effectives prononcées sur le fondement de l’article 226-8-1 du Code pénal depuis son entrée en vigueur en mai 2024 [87][90], ni sur le fondement des articles 313-1 et 313-2 (escroquerie aggravée) lorsque le vecteur est un deepfake. Aucune ne détaille la part des plateformes de « fraude en tant que service » [75] qui sont effectivement démantelées par les opérations comme Shadow Storm [84]. Aucune n’indique l’état d’avancement de la plainte déposée par Anne dans l’affaire du faux Brad Pitt [48]. Le décalage entre la mesure du phénomène et la mesure de la riposte est, en soi, l’information.
► Lire aussi: Cybermalveillance.gouv.fr: 504 000 demandes d'assistance en 2025
Sources
Voir le détail de chaque fait sourcé (132)
-
lundi 27 avril - Date à laquelle la Banque de France et l'ACPR ont lancé une alerte sur les arnaques par deepfake.
« la Banque de France et l'Autorité de contrôle prudentiel et de résolution (ACPR) ont lancé lundi 27 avril une alerte retentissante »
economiematin.fr ↗ ↩ -
Banque de France, institution financière - Institution alertant sur les arnaques par deepfake usurpant l'identité de ses dirigeants.
« la Banque de France et l'Autorité de contrôle prudentiel et de résolution (ACPR) ont lancé lundi 27 avril une alerte retentissante »
economiematin.fr ↗ ↩ -
Autorité de contrôle prudentiel et de résolution (ACPR), institution financière - Institution alertant conjointement avec la Banque de France sur les arnaques par deepfake.
« la Banque de France et l'Autorité de contrôle prudentiel et de résolution (ACPR) ont lancé lundi 27 avril une alerte retentissante »
economiematin.fr ↗ ↩ -
François Villeroy de Galhau, gouverneur de la Banque de France - Personne dont l'identité est usurpée dans des deepfakes pour promouvoir des placements financiers frauduleux.
« François Villeroy de Galhau, gouverneur de la Banque de France, dans lesquelles ce dernier vante prétendument des placements miracles. »
economiematin.fr ↗ ↩ -
Des fraudeurs utilisent des deepfakes pour usurper l'identité de François Villeroy de Galhau et Emmanuelle Assouan afin de promouvoir des placements financiers frauduleux - Description de l'action frauduleuse ciblant les épargnants.
« Des fraudeurs exploitent désormais l'intelligence artificielle générative pour fabriquer de fausses vidéos de François Villeroy de Galhau, gouverneur de la Banque de France, dans lesquelles ce dernier vante prétendument des placements miracles. »
economiematin.fr ↗ ↩ -
Les fraudeurs exploitent l'intelligence artificielle pour concevoir des deepfakes en usurpant l'image des dirigeants des deux institutions - Déclaration officielle des institutions financières sur les méthodes des escrocs.
« "Les fraudeurs exploitent l'intelligence artificielle pour concevoir des deepfakes en usurpant l'image des dirigeants des deux institutions", révèle le document officiel »
economiematin.fr ↗ ↩ -
jamais un dirigeant de la Banque de France ou de l'ACPR ne recommandera un site ou un produit financier particulier - Principe rappelé par la Banque de France et l'ACPR pour se prémunir contre les arnaques.
« "jamais un dirigeant de la Banque de France ou de l'ACPR ne recommandera un site ou un produit financier particulier". »
economiematin.fr ↗ ↩ -
Sumsub, société spécialisée dans la vérification d'identité et la lutte contre la fraude numérique - Auteur de l'étude sur l'augmentation des fraudes par deepfakes et documents synthétiques.
« Une étude de la société Sumsub révèle une augmentation alarmante des fraudes à l’identité basées sur les deepfakes et les documents synthétiques »
comarketing-news.fr ↗ ↩ -
700 % - Augmentation des tentatives de fraude impliquant des deepfakes en France entre le premier trimestre 2024 et celui de 2025.
« les tentatives de fraude impliquant des deepfakes ont augmenté de 700 % en France entre le premier trimestre 2024 et celui de 2025. »
comarketing-news.fr ↗ ↩ -
281 % - Hausse des faux documents générés par IA (dits « synthétiques ») en France entre le premier trimestre 2024 et celui de 2025.
« Les faux documents générés par IA - dits « synthétiques » - suivent la même tendance avec une hausse de 281 %. »
comarketing-news.fr ↗ ↩ -
700 % - Hausse mondiale des deepfakes utilisés pour usurper des identités entre le premier trimestre 2024 et le premier trimestre 2025.
« les deepfakes utilisés pour usurper des identités ont bondi de 700 % à l’échelle mondiale »
ladepeche.fr ↗ ↩ -
Hong Kong - Lieu où s'est déroulée l'arnaque au deepfake.
« Une "arnaque au président" en version deepfake a coûté 25 millions de dollars à une multinationale de Hong Kong. »
bfmtv.com ↗ ↩ -
L'employé a reçu un mail d'invitation à la visioconférence de son directeur basé au Royaume-Uni. - Origine de l'invitation à la visioconférence frauduleuse.
« Il s'était connecté à cette réunion après avoir reçu un mail d'invitation de son directeur basé au Royaume Uni. »
bfmtv.com ↗ ↩ -
15 - Nombre de transactions effectuées par l'employé.
« une quinzaine de transactions sur cinq comptes bancaires différents »
bfmtv.com ↗ ↩ -
5 - Nombre de comptes bancaires différents utilisés pour les transactions.
« une quinzaine de transactions sur cinq comptes bancaires différents »
bfmtv.com ↗ ↩ -
200 millions de dollars de Hong Kong - Montant total des transactions effectuées par l'employé.
« une quinzaine de transactions sur cinq comptes bancaires différents pour un montant total de 200 millions de dollars de Hong Kong, soit 25 millions de dollars américains. »
bfmtv.com ↗ ↩ -
Tous les participants à la visioconférence, à l'exception de l'employé, étaient des deepfakes créés par une intelligence artificielle. - Nature des participants à la visioconférence frauduleuse.
« Problème, à part lui, tous les participants à cette réunion étaient créés par une intelligence artificielle (IA). »
bfmtv.com ↗ ↩ -
Durant cette vidéoconférence à plusieurs personnes, il s'est avéré que toutes les personnes à part lui étaient fausses, mais semblaient plus vraies que nature. - Déclaration du surintendant principal Baron Chan Shun-ching sur la qualité des deepfakes.
« "Durant cette vidéoconférence à plusieurs personnes, il s'est avéré que toutes les personnes à part lui étaient fausses, mais semblaient plus vraies que nature", a déclaré le surintendant principal, le baron Chan Shun-ching, à la chaîne publique RTHK de la ville. »
bfmtv.com ↗ ↩ -
Baron Chan Shun-ching, surintendant principal à Hong Kong - Responsable ayant déclaré les détails de l'arnaque.
« a déclaré le surintendant principal, le baron Chan Shun-ching, à la chaîne publique RTHK de la ville. »
bfmtv.com ↗ ↩ -
Les escrocs ont utilisé des vidéos et audios accessibles au public via YouTube pour imiter les voix des cadres supérieurs. - Source des données utilisées pour créer les deepfakes.
« Les escrocs ont trouvé des vidéos et des audios accessibles au public via YouTube, puis ont utilisé la technologie deepfake pour imiter leurs voix »
radiofrance.fr ↗ ↩ -
La visioconférence avec les deepfakes était préenregistrée, sans interaction avec la victime. - Nature de la visioconférence frauduleuse.
« Tout était préenregistré, il n'y a pas eu d'interaction avec la victime lors de la visioconférence »
radiofrance.fr ↗ ↩ -
Le salarié a remarqué la tromperie une semaine plus tard en appelant ses vrais collègues à Londres. - Découverte de l'arnaque par la victime.
« Le salarié finit par remarquer la tromperie une semaine plus tard en appelant ses vrais collègues à Londres »
radiofrance.fr ↗ ↩ -
Aucune arrestation n'a eu lieu dans cette affaire d'arnaque par deepfake. - État de l'enquête policière.
« Pour l'instant, aucune arrestation n'a eu lieu d'après la police »
radiofrance.fr ↗ ↩ -
220.000 euros - Montant transféré lors d'une précédente arnaque au deepfake vocal en 2019.
« le dirigeant d'une entreprise britannique filiale d'un groupe allemand a transféré 220.000 euros en Hongrie après un appel téléphonique de son patron. »
bfmtv.com ↗ ↩ -
Un dirigeant d'une entreprise britannique filiale d'un groupe allemand a transféré 220.000 euros en Hongrie après un appel téléphonique frauduleux utilisant un deepfake vocal. - Description d'une précédente arnaque similaire.
« En 2019, le dirigeant d'une entreprise britannique filiale d'un groupe allemand a transféré 220.000 euros en Hongrie après un appel téléphonique de son patron. »
bfmtv.com ↗ ↩ -
février 2023 - Début de l'arnaque subie par Anne
« tout commence en février 2023 pendant des vacances en famille »
franceinfo.fr ↗ ↩ -
53 - Âge d'Anne au moment de l'arnaque
« Anne, 53 ans »
franceinfo.fr ↗ ↩ -
Anne, une quinquagénaire décoratrice d'intérieur - Victime de l'arnaque au faux Brad Pitt
« Anne, 53 ans [.] Cette décoratrice d'intérieur, novice sur les réseaux sociaux »
franceinfo.fr ↗ ↩ -
Jane Etta Pitt, personne se présentant comme la mère de Brad Pitt - Première personne ayant contacté Anne sur Instagram
« une personne qui se présente comme Jane Etta Pitt, la mère de Brad Pitt »
franceinfo.fr ↗ ↩ -
Jane Etta Pitt affirme à Anne qu'elle voit en elle la compagne idéale pour son fils - Premier contact dans l'arnaque
« Celle-ci lui affirme qu'elle voit en elle la compagne idéale pour son fils »
franceinfo.fr ↗ ↩ -
Ma mère m'a beaucoup parlé de toi - Message reçu par Anne du faux Brad Pitt
« "Ma mère m'a beaucoup parlé de toi", écrit-il »
franceinfo.fr ↗ ↩ -
9 000 euros - Premier montant réclamé par l'escroc à Anne pour des droits de douane
« D'abord, 9 000 euros de droits de douane »
franceinfo.fr ↗ ↩ -
Angelina Jolie, ex-épouse de Brad Pitt - Mentionnée par l'escroc pour justifier des blocages de comptes
« à cause de son procès avec Angelina Jolie, dont il est séparé »
franceinfo.fr ↗ ↩ -
L'escroc affirme souffrir d'un cancer du rein et demande un virement pour son traitement - Deuxième demande d'argent de l'escroc
« l'escroc lui assure souffrir d'un cancer du rein et dit avoir besoin d'un virement pour financer son traitement »
franceinfo.fr ↗ ↩ -
775 000 euros - Montant de la prestation compensatoire versée par Anne à l'escroc
« Anne vire alors sur un compte en Turquie la quasi-totalité de sa prestation compensatoire, perçue lors de son divorce, soit 775 000 euros »
franceinfo.fr ↗ ↩ -
un an et demi - Durée de l'arnaque subie par Anne
« L'incroyable arnaque dure un an et demi »
franceinfo.fr ↗ ↩ -
Le vrai Brad Pitt officialise sa relation avec une autre femme dans les médias - Événement ayant conduit Anne à découvrir l'arnaque
« jusqu'à ce que le vrai Brad Pitt officialise sa relation avec une autre femme dans les médias »
franceinfo.fr ↗ ↩ -
830 000 euros - Montant perdu par Anne dans l'arnaque au faux Brad Pitt
« expliquant avoir perdu 830 000 euros »
franceinfo.fr ↗ ↩ -
trois - Nombre de tentatives de suicide commises par Anne après l'arnaque
« Anne confie avoir commis trois tentatives de suicide »
franceinfo.fr ↗ ↩ -
Anne est hospitalisée dans une clinique spécialisée pour dépression sévère - Conséquence psychologique de l'arnaque pour Anne
« avoir été hospitalisée à sa demande dans une clinique spécialisée, pour dépression sévère »
franceinfo.fr ↗ ↩ -
Anne vend sa maison et ses meubles après l'arnaque - Conséquence financière de l'arnaque pour Anne
« elle explique avoir dû vendre sa maison et ses meubles »
franceinfo.fr ↗ ↩ -
l'île de La Réunion, lieu où Anne est hébergée chez une amie - Situation actuelle d'Anne après l'arnaque
« Elle est désormais hébergée chez une amie, sur l'île de La Réunion »
franceinfo.fr ↗ ↩ -
Marwan Ouarab, fondateur du site Find My Scammer - Fondateur d'un site aidant les victimes d'arnaques en ligne
« Marwan Ouarab, fondateur du site Find My Scammer »
franceinfo.fr ↗ ↩ -
Marwan Ouarab affirme avoir identifié l'auteur de l'escroquerie via un lien piégé - Méthode utilisée pour identifier l'escroc
« assure avoir réussi à identifier l'auteur de l'escroquerie, via un lien piégé ayant permis d'accéder à l'intégralité de son téléphone »
franceinfo.fr ↗ ↩ -
Nigeria, pays d'origine de l'escroc identifié par Marwan Ouarab - Origine géographique de l'escroc
« l'homme est originaire du Nigeria »
franceinfo.fr ↗ ↩ -
34 - Nombre de victimes identifiées sur l'appareil du faux Brad Pitt
« on a dénombré 34 victimes »
franceinfo.fr ↗ ↩ -
Keanu Reeves, acteur de la trilogie Matrix, autre identité usurpée par l'escroc - Autre célébrité dont l'identité a été usurpée par l'escroc
« en se faisant passer pour Brad Pitt ou Keanu Reeves, l'acteur de la trilogie Matrix »
franceinfo.fr ↗ ↩ -
Anne porte plainte après avoir découvert l'arnaque - Action entreprise par Anne après la révélation de l'arnaque
« la victime finit par comprendre la vérité et porter plainte »
franceinfo.fr ↗ ↩ -
900 % - Hausse des deepfakes au Royaume-Uni entre le premier trimestre 2024 et le premier trimestre 2025.
« + 900 % au Royaume-Uni »
ladepeche.fr ↗ ↩ -
1 100 % - Hausse des deepfakes en Allemagne entre le premier trimestre 2024 et le premier trimestre 2025.
« + 1 100 % en Allemagne »
ladepeche.fr ↗ ↩ -
1 100 % - Hausse des tentatives de fraude impliquant des deepfakes en Asie-Pacifique.
« En Asie-Pacifique, la hausse atteint +1 100 % »
comarketing-news.fr ↗ ↩ -
1 900 % - Hausse des tentatives de fraude impliquant des deepfakes à Hong Kong.
« avec des pics record à Hong Kong (+1 900 %) »
comarketing-news.fr ↗ ↩ -
1 500 % - Hausse des tentatives de fraude impliquant des deepfakes à Singapour.
« et Singapour (+1 500 %). »
comarketing-news.fr ↗ ↩ -
3 400 % - Hausse des tentatives de fraude impliquant des deepfakes au Canada.
« En Amérique du Nord, le Canada connaît une explosion de +3 400 %. »
comarketing-news.fr ↗ ↩ -
566 % - Hausse des documents synthétiques générés par IA en Allemagne.
« + 566 % en Allemagne »
ladepeche.fr ↗ ↩ -
1 200 % - Hausse des documents synthétiques générés par IA au Mexique.
« + 1 200 % au Mexique »
ladepeche.fr ↗ ↩ -
33 % - Hausse de la fraude documentaire en Europe entre le premier trimestre 2024 et celui de 2025.
« la fraude documentaire reste préoccupante, avec une hausse de +33 % »
comarketing-news.fr ↗ ↩ -
5 millions - Nombre de visiteurs sur la plateforme Cybermalveillance.gouv.fr pour l'année 2025.
« Pour la deuxième année consécutive, Cybermalveillance.gouv.fr a dépassé le seuil de 5 millions de visiteurs sur sa plateforme »
cybermalveillance.gouv.fr ↗ ↩ -
20 % - Hausse du nombre de victimes assistées par rapport à 2024.
« en hausse de 20 % par rapport à 2024 »
cybermalveillance.gouv.fr ↗ ↩ -
107 % - Augmentation des demandes d’assistance concernant les violations de données en 2025.
« un bond de 107 % des demandes d’assistance concernant les violations de données »
cybermalveillance.gouv.fr ↗ ↩ -
Sumsub base ses statistiques sur des millions de contrôles de vérification d'identité effectués dans le monde entier entre le 1er trimestre 2024 et le 1er trimestre 2025. - Source des données utilisées dans l'étude de Sumsub.
« Tous les chiffres référencés sont basés sur les statistiques propriétaires de Sumsub, tirées de millions de contrôles de vérification d’identité effectués dans le monde entier entre le 1er trimestre 2024 et le 1er trimestre 2025. »
comarketing-news.fr ↗ ↩ -
410 millions - Pertes financières déclarées liées aux deepfakes au premier semestre 2025
« Les pertes financières déclarées ont, elles, aussi, enregistré un bond à 410 millions, au premier semestre »
lesechos.fr ↗ ↩ -
359 millions - Pertes financières déclarées liées aux deepfakes sur l'ensemble de l'année 2024
« à comparer avec 359 millions sur la totalité de l'an dernier »
lesechos.fr ↗ ↩ -
Surfshark, spécialiste de cybersécurité - Organisation ayant réalisé l'étude sur les deepfakes
« selon une étude de Surfshark, spécialiste de cybersécurité »
lesechos.fr ↗
⚠️ Note INFO.FR: Surfshark est principalement un fournisseur de VPN, et non un 'spécialiste de cybersécurité' au sens strict. La société publie cependant des études statistiques sur la cybercriminalité via son équipe de recherche. ↩ -
580 incidents - Nombre de deepfakes répertoriés au premier semestre selon Surfshark
« 580 incidents ont été répertoriés au premier semestre, contre 150 sur l'ensemble de l'année 2024 »
lesechos.fr ↗ ↩ -
150 - Nombre de deepfakes répertoriés sur l'ensemble de l'année 2024 selon Surfshark
« 580 incidents ont été répertoriés au premier semestre, contre 150 sur l'ensemble de l'année 2024 »
lesechos.fr ↗ ↩ -
Interpol a publié sa deuxième évaluation annuelle des menaces liées à la fraude financière - Contexte de la publication des chiffres sur les pertes financières.
« Dans sa deuxième évaluation annuelle des menaces liées à la fraude financière, publiée par Interpol »
challenges.tn ↗ ↩ -
Interpol, organisation internationale de police criminelle - Source de l'évaluation des pertes liées à la fraude financière.
« selon Interpol »
challenges.tn ↗ ↩ -
442 milliards de dollars - Montant détourné par la fraude financière mondiale en 2025 selon Interpol.
« plus de 442 milliards de dollars ont été détournés en 2025. »
challenges.tn ↗ ↩ -
trois à cinq prochaines années - Période durant laquelle la fraude financière pourrait s'intensifier selon Interpol.
« pourrait s’intensifier fortement au cours des trois à cinq prochaines années »
challenges.tn ↗ ↩ -
l'intelligence artificielle dite 'agentique' - Technologie utilisée par les réseaux criminels pour automatiser les fraudes.
« l’essor de l’intelligence artificielle dite 'agentique' »
challenges.tn ↗ ↩ -
4,5 fois - Rentabilité de la fraude assistée par l'IA comparée aux méthodes traditionnelles.
« la fraude assistée par l’IA serait environ 4,5 fois plus rentable que les méthodes traditionnelles »
challenges.tn ↗ ↩ -
Les criminels utilisent la technologie des deepfakes audio pour imiter la voix de dirigeants d'entreprise - Méthode utilisée pour valider des transferts bancaires frauduleux.
« Les criminels utilisent également la technologie des deepfakes audio pour imiter la voix de dirigeants d’entreprise lors d’appels téléphoniques. »
challenges.tn ↗ ↩ -
Des deepfakes audio ont permis de valider des transferts bancaires frauduleux en temps réel dans la région Asie-Pacifique - Exemple d'utilisation des deepfakes pour des fraudes financières.
« Dans certains cas, ces imitations ont permis de valider des transferts bancaires frauduleux en temps réel, notamment dans la région Asie-Pacifique. »
challenges.tn ↗ ↩ -
plateformes de 'fraude en tant que service' - Plateformes proposant des outils automatisés pour commettre des fraudes.
« l’apparition de plateformes de 'fraude en tant que service' »
challenges.tn ↗ ↩ -
Les plateformes de 'fraude en tant que service' proposent des outils automatisés, des scripts d'arnaques ou des systèmes d'IA générative prêts à l'emploi - Fonctionnalités offertes par ces plateformes criminelles.
« Ces plateformes proposent des outils automatisés, des scripts d’arnaques ou encore des systèmes d’IA générative prêts à l’emploi. »
challenges.tn ↗ ↩ -
Les centres d'escroquerie, initialement concentrés en Asie du Sud-Est, se sont étendus vers le Moyen-Orient, l'Afrique et l'Amérique latine - Évolution géographique des centres d'escroquerie.
« Longtemps concentrés en Asie du Sud-Est, les centres d’escroquerie se sont progressivement étendus vers le Moyen-Orient, l’Afrique et l’Amérique latine. »
challenges.tn ↗ ↩ -
centaines de milliers de personnes - Nombre approximatif de personnes impliquées dans les infrastructures criminelles.
« Ces infrastructures criminelles regroupent des centaines de milliers de personnes »
challenges.tn ↗ ↩ -
80 nationalités - Nombre de nationalités représentées parmi les personnes impliquées dans les centres d'escroquerie.
« issues d’environ 80 nationalités »
challenges.tn ↗ ↩ -
Une partie des individus impliqués dans les centres d'escroquerie sont victimes de traite d'êtres humains, recrutés par de fausses offres d'emploi - Contexte de recrutement des personnes travaillant dans les centres d'escroquerie.
« Une partie de ces individus sont eux-mêmes victimes de traite d’êtres humains, recrutés par de fausses offres d’emploi avant d’être contraints de participer à des arnaques en ligne. »
challenges.tn ↗ ↩ -
Interpol indique avoir soutenu plus de 1 500 enquêtes transnationales - Nombre d'enquêtes transnationales soutenues par Interpol.
« Interpol indique également avoir soutenu plus de 1 500 enquêtes transnationales »
challenges.tn ↗ ↩ -
1,1 milliard de dollars - Montant des avoirs détournés impliqués dans les enquêtes soutenues par Interpol.
« impliquant 1,1 milliard de dollars d’avoirs détournés »
challenges.tn ↗ ↩ -
54 % - Augmentation des notices et diffusions liées à la fraude depuis 2024.
« les notices et diffusions liées à la fraude ont augmenté de 54 % depuis 2024 »
challenges.tn ↗ ↩ -
opération Shadow Storm, force d'intervention internationale financée par le ministère de l'Intérieur du Royaume-Uni - Nom et financement de l'initiative lancée par Interpol.
« l’opération Shadow Storm, une force d’intervention internationale financée par le ministère de l’Intérieur du Royaume-Uni »
challenges.tn ↗ ↩ -
mécanisme I-GRIP, destiné à bloquer rapidement les paiements frauduleux et à lutter contre les liens entre fraude financière, cybercriminalité et traite d'êtres humains - Outil utilisé par l'opération Shadow Storm.
« le mécanisme I-GRIP, destiné à bloquer rapidement les paiements frauduleux et à lutter contre les liens entre fraude financière, cybercriminalité et traite d’êtres humains »
challenges.tn ↗ ↩ -
loi n°2024-449 du 21 mai 2024 visant à sécuriser et réguler l’espace numérique (loi LSREN), législation française - Loi française renforçant la régulation des deepfakes
« la loi n°2024-449 du 21 mai 2024 visant à sécuriser et réguler l’espace numérique (loi LSREN) »
mesinfos.fr ↗ ↩ -
21 mai 2024 - Date de promulgation de la loi LSREN
« la loi n°2024-449 du 21 mai 2024 »
mesinfos.fr ↗ ↩ -
article 226-8 du Code pénal, disposition juridique française - Article réprimant la diffusion de deepfakes sans consentement
« L’article 226-8 du Code pénal, qui réprimait déjà la diffusion d’un montage réalisé avec l’image ou la voix d’une personne sans son consentement, a été élargi. »
mesinfos.fr ↗ ↩ -
deux ans d’emprisonnement et 45 000 euros d’amende - Sanctions pour diffusion de deepfakes sur les réseaux sociaux selon l'article 226-8 du Code pénal
« La peine initiale d’un an d’emprisonnement et de 15 000 euros d’amende est portée à deux ans d’emprisonnement et 45 000 euros d’amende lorsque la diffusion a lieu sur les réseaux sociaux »
mesinfos.fr ↗ ↩ -
article 226-8-1 du Code pénal, disposition juridique française - Article visant spécifiquement les deepfakes à caractère sexuel
« Un nouvel article 226-8-1 du Code pénal vise spécifiquement les deepfakes à caractère sexuel »
mesinfos.fr ↗ ↩ -
article 226-5 du Code pénal, disposition juridique française - Article sanctionnant la tentative de diffusion de deepfakes
« l’article 226-5 sanctionne la tentative de ces infractions »
mesinfos.fr ↗ ↩ -
article 9 du Code civil, disposition juridique française - Article garantissant le droit au respect de la vie privée
« l’article 9 du Code civil garantit le droit au respect de la vie privée et interdit l’utilisation de l’image ou de la voix d’une personne sans son consentement »
mesinfos.fr ↗ ↩ -
Le règlement européen sur l'IA pose des règles en fonction du niveau de risque des systèmes d'IA - Approche réglementaire du règlement européen sur l'IA
« poser des règles en fonction du niveau de risque que peuvent poser les systèmes d'IA »
presse.economie.gouv.fr ↗ ↩ -
Certaines pratiques d'IA sont interdites car jugées inacceptables par le règlement européen - Règles applicables aux systèmes d'IA à risque inacceptable
« Jugées inacceptables, certaines pratiques d'IA sont interdites »
presse.economie.gouv.fr ↗ ↩ -
Les systèmes d'IA à haut risque font l'objet d'un encadrement et d'une surveillance spécifiques - Règles applicables aux systèmes d'IA à haut risque
« D'autres systèmes d'IA sont considérés comme à haut risque [.] ce qui justifie un encadrement et une surveillance spécifiques »
presse.economie.gouv.fr ↗ ↩ -
Les systèmes d'IA générant du contenu doivent permettre d'identifier leur origine pour des raisons de transparence - Obligation de pour certains systèmes d'IA
« les systèmes qui génèrent du contenu doivent permettre d'identifier leur origine »
presse.economie.gouv.fr ↗ ↩ -
Direction générale de la Concurrence, de la Consommation et de la Répression des Fraudes (DGCCRF), autorité publique française chargée de la régulation des marchés, de la protection des consommateurs et de la répression des fraudes - Autorité nationale proposée pour la mise en œuvre du règlement européen sur l'IA
« la direction générale de la Concurrence, de la Consommation et de la Répression des Fraudes (DGCCRF) »
presse.economie.gouv.fr ↗ ↩ -
Direction générale des Entreprises (DGE), autorité publique française chargée de la politique industrielle et du développement des entreprises - Autorité nationale proposée pour la mise en œuvre du règlement européen sur l'IA
« la direction générale des Entreprises (DGE) »
presse.economie.gouv.fr ↗ ↩ -
La DGCCRF et la DGE présentent un projet de désignation des autorités nationales en charge de la mise en œuvre du règlement européen sur l'IA - Action concrète des deux directions pour la régulation de l'IA
« La DGE et la DGCCRF publient le projet de désignation des autorités nationales en charge de la mise en œuvre du règlement européen sur l'IA »
presse.economie.gouv.fr ↗ ↩ -
Agence nationale de la sécurité des systèmes d'information (ANSSI), organisme public français chargé de la cybersécurité - Organisme apportant un appui technique aux autorités régulatrices de l'IA
« l'Agence nationale de la sécurité des systèmes d'information (ANSSI) »
presse.economie.gouv.fr ↗ ↩ -
Pôle d'expertise de la régulation numérique (PEReN), structure fournissant une expertise technique en matière de régulation numérique - Organisme apportant un appui technique aux autorités régulatrices de l'IA
« le Pôle d'expertise de la régulation numérique (PEReN) »
presse.economie.gouv.fr ↗ ↩ -
Le schéma de désignation des autorités doit être soumis au Parlement par le biais d'un projet de loi - Procédure législative pour la mise en œuvre du règlement IA
« Ce schéma doit être soumis au Parlement par le biais d'un projet de loi »
presse.economie.gouv.fr ↗ ↩ -
La Commission européenne a ouvert une procédure contre Meta depuis avril 2024 pour des violations présumées du DSA - Procédure engagée par la Commission européenne contre Meta.
« La Commission européenne a ouvert une procédure contre Meta depuis avril 2024 pour des violations présumées du DSA »
euractiv.fr ↗ ↩ -
avril 2024 - Date d'ouverture de la procédure contre Meta par la Commission européenne.
« La Commission européenne a ouvert une procédure contre Meta depuis avril 2024 »
euractiv.fr ↗ ↩ -
La Commission européenne n’a clos aucune de ces enquêtes contre Meta - Statut des enquêtes en cours contre Meta.
« Elle n’a cependant clos aucune de ces enquêtes »
euractiv.fr ↗ ↩ -
Catherine Connolly, candidate à l'élection présidentielle irlandaise - Personne cible du deepfake diffusé sur Facebook.
« La vidéo, qui montrait Catherine Connolly annonçant son retrait de l’élection présidentielle irlandaise de vendredi 24 octobre »
euractiv.fr ↗ ↩ -
24 octobre - Date de l'élection présidentielle irlandaise mentionnée dans le deepfake.
« annonçant son retrait de l’élection présidentielle irlandaise de vendredi 24 octobre »
euractiv.fr ↗ ↩ -
Catherine Connolly a déposé plainte auprès de la commission électorale irlandaise - Action entreprise par la candidate après la diffusion du deepfake.
« La candidate a ensuite déposé plainte auprès de la commission électorale irlandaise »
euractiv.fr ↗ ↩ -
Coimisiún na Meán, autorité des médias irlandaise - Organisme ayant contacté la plateforme pour des mesures contre le deepfake.
« l’autorité des médias Coimisiún na Meán a indiqué à Euractiv qu’elle avait contacté la plateforme concernée »
euractiv.fr ↗ ↩ -
Coimisiún na Meán a contacté la plateforme concernée pour lui demander quelles mesures elle avait prises - Action de l'autorité des médias irlandaise suite au deepfake.
« Coimisiún na Meán a indiqué à Euractiv qu’elle avait contacté la plateforme concernée pour lui demander quelles mesures elle avait prises »
euractiv.fr ↗ ↩ -
L'Irlande n’a pas encore donné à son organisme de surveillance de l’IA les pouvoirs nécessaires pour faire respecter les règles européennes - Statut des pouvoirs de l'organisme de surveillance irlandais concernant l'AI Act.
« l’Irlande n’a pas encore donné à son organisme de surveillance de l’IA les pouvoirs nécessaires pour faire respecter les règles européennes »
euractiv.fr ↗ ↩ -
Adrian Weckler, journaliste spécialisé dans les technologies pour l’Irish Independent - Journaliste ayant enquêté sur la responsabilité du deepfake.
« Jeudi, Adrian Weckler, journaliste spécialisé dans les technologies pour l’Irish Independent, a déclaré avoir contacté les organismes de surveillance »
euractiv.fr ↗ ↩ -
« Nous avons une vidéo qui a perturbé l’élection présidentielle, mais personne ne semble en être responsable » - Déclaration d'Adrian Weckler sur l'absence de responsabilité claire.
« « Nous avons une vidéo qui a perturbé l’élection présidentielle, mais personne ne semble en être responsable » »
euractiv.fr ↗ ↩ -
Meta a supprimé certaines vidéos liées à Catherine Connolly car elles enfreignaient ses politiques en matière d’ingérence électorale - Action de Meta suite à la diffusion du deepfake.
« Un porte-parole de Meta a expliqué à Euractiv que la société avait supprimé certaines vidéos liées à Catherine Connolly car elles enfreignaient ses politiques en matière d’ingérence électorale »
euractiv.fr ↗ ↩ -
Meta n’a pas pu confirmer si la vidéo deepfake spécifique largement diffusée sur Facebook avait été supprimée - Incertitude de Meta concernant la suppression du deepfake.
« Cependant, Meta n’a pas pu confirmer si la vidéo deepfake spécifique largement diffusée sur Facebook avait été supprimée »
euractiv.fr ↗ ↩ -
YouTube a supprimé la chaîne concernée pour violation de ses règles communautaires, qui interdisent strictement l’usurpation d’identité - Action de YouTube contre une chaîne diffusant le deepfake.
« Un porte-parole de YouTube [.] a confié à Euractiv avoir « supprimé la chaîne concernée pour violation de nos règles communautaires, qui interdisent strictement l’usurpation d’identité » »
euractiv.fr ↗ ↩ -
chaîne « RTÉ News AI », ayant cherché à se faire passer pour la chaîne d’information nationale irlandaise RTÉ News - Chaîne supprimée par YouTube pour usurpation d'identité.
« La déclaration de YouTube fait référence à une chaîne « RTÉ News AI », qui semble avoir cherché à se faire passer pour la chaîne d’information nationale irlandaise - RTÉ News »
euractiv.fr ↗ ↩ -
Pavel Goldman-Kalaydin, responsable IA chez Sumsub - Expert cité sur les solutions pour contrer les fraudes liées aux deepfakes.
« Pour Pavel Goldman-Kalaydin, responsable IA chez Sumsub »
ladepeche.fr ↗ ↩ -
la riposte passe par une double exigence: intégrer des outils biométriques capables de détecter les signes de génération artificielle - images truquées, incohérences faciales, voix synthétiques -, et adapter ces solutions aux réalités régionales - Déclaration de Pavel Goldman-Kalaydin sur les mesures pour lutter contre les fraudes.
« la riposte passe par une double exigence: intégrer des outils biométriques capables de détecter les signes de génération artificielle - images truquées, incohérences faciales, voix synthétiques -, et adapter ces solutions aux réalités régionales »
ladepeche.fr ↗ ↩ -
Les protocoles de vérification actuels sont obsolètes face à la montée de ces nouvelles menaces. Il devient essentiel d’intégrer des technologies biométriques capables de détecter les deepfakes et de repérer les documents synthétiques. - Déclaration issue de l'étude de Sumsub sur les solutions pour lutter contre la fraude numérique.
« « Les protocoles de vérification actuels sont obsolètes face à la montée de ces nouvelles menaces. Il devient d’intégrer des technologies biométriques capables de détecter les deepfakes et de repérer les documents synthétiques. » »
comarketing-news.fr ↗ ↩ -
L’avenir de la lutte contre la fraude repose sur l’IA, mais utilisée du bon côté de la barrière. - Déclaration de Sumsub sur l'importance de l'IA dans la lutte contre la fraude.
« « L’avenir de la lutte contre la fraude repose sur l’IA, mais utilisée du bon côté de la barrière ». »
comarketing-news.fr ↗ ↩ -
Jérôme Notin, Directeur Général de Cybermalveillance.gouv.fr - Déclaration sur les tendances de la cybercriminalité en 2025.
« a ajouté Jérôme Notin, Directeur Général de Cybermalveillance.gouv.fr »
cybermalveillance.gouv.fr ↗ ↩ -
plus de 500 000 - Nombre de victimes assistées par le dispositif national de prévention en 2025.
« plus de 500 000 victimes assistées »
cybermalveillance.gouv.fr ↗ ↩ -
70 % - Augmentation de l’hameçonnage en 2025.
« l’hameçonnage au premier rang des menaces, tous publics confondus, en augmentation de 70 % »
cybermalveillance.gouv.fr ↗ ↩ -
170 % - Augmentation des fraudes au virement en 2025.
« les fraudes au virement, en constante augmentation pour tous les publics depuis des années, s’intensifient (+170%) »
cybermalveillance.gouv.fr ↗ ↩ -
159 % - Progression de la fraude au faux conseiller bancaire en 2025.
« la fraude au faux conseiller bancaire poursuit une forte progression (+159%) »
cybermalveillance.gouv.fr ↗ ↩ -
277 % - Augmentation du faux placement financier auprès des particuliers en 2025.
« Le faux placement financier gagne également en intensité auprès des particuliers (+277%) »
cybermalveillance.gouv.fr ↗ ↩ -
517 % - Augmentation de l’usurpation de numéro de téléphone en 2025.
« l’usurpation de numéro de téléphone affiche une augmentation de 517 % »
cybermalveillance.gouv.fr ↗ ↩ -
Loi « Naegelen » - Dispositif réglementaire et technique mis en place pour endiguer l’usurpation de numéro de téléphone.
« malgré les dispositifs réglementaires et techniques (Loi « Naegelen ») mis en place pour l’endiguer »
cybermalveillance.gouv.fr ↗ ↩ -
138 % - Progression du cyberharcèlement tous publics confondus en 2025.
« le cyberharcèlement progresse et tend à s’installer durablement (+138% tous publics »
cybermalveillance.gouv.fr ↗ ↩ -
Anne Le Henanff, Ministre déléguée chargée de l’Intelligence artificielle et du Numérique - Déclaration sur le rôle du GIP ACYMA dans la cybersécurité.
« a déclaré Anne Le Henanff, Ministre déléguée chargée de l’Intelligence artificielle et du Numérique »
cybermalveillance.gouv.fr ↗ ↩ -
2026-2030 - Période de la Stratégie nationale de cybersécurité.
« décliné dans la Stratégie nationale de cybersécurité 2026-2030 »
cybermalveillance.gouv.fr ↗ ↩
Sources
- La DGE et la DGCCRF publient le projet de désignation des autorités nationales en charge de la mise en œuvre du règlement européen sur l'IA - Presse
- Arnaques sentimentales, usurpation d'identité… les deepfakes en pleine explosion
- Fraude numérique : +700% de deepfakes en France en un an | Comarketing
- Les usurpations d’identité en hausse de 700 % avec les deepfakes dopées à l’intelligence artificielle
- Fraude financière 2025 : Interpol alerte sur un record de 442 milliards $ perdus
- Arnaque : non, François Villeroy de Galhau ne vous propose pas d’investir
- Piégé par une fausse visioconférence en "deepfake", un employé transfère 25 millions de dollars à des escrocs
- IA : une arnaque par deepfake a coûté 26 millions de dollars à une entreprise de Hong Kong
- Les deepfakes et la cybercriminalité : le droit peut
- Photos et vidéos truquées, cyberharcèlement... On vous raconte l'histoire d'Anne, arnaquée par un faux Brad Pitt
- Cybermalveillance.gouv.fr dévoile les tendances de la menace cyber en France
- Présidentielle irlandaise : un deepfake relance le débat sur la lutte contre la désinformation liée à l’IA