Des milliers de femmes ont été victimes de fausses images pornographiques créées par l’intelligence artificielle. Parmi les victimes figurent des mineurs, des célébrités et des politiciens. DER SPIEGEL s’est mis à la recherche de ceux qui se cachent derrière les plateformes malveillantes.

Du jour au lendemain, sa fille avait complètement changé. Encore à l’école primaire, elle s’est soudainement repliée sur elle-même et semblait dégoûtée par sa mère. Elle ne voulait plus faire de câlins. « Nous craignions qu’il lui soit arrivé quelque chose dont elle ne voulait pas parler », explique la mère.

Plusieurs mois se sont écoulés avant qu’elle et son mari ne découvrent que leur fille avait vu un porno hardcore impliquant apparemment sa mère. « Elle est tombée sur la vidéo par hasard simplement en entrant mon nom dans Google », explique Anita Hübig. Actrice allemande bien connue, son nom a été changé pour cette histoire. Elle est dans l’œil du public depuis de nombreuses années, mais elle n’a jamais participé à un film porno. « La vidéo n’a duré que quelques minutes, mais elle a plongé notre famille dans une profonde crise pendant de nombreux mois. »

L’article que vous lisez est paru à l’origine en allemand dans le numéro 50/2024 (7 décembre 2024) de DER SPIEGEL.

Leur fille, disent Hübig et son mari, étaient convaincus que le film était réel et qu’il montrait sa mère à un plus jeune âge. Mais ce n’était pas le cas. Produit par l’intelligence artificielle, il s’agissait d’un deepfake dans lequel un logiciel était utilisé pour superposer le visage de la mère sur un corps différent.

C’est un sentiment horrible que quelqu’un m’ait mise dans un tel film contre ma volonté.

Plusieurs milliers de célébrités ont été victimes de ces faux films sexuels au cours des sept dernières années – de la méga-star américaine Taylor Swift aux principaux politiciens allemands. Certaines des vidéos ont été visionnées des centaines de milliers de fois, et les plateformes qui les hébergent engrangent des millions de clics par an.

Hübig a insisté sur l’utilisation d’un pseudonyme parce qu’elle craint que si elle discutait du problème en utilisant son vrai nom, les vidéos recevraient encore plus d’attention.

« C’est un sentiment horrible que quelqu’un m’ait mise dans un tel film contre ma volonté », dit-elle. Sa fille a dû suivre une thérapie, dit-elle, mais elle va maintenant beaucoup mieux. « Mais nous ne récupérerons jamais le temps insouciant que nous avons perdu. Et tout cela grâce à un court clip vidéo et à une recherche Google. »

Au cours des dernières années, l’intelligence artificielle a donné naissance à une nouvelle forme numérique de violence sexuelle à l’égard des femmes. Les images manipulées avec Photoshop existent depuis le début des années 2000, mais aujourd’hui, presque tout le monde peut produire des contrefaçons convaincantes en quelques clics de souris. Et l’accès à ces programmes est pratiquement illimité.

Des entrepreneurs sans scrupules ont lancé un certain nombre de programmes qui peuvent transformer une image inoffensive en une photo de nu en quelques secondes seulement. Ou, pour quelques euros de plus, la personne concernée peut être posée dans différentes positions sexuelles.

Tout ce qui est nécessaire est un instantané de la victime ou un lien vers son profil Instagram. Les utilisateurs anonymes reçoivent alors une image haute résolution qui ne peut souvent pas être distinguée d’une image réelle. Que le sujet de la photo ait donné sa permission n’a pas d’importance.

Les deepfakes apparaissent également dans d’autres contextes. Pendant la campagne présidentielle américaine, par exemple, Donald Trump a publié des images générées par l’IA avec lesquelles il voulait prouver que les fans de Taylor Swift le soutenaient et non son adversaire démocrate, Kamala Harris. Mais ces tentatives de manipulation politique ne représentent qu’une infime fraction de tous les deepfakes. Des enquêtes ont révélé que plus de 90 % des vidéos deepfake sur Internet sont de nature sexuelle.

Quatre-vingt-dix-neuf pour cent des victimes de ces vidéos sont des femmes. En effet, de nombreux programmes d’IA qui produisent des images nues ne peuvent même pas traiter des images d’hommes. Une application s’est longtemps annoncée avec le slogan : « Imaginez perdre du temps à l’emmener à des rendez-vous alors que vous pouvez simplement utiliser » le site Web « pour obtenir ses nus ».

Les opérateurs de ces plateformes se donnent souvent beaucoup de mal pour cacher leur identité. Beaucoup utilisent des sociétés écrans ou proposent leurs services via l’application de messagerie Telegram. Au cours de plusieurs mois de reportage, DER SPIEGEL a pu identifier plusieurs personnes derrière les réseaux de services de deepfake. Pour l’enquête, les journalistes ont analysé des données provenant de bases de données divulguées et les codes sources de dizaines de sites Web.

Au fil du temps, un réseau complet d’applications deepfake d’Europe de l’Est et de Russie a émergé. Les analyses révèlent pour la première fois à quel point le problème des vidéos deepfake sur Internet est devenu vaste – et qu’il est urgent d’agir.

Les victimes avec lesquelles DER SPIEGEL s’est souvent entretenu se sont retrouvées à devoir faire face à l’abus numérique de manière totalement indépendante. Le nombre d’auteurs qui utilisent ces applications se compte en milliers.

Les auteurs

Au départ, il ne s’agissait que d’un domaine niche. En 2017, un utilisateur anonyme – pseudonyme « deepfakes » – a commencé à rendre des célébrités comme Scarlett Johansson dans des scènes de sexe explicites et à publier les résultats sur Reddit. « Je fais le boulot mon ami », a écrit un utilisateur reconnaissant à propos des vidéos, dont la qualité était étonnamment bonne compte tenu de la technologie disponible à l’époque.

Lorsque le forum est passé à environ 90 000 utilisateurs, Reddit l’a interdit. C’était en 2018, mais à ce moment-là, la scène était déjà devenue si importante qu’elle a rapidement créé sa propre plateforme appelée MrDeepFakes, qui reste le plus grand site Web de vidéos de sexe de célébrités générées par l’IA. Le logo du site est un visage souriant de Donald Trump tenant un masque qui rappelle le symbole du mouvement de hackers Anonymous. La plate-forme a été mise en ligne trois jours seulement après l’interdiction du forum Reddit.

Imaginez perdre du temps à l’emmener à des rendez-vous alors que vous pouvez simplement utiliser notre site Web pour obtenir ses nudes.

Aujourd’hui, il reçoit plus de 6 millions de visites par mois et une analyse de DER SPIEGEL a révélé qu’il comprend plus de 55 000 fausses vidéos intimes. Des dizaines de milliers de vidéos supplémentaires sont téléchargées temporairement avant d’être à nouveau supprimées. Au total, les clips ont été visionnés plusieurs milliards de fois au cours des sept dernières années.

Et les faux ne durent pas seulement quelques secondes. En moyenne, les vidéos durent environ cinq minutes et demie.

Si vous lisiez toutes les vidéos en continu les unes après les autres, vous pourriez regarder de faux films porno pendant 210 jours d’affilée.

Les producteurs de vidéos peuvent gagner de l’argent grâce à eux, les utilisateurs pouvant faire des demandes spéciales pour ce qu’ils veulent voir pour un prix, qui est payé en Bitcoin. Au cours des sept dernières années, 300 des utilisateurs les plus actifs ont reçu plus de 2 000 dépôts dans leurs portefeuilles de crypto-monnaies. Une analyse de DER SPIEGEL a révélé que le volume total des transferts de bitcoins dépasse largement les 100 000 euros.

La haine des femmes et la misogynie sont partout sur MrDeepFakes. Les militants de gauche représentés dans des vidéos truquées sur la plateforme sont qualifiés de « petites putes ». Un commentaire sous un deepfake d’une présentatrice de télévision bien connue en Allemagne se lit comme suit : « C’est ainsi que la vieille skank a eu son propre talk-show. » Les femmes politiques sont fréquemment la cible de ces vidéos, plusieurs femmes de haut niveau politique ayant été victimes de deepfakes.

Dans le cas d’une ministre allemande, a appris DER Spiegel, l’organisation victime HateAid a déposé une plainte pénale contre les opérateurs de la plateforme MrDeepFakes. L’accusation : diffamation de personnes dans la vie politique et violation des droits de la personnalité par l’imagerie visuelle.

La police a lancé une recherche des serveurs de la plate-forme, les enquêteurs affirmant qu’ils sont tombés sur des adresses IP en Californie et à Mexico ainsi que sur des serveurs dans les îles Seuchelle. Cependant, il s’est avéré impossible d’identifier les personnes responsables de la trace numérique, et les enquêteurs soupçonnent les opérateurs d’utiliser un logiciel pour couvrir leurs traces numériques. L’enquête a été suspendue au bout de neuf mois. Une recherche récente a permis de trouver 13 vidéos truquées du ministre toujours en ligne.

Les opérateurs pensent apparemment qu’ils sont en sécurité. « MrDeepFakes est là pour rester », a écrit l’un des administrateurs quelques mois après le lancement du site. « Je promets de faire fonctionner cette communauté aussi longtemps que je le pourrai. » Son nom d’utilisateur est « dpfks » et il fait partie des administrateurs les plus actifs et les plus importants du site. Mais lui et la plupart des autres derrière le site ont réussi à garder leur anonymat.

Un reportage de DER SPIEGEL a révélé que l’un des responsables du site est David D., un homme de 36 ans qui vit près de la ville canadienne de Toronto, où il travaille depuis plusieurs années dans un hôpital. Parmi plusieurs autres indicateurs, DER SPIEGEL a pu l’identifier à l’aide d’une adresse e-mail qui a été temporairement utilisée comme adresse de contact sur la plateforme MrDeepFakes. Il a apparemment utilisé la même adresse e-mail en privé pour une application en cours d’exécution. Au cours des 15 dernières années, D. a enregistré un nombre étonnant de sites Web, dont beaucoup semblaient plutôt douteux, comme l’ont révélé nos reportages – y compris une plate-forme de piratage de musique et de logiciels. David D. n’a pas répondu aux nombreuses questions sur son rôle chez MrDeepFakes.

Les victimes

En septembre 2023, il est devenu clair dans la ville espagnole d’Almendralejo que n’importe qui peut être victime de deepfakes. Des images graphiques générées par l’IA de plus de 20 filles en ville ont commencé à circuler sur WhatsApp ce mois-là. Les victimes étaient âgées de 11 à 17 ans.

L’une d’entre elles était la fille de 14 ans de Mariam Al Adib, gynécologue. Un garçon avait pris une image du profil WhatsApp de sa fille et l’avait utilisée pour faire un faux, dit-elle. « Si je n’avais pas su à quoi ressemblait ma fille nue, j’aurais pensé que les photos étaient réelles. »

Nous vivons à une époque où ce ne sont pas les enfants qui commencent à chercher de la pornographie sur le Web, mais plutôt la pornographie qui leur vient à un moment donné, qu’ils le veuillent ou non.

Peu de temps après que sa fille lui ait montré l’image générée par l’IA, Al Adib a téléchargé sa propre vidéo sur sa chaîne Instagram, qu’elle utilisait normalement pour éduquer ses abonnés sur les questions liées à la gynécologie. Sa vidéo a déclenché une vague d’indignation à propos des deepfakes en Espagne. « C’est affreux. Je me sens impuissant », dit Al Adib dans la vidéo et s’adresse aux responsables de la génération des images : « Les gars, arrêtez. Arrêtez de produire les images et si vous en recevez une, ne la partagez pas. Ce n’est pas une mince affaire, c’est une infraction pénale.

Al Adib raconte que sa fille a croisé par hasard dans la rue l’un des garçons qui avaient fabriqué les faux. Il était avec ses amis. Ils ont commencé à rire, dit Al Adib, et ont demandé à sa fille : « Devrions-nous prendre plus de photos de toi ? »

Al Adib dit qu’elle était choquée et furieuse. « En tant que médecin, je sais que les victimes de cyberintimidation et de violence sexuelle souffrent parfois pour le reste de leur vie. » Certaines des filles dont circulaient des contrefaçons d’IA n’osaient plus sortir de chez elles. D’autres ont été victimes de chantage sur Instagram avec les photos et on leur a dit de remettre de l’argent.

Al Adib a terminé sa vidéo de 10 minutes en appelant les mères des autres victimes à prendre contact. Ensemble, ils ont formé un groupe WhatsApp et ont déposé une plainte auprès de la police.

Certains policiers ont dit aux parents que les garçons voulaient juste s’amuser un peu, dit Al Adib. « La police n’a pris l’affaire au sérieux que lorsqu’il y a eu un tollé général dans les médias. » Un tribunal pour mineurs a depuis prononcé des peines avec sursis.

Al Adib fait partie d’un groupe de travail sous la direction du ministère espagnol de la Jeunesse et de l’Enfance qui se penche sur les dangers d’Internet pour les mineurs. « En tant que société, nous ignorons du tout les terribles façons dont les filles et les femmes peuvent être victimes de l’aide de l’IA », déclare Al Adib. « Nous vivons à une époque où ce ne sont pas les enfants qui commencent à chercher de la pornographie sur le Web, mais plutôt la pornographie qui vient à eux à un moment donné, qu’ils le veuillent ou non. »

Derrière les applications

Les photos nues de la fille de Miriam Al Adib et des autres filles ont été produites par le service Clothoff. Le site web reste librement accessible sur le web et a été visité environ 27 millions de fois au cours du premier semestre de cette année. Selon un porte-parole de l’application, 200 000 images sont générées à l’aide de l’application chaque jour.

Pour utiliser l’application, tout ce que vous avez à faire est de confirmer que vous avez plus de 18 ans et que vous ne souhaitez générer que des images nues de vous-même. Il n’y a pas de contrôle.

Le marché de ces applications nudify est en pleine croissance. Les utilisateurs sont attirés par des images gratuites, avec des poses particulièrement explicites nécessitant un abonnement compris entre 10 et 50 euros.

Mais les applications présentent également un danger pour les utilisateurs eux-mêmes. On pense que des pirates informatiques russes ont lancé au moins sept sites nudify dans le but de voler les données des utilisateurs. Les renseignements sont ensuite probablement utilisés pour d’autres activités criminelles, comme la fraude par carte de crédit.

À San Francisco, pendant ce temps, un procès est en cours contre les opérateurs d’un certain nombre d’applications nudify. Dans certains cas, la plainte identifie les défendeurs par leur nom, mais dans le cas de Clothoff, l’accusé n’est répertorié que sous le nom de « Doe », le nom fréquemment utilisé aux États-Unis pour les défendeurs inconnus.

Selon les mentions légales du site, Clothoff est exploité depuis la capitale argentine Buenos Aires. Mais la société a dissimulé la véritable identité de ses opérateurs en utilisant des sociétés écrans et d’autres méthodes. Pendant un certain temps, les opérateurs ont même cherché à induire en erreur le public avec une fausse image, vraisemblablement générée par l’IA, du prétendu chef de Clothoff.

À l’été 2024, cependant, les opérateurs ont fait un faux pas : DER SPIEGEL a découvert qu’ils avaient laissé en ligne une base de données ouverte qui fournissait des indices sur qui se cache derrière le site. Bien qu’il n’y ait aucune information concernant le chef présumé de l’entreprise, les informations de la base de données combinées à d’autres traces numériques permettent d’identifier quatre personnages centraux : le Russe Alexander G., les Biélorusses Dasha et Alexander B., qui ont non seulement le même nom de famille mais aussi le même tatouage, et l’Ukrainien Yevgeniy B. Ce dernier se démarque particulièrement : son entreprise a été répertoriée dans le label Clothoff, et dans des publications en ligne, le jeune homme de 30 ans affirme valoriser l’honnêteté et la famille. Il a énuméré ses emplois en tant que concepteur de sites Web et artiste, avec des passe-temps qui incluent la musique et les sports électroniques.

Comme les trois autres, Yevgeniy B. fait partie d’un réseau d’entreprises du monde du jeu russe, exploitant des sites comme CSCase.com, une plate-forme où les joueurs peuvent acheter des actifs supplémentaires tels que des armes spéciales pour le jeu Counterstrike. La société de B. a également été répertoriée dans les mentions légales du site GGsel, une place de marché qui comprend une offre aux joueurs russes pour contourner les sanctions qui les empêchent d’utiliser la populaire plate-forme de jeu américaine Steam. Le réseau biélorusse-russo-ukrainien comprend au moins 10 services de deepfake supplémentaires et de nombreux autres sites de jeux.

Aucun des quatre hommes n’a répondu aux questions de DER SPIEGEL. Une personne nommée Elias, s’identifiant comme porte-parole de l’application, a affirmé ne pas connaître les quatre. Il a également déclaré que les questions relatives à l’équipe de Clothoff et à leurs tâches spécifiques au sein de l’entreprise ne pouvaient pas être répondues en raison d’un « accord de non-divulgation » au sein de l’entreprise. Clothoff interdit strictement l’utilisation de photos de personnes sans leur consentement, a-t-il écrit. Il a également affirmé que son service n’avait aucun lien avec la « terrible histoire » d’Almendralejo, insistant sur le fait que la technologie du site ne traite pas les photos de mineurs. Le porte-parole a refusé de fournir son nom de famille et son numéro de téléphone, et il a également rejeté les offres d’appel vidéo.

« Il ne s’agit pas d’affaires », a écrit le porte-parole. « Nous créons un produit pour les gens, pour la société, dans le but de donner vie aux fantasmes de millions de personnes sans nuire aux autres. »

Échappatoire juridique

L’Italienne Silvia Semenzin s’est déjà battue avec succès pour faire adopter dans son pays d’origine une loi pénalisant la publication d’images de nu intimes. « Presque personne ne s’occupe de ces sujets parce qu’il le veut », explique l’auteur et militant. « Nous avons presque tous eu de mauvaises expériences en ligne. »

Ils pensent qu’ils peuvent faire ce qu’ils veulent de notre corps et de nos images.

Dans son cas, son ex-partenaire a publié des vidéos intimes d’elle dans un groupe WhatsApp, dans lequel des hommes partageaient des vidéos intimes de femmes avec lesquelles ils couchaient. Le nom du groupe : « Toutes les femmes sont des putes ». Semenzin l’a utilisé comme titre de son livre sur la violence numérique à l’égard des femmes. Elle se bat maintenant pour l’interdiction de la production d’images de nu deepfake sans consentement. « Presque aucun État membre de l’Union européenne ne dispose d’une loi suffisante pour protéger les femmes contre la violence numérique », dit-elle.

Semenzin est déçue du peu d’efforts déployés par les décideurs politiques pour protéger les femmes contre les agressions, tant hors ligne qu’en ligne. « Cela se voit vraiment avec la loi sur l’IA dans l’UE. » L’Union européenne a célébré l’adoption de la loi en mai, la première loi de grande envergure au monde sur l’IA. Les 144 pages de la loi réglementent de nombreux risques qui pourraient survenir à l’avenir, tels que les cyberattaques basées sur l’IA et les armes biologiques ou l’utilisation de la technologie pour une offensive militaire. Nulle part, cependant, la loi sur l’IA ne mentionne l’abus numérique des femmes qui a déjà lieu, et il n’y a pas non plus de sanctions plus sévères pour ceux qui produisent des deepfakes.

En Allemagne, les protections de l’État sont minces. Il n’existe pas de réglementation juridique spécifique, et les experts affirment que la production d’images intimes d’une victime adulte à l’aide de l’intelligence artificielle n’enfreint même pas une seule réglementation du code pénal. Ils disent que des poursuites peuvent être possibles sur la base des lois sur la protection des données, mais une telle construction juridique n’a apparemment pas encore été testée dans la jurisprudence.

Pourtant, lorsqu’il s’agit de diffuser des images sexuelles abusives, les enquêteurs ont un chemin un peu plus facile. Ils peuvent utiliser des lois sur la diffamation ou une loi de 1907 qui protège le droit à l’image. Cependant, les lois allemandes ne suivent clairement pas l’évolution technologique. La police ne peut généralement agir que si les victimes sont prêtes à déposer une plainte pénale – et même encore, elle n’a aucune base légale pour poursuivre ceux qui produisent réellement les images.

Les utilisateurs d’applications nudify, auteurs à part entière, n’ont pas grand-chose à craindre. Les paiements sont souvent anonymes, en utilisant Bitcoin, par exemple. De plus, les opérateurs de Clothoff promettent aux utilisateurs dans les premières phrases de l’empreinte : « Nous n’enregistrons aucune donnée ».

Cela semble être faux. DER SPIEGEL a reçu une liste qui comprend les identités de milliers d’utilisateurs, dont de nombreux hommes allemands. DER SPIEGEL a contacté beaucoup d’entre eux. Aucun n’a répondu.