Un robot IA faisant de faux nus de femmes prospère sur Telegram

Grâce à la puissance de la technologie, les plus grands esprits du monde ont la capacité de réaliser presque tout. Mais, alors que certains s'efforcent de faciliter la vie des personnes handicapées ou d'aider à mettre fin à une pandémie mondiale, d'autres se concentrent sur une cause moins noble: la maltraitance et l'objectivation des femmes.

qu'est-il arrivé à q lazzarus

Un programmeur anonyme a lancé l'année dernière une application appelée DeepNude, qui utilisait la technologie deepfake pour supprimer les vêtements des photos de femmes. Il est décrit comme offrant la superpuissance dont vous avez toujours rêvé, permettant aux utilisateurs de télécharger des photos de femmes (la technologie ne fonctionnait pas sur les hommes), qu'il dépouillerait ensuite et se transformerait en faux nus crédibles. Il en coûte 50 $ à télécharger sur divers magasins d'applications.



L'application a été mise hors ligne quelques heures plus tard par son créateur, avec un retour en arrière étrange. Nous ne voulons pas gagner d’argent de cette façon, ont-ils écrit une déclaration . Le monde n'est pas encore prêt pour DeepNude.

Un an depuis, l'application a connu une croissance expontentielle en termes de popularité et d'utilisation. Le logiciel a été découvert sur Telegram, où il a été utilisé dans le cadre d’un «écosystème deepfake», dans lequel plus de 104 000 faux nus de femmes ont été créés. L'écosystème est centré sur un robot IA qui génère des nus sur demande, envoyant chaque jour des galeries de nouvelles images à des dizaines de milliers d'abonnés. Les membres du chat peuvent faire des demandes spécifiques au bot dans ses groupes de messagerie. On pense que certaines des photos représentent des filles mineures.

Sensity, une société de détection de deepfake, a publié ses conclusions sur cette question en octobre. S'adressant à Dazed, Giorgio Patrini, PDG et scientifique en chef de la société, a déclaré: Nous n'avons jamais observé la technologie DeepNude intégrée dans un bot de chat, avec son potentiel considérable en termes d'accessibilité pour les utilisateurs et d'échelle de production. En fait, c'est singulièrement l'incident le plus important de ce genre pour le nombre de victimes.

Les chercheurs rapportent que le nombre de faux nus sur Telegram a augmenté de 198% entre avril et juin 2020. Cette statistique est conforme aux nouvelles selon lesquelles la pornographie de vengeance était à la hausse pendant le verrouillage, les cas d'abus d'images intimes augmentant de 22% cette année. Dans son rapport, Sensity a abordé la menace plus large que les images «dépouillées» d’individus puissent être partagées sur des chaînes privées ou publiques au-delà de Telegram dans le cadre d’attentats de honte ou d’extorsion.

Bien que Sensity estime que plus de 104 000 femmes ont été ciblées par le robot, le nombre réel est probablement beaucoup plus élevé. Cela est dû à la simplicité de la technologie. Tout ce que les utilisateurs doivent faire pour générer un faux nu est d'envoyer au bot l'image de leur choix par SMS, qui renverra une image déshabillée, gratuitement. Ces photos sont ensuite partagées avec les chaînes Telegram affiliées. Un sondage anonyme réalisé dans l'un de ces canaux a révélé que 70% des utilisateurs venaient de Russie, d'Ukraine, de Biélorussie, du Kazakhstan et des pays de l'ex-URSS; beaucoup ont déclaré avoir découvert le bot sur le réseau social russe VK.



Aucune intervention ou retrait n'a eu lieu et, avec cela, nous ne savons pas qui, encore aujourd'hui, possède ou a partagé les images créées par le bot - Giorgio Patrini, Sensity

Bien que ses découvertes aient été rendues publiques il y a près de deux mois, Sensity affirme n'avoir jamais reçu de réponse de Telegram. Ces canaux sont toujours actifs sur la plate-forme, poursuit Patrini, bien que la plupart évitent désormais de faire ouvertement la publicité du bot ou de ses créations. Mais il est important de noter que le bot lui-même fonctionne toujours comme avant. Aucune intervention ou retrait n'a eu lieu et, avec cela, nous ne savons pas qui, encore aujourd'hui, possède ou a partagé les images créées par le bot.

Un certain nombre de groupes ont changé de nom pour éviter d'être identifiés, tandis que d'autres chaînes ont complètement disparu ou ont vu les images de nu partagées supprimées. Tel que rapporté par FILAIRE , à la fin du mois d'octobre, le bot est devenu inaccessible sur iPhone et iPad, ce qui a montré un message d'erreur indiquant qu'il enfreignait les directives d'Apple.

Patrini dit que le bot a pu prospérer spécifiquement sur Telegram en raison de la plate-forme permettant facilement l'intégration de bots et d'autres automatisations dans leurs salles de discussion, expliquant que la raison principale est technique.

Bien qu'il pense que vous pouvez actuellement distinguer les faux nus des vrais nus, Patrini déclare que cela ne durera pas longtemps. La technologie s'améliore et se banalise à un rythme accéléré, poursuit-il. Vous n'avez pas besoin d'être un chercheur en apprentissage automatique pour le faire fonctionner; le logiciel est open-source et est livré avec des tutoriels et de grandes communautés de développeurs.

Deepfake nus sur Telegram

Le processus de diffusion de deepfake nus sur Telegram par leRobot IAVia Sensity

Les gains possibles associés à ce type de technologie deepfake pourraient également inciter davantage de personnes à en abuser. Les gens deviennent ingénieux pour comprendre comment la technologie deepfake peut être transformée en opportunité commerciale, avec une connotation légitime ou illicite, explique Patrini. Par exemple, le robot de notre enquête monétise en fournissant aux utilisateurs payants une création plus rapide d'images sans aucun filigrane.

Cependant, à mesure que le logiciel deepfake s'améliore, la technologie de détection s'améliore également. Patrini dit que la technologie de détection jouera un rôle plus fondamental à l'avenir, en nous aidant à comprendre ce que nous voyons et en découvrant automatiquement les deepfakes en ligne. Alors que les femmes figurent dans 96 pour cent de toutes les vidéos deepfake, la technologie préventive et réactive pour arrêter la création de ces photos et vidéos est vitale dans la lutte en cours pour l'égalité des sexes.

C'est un problème qui affectera malheureusement chacun de nous en tant que particuliers, conclut Patrini. Nos traits de visage peuvent être volés et réutilisés en matériel visuel qui attaque notre réputation et peuvent être militarisés pour la honte publique, le chantage ou l'extorsion.

Il est important que chacun de nous sache que toute image ou vidéo que nous publions en ligne peut être visible dans le monde entier et que de mauvais acteurs peuvent l’utiliser.