Gen F

En rejoignant la communauté, vous recevez un accès exclusif à tous nos articles, pourrez partager votre témoignage et…
© An isometric, 3d pixel character, in three versions: caucasian, casual and african.

Sur Telegram, une IA maléfique dénude les photos de 100.000 femmes

Kathleen Wuyard

Comme si le spectre du revenge porn ou du hacking de nos photos privées n’était pas suffisamment glaçant, on apprend désormais avec effroi que les photos de 100.000 femmes ont été dénudées par une intelligence artificielle sur Telegram. Bienvenue dans l’univers répugnant des deepfakes.


Pour celles qui auraient par chance été épargnées par ce nouveau phénomène répugnant, les deepfakes, ou hypertrucages en français, sont des images modifiées à l’aide de l’intelligence artificielle. Une technique qui est relativement drôle quand elle est utilisée pour superposer des fichiers audio existants sur des vidéos, et faire raconter encore plus de carabistouilles au locataire de la Maison Blanche, par exemple, mais qui devient absolument glaçante quand elle sert à créer de fausses images pornographiques à l’insu de personnes dont les photos ont été diffusées en ligne. Des personnes qui sont souvent des femmes, parce que la sexualisation de nos corps ne connaît décidément pas de limites, et apparemment, nous déshabiller du regard ne suffit pas à certains pervers de la pire espèce.

Telegram, messagerie ou cimetière de deepfakes?


C’est ainsi qu’au moins 104 000 utilisatrices de la messagerie Telegram auraient été ciblées depuis juillet dernier par un bot malfaisant qui transforme leurs images et celles de leurs proches (dont certaines sont mineures) en deepfakes à caractère pornographique. Ainsi que le rapporte Wired, “les images sont générées par le biais d’une intelligence artificielle qui “enlève” les vêtements sur des photos habillées. Chaque jour, le bot envoie les images dans une galerie Telegram comptant plus de 25 000 abonnés, certaines images étant visionnées plus de 3 000 fois”. Et Matt Burgess, l’auteur de l’article, d’ajouter que si certaines des photos artificiellement dénudées sont immédiatement reconnaissables, “d’autres peuvent passer pour de véritables images à caractère pornographique”. Du côté de chez Sensity, l’entreprise de traque de deepfakes à l’origine de la découverte des centaines de milliers de photos piratées sur Telegram, on dénonce cette nouvelle forme de revenge porn particulièrement déviante.

La plupart des images qui ont été créées montrent des personnes qui ne sont pas des personnalités publiques, il y a clairement une volonté d’attaquer certaines personnes. D’ailleurs, la plupart d’entre elles n’ont probablement aucune idée du fait que des images nues d’elles circulent sur Internet”.


Car contrairement à certaines vidéo deepfakes extrêmement sophistiquées qui circulent sur le web, ici, nul besoin d’être un génie de l’intelligence artificielle pour créer ces images: il suffit de télécharger une photo de sa victime sur le bot de Telegram, ce dernier étant gratuit à utiliser, mais ne permettant pas de télécharger plus de dix images par jour. Moyennant un payement de 8€, il est possible de se procurer la version payante et de télécharger jusqu’à 112 (!) photos quotidiennes. Comme si tout ceci n’était pas suffisamment vomitif, on notera qu’à l’heure d’écrire ces lignes, la technologie du bot ne fonctionne que sur des photos de femmes. Ah ben oui.

Et sinon, pour rappel, en Belgique, le 16 avril dernier, une loi sur le revenge porn a été adoptée à la Chambre, prévoyant non seulement une procédure de retrait des images, mais aussi des sanctions pour celui ou celle qui les aurait diffusées d’une peine d’emprisonnement de six mois à cinq ans et une peine d’amende de 200 à 15.000 euros. Bon à savoir si vous êtes victime de ce type d’attaque abject: l’Institut pour l’égalité des femmes et des hommes est habilité à introduire une action en justice avec votre accord.

Lire aussi:

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Nos Partenaires