Traduction d’un article de Genevieve Gluck initialement publié en anglais le 19 février 2024 à l’adresse suivante. Ce texte de Gluck expose un nouveau développement, particulièrement ignoble, de l’enfer technologique. Mais bien entendu, plus largement, c’est l’ensemble du développement technologique qui produit des effets désastreux aussi bien sur les plans sociaux et humains qu’écologiques, et qui se produit de manière intrinsèquement et nécessairement autoritaire — un développement technologique démocratique, c’est un oxymore. Il serait donc vain de chercher uniquement à remédier à tel ou tel symptôme du désastre. Pour en finir avec la production de nuisances, il faudrait s’en prendre aux fondements de la machinerie socio-technique largement hors de contrôle, vouée à en produire à la chaîne.
Ces dernières années, les nouvelles technologies de l’information et de la communication ont été synonymes d’une dégradation rapide de la vie privée. Les frontières entre le soi public et le soi privé se sont estompées jusqu’à la quasi-transparence, étant donné que nous sommes constamment encouragé·es à poster en ligne des informations sur notre quotidien. Les conséquences pour les droits des femmes et des filles, dont les corps étaient déjà traités comme des propriétés publiques avant cette érosion étendue de la vie privée, se manifestent à travers une myriade de nouveaux procédés visant à transformer la chair des femmes, et même l’identité des femmes elles-mêmes, en propriété intellectuelle.
[S’il est vrai que la technologie désintègre la vie privée en s’immisçant partout, toujours plus profondément, y compris par le biais de processus de surveillance ou d’espionnage, l’existence d’une séparation entre vie publique et vie privée au sein des organisations étatiques nuit aux filles et aux femmes depuis très longtemps, en favorisant les maltraitances commises en privé. Il ne s’agit pas de regretter une époque antérieure du développement technologique où la vie privée était davantage respectée. NdT]
Par le biais de la pornographie, des caméras-espionnes, des deepfakes, du revenge porn, des assistants IA « féminins », des poupées sexuelles, de l’idéologie de l’identité de genre et de la traite des femmes et des filles favorisée par les réseaux sociaux, les corps et les images des femmes sont maintenant protégées par des droits d’auteur et vendues par des hommes pour faire du profit. La femme réelle a été dissociée, séparée de son humanité et réduite à des images hypersexualisées, voire à une expérience à laquelle les hommes peuvent s’essayer eux-mêmes. Les progrès technologiques facilitent les abus sexuels et les violences masculines contre les femmes, le manque de surveillance procure une forme d’impunité, et la vitesse à laquelle se développent ces technologies force les défenseuses des droits des femmes à une vigilance constante.
Assez récemment et dans divers pays, grâce aux réseaux sociaux, des militantes ont réalisé d’importants progrès en vue d’attirer l’attention sur les atteintes aux droits humains des femmes que génèrent certains aspects du développement technologique. Toutefois, à moins de s’attaquer au cœur du problème — le fait que les hommes traitent les femmes comme des marchandises — les femmes et les filles resteront vulnérables et seront forcées de chercher à se défendre contre chaque nouvelle violation, facilitée par les technologies médiatiques émergentes qui promeuvent notre déshumanisation et incitent [les hommes] à commettre des violences sexuelles et physiques contre les femmes.
[Au lieu de faire avancer l’humanité, nous sommes perpétuellement occupées à devoir lutter pour accéder au statut de personne humaine. Pour faire avancer l’humanité, il faut retirer de force aux hommes leurs privilèges sur le vivant et sur toute chose. Ils ne les céderont jamais de bonne volonté. NdT]
La principale forme de techno-terrorisme qui se répand à grande vitesse en menaçant la sécurité et la dignité des femmes est aujourd’hui la prolifération de la pornographie deepfake (« pornographie truquée profondément crédible »). À l’heure actuelle, quantité de photos sont volées sur des profils de réseaux sociaux à cette fin. Cependant, les algorithmes développés, en partie par le géant coréen de la technologie Samsung, permettent de produire du contenu pornographique à partir d’une seule photo. Des données récentes montrent que près de 7 milliards de personnes, soit plus de 85 % de la population mondiale, possèdent un smartphone. Il est terrifiant, mais pas très compliqué, d’imaginer un avenir dans lequel n’importe quelle femme ou enfant qui se promène dans la rue peut être furtivement prise en photo et transformée en pornographie contre son gré — et même à son insu.
La pornographie deepfake : un techno-terrorisme mondial
« Toute violation du corps d’une femme peut devenir du sexe pour les hommes : c’est la vérité essentielle de la pornographie. »
— Andrea Dworkin, Intercourse (1987)
« La technologie deepfake est utilisée comme une arme contre les femmes via l’incrustation de leur visage dans du porno. C’est terrifiant, embarrassant, humiliant et silençant. Les vidéos pornographiques deepfake indiquent aux individues que leur corps ne leur appartient pas. La menace ou le fait d’être transformée en deepfake peut les contraindre à limiter leur présence en ligne, les empêcher d’accéder à ou de conserver un emploi, et de se sentir en sécurité. »
— Danielle Citron, professeure de droit à l’université de Boston autrice de Hate Crimes in Cyberspace (2014)
Un nouveau type de terrorisme sexuel est apparu en parallèle de la très lucrative industrie de la pornographie. Dans le porno deepfake, les victimes sont insérées dans un contexte pornographique sans leur consentement et à leur insu. « Deepfake » est un mot-valise constitué de « deep learning » (apprentissage profond) et « fake » (faux). Grâce à l’intelligence artificielle, il est possible de superposer l’image d’une personne à un contenu vidéo existant, avec une précision élevée.
Le terme et la méthode de manipulation sont apparus en 2017 via un utilisateur de Reddit nommé « Deepfakes », qui publiait de la pornographie modifiée figurant des visages de célébrités sur le corps d’actrices pornographiques. Le sujet des deepfakes est arrivé à la connaissance du grand public en Occident avec un article de Vice publié à la fin de la même année, remarquant que des célébrités américaines et britanniques telles que Scarlett Johansson, Gal Gadot, Maisie Williams, Aubrey Plaza et Taylor Swift s’étaient fait voler leur image et s’étaient retrouvées dans des films pornographiques hardcore.
Les deepfakes prolifèrent à une vitesse accélérée, stimulée par une objectification effrénée des femmes et par l’érotisation du viol de leurs limites. Lorsque les médias abordent le sujet des vidéos deepfakes, ils se concentrent surtout sur la menace de la désinformation, en particulier en ce qui concerne les élections politiques. Pourtant, la pornographie représente 98 % de toutes les vidéos deepfakes trouvées en ligne, et 99 % des victimes ciblées par la pornographie deepfake sont des femmes. Un rapport publié en 2023 par le groupe de recherche Sensity fait état d’une augmentation de 550 % du nombre de vidéos deepfakes uploadées en ligne par rapport à 2019.
La majorité des vidéos de pornographie deepfake analysées par le groupe de recherche représentaient des femmes sud-coréennes, un fait attribué à la popularité de la K‑pop. Trois des quatre membresses du groupe Blackpink, considéré comme l’un des groupes de K‑pop les plus populaires, figurent dans le top 10 des personnes les plus ciblées. Après la Corée du Sud, les principales victimes de pornographie deepfake sont issues des États-Unis, du Japon et du Royaume-Uni.
Pourtant, la popularité de la K‑pop n’est pas à l’origine de ce contenu. Le porno deepfake est exclusivement le fait d’hommes. La raison pour laquelle les femmes sud-coréennes en sont les cibles principales est probablement due à l’expansion rapide des industries technologiques en Asie, associée à une atmosphère sociale de misogynie décomplexée.
Plusieurs théories expliquent la raison pour laquelle la Corée du Sud, en particulier, est devenue l’épicentre mondial de la pornographie par caméra-espionne et des violences sexuelles numériques. Au cours des dernières décennies, le pays est devenu une puissance économique, entraînant sur le marché du travail et en nombre sans précédent toute une génération de jeunes femmes éduquées. Les attaques misogynes virulentes pourraient en constituer le contrecoup. [Toutes les avancées des femmes doivent affronter un retour de bâton masculiniste, NdT]. Selon Lee Mi-jeong, chargée de recherche à l’Institut coréen pour le développement des femmes, « les jeunes sont très frustrés, en particulier les hommes, lorsqu’ils comparent leur vie à celle de la génération de leurs parents. Cette frustration est projetée sur les femmes. »
[Eh oui, ils ne sont plus automatiquement entitrés à posséder une servante domestique et sexuelle. Ils sont obligés d’essayer d’être aimables s’ils veulent des femmes dans leur vie et une descendance. C’est compliqué. NdT]
En outre, la Corée du Sud peut se targuer d’avoir la connexion Internet la plus rapide de la planète, accessible gratuitement dans ses plus grandes villes, et d’abriter le géant de la technologie Samsung, qui a joué un rôle de premier plan dans le développement de l’imagerie deepfake. Ces facteurs ont largement contribué au développement d’une culture voyeuriste de la pornographie en ligne, à un rythme supérieur à celui des autres pays riches. Cependant, l’épidémie de deepfakes est en train de se propager à l’échelle mondiale. À l’heure où nous rédigeons ces lignes, il existe déjà plusieurs sites web dédiés au porno deepfake, ainsi normalisé comme un nouveau genre, et surtout, comme une nouvelle forme de terrorisme [masculin] contre les femmes.
Selon le groupe de recherche Sensity, jusqu’à 1 000 vidéos deepfakes par mois ont été mises en ligne sur des sites pornographiques au cours de l’année 2020. Ces vidéos, hébergées sur trois des plus grands sites pornographiques (XVideos, XNXX et xHamster) enregistrent des millions de vues qui génèrent à leur tour des revenus publicitaires. Selon Wired.com, une vidéo de 30 secondes d’Emma Watson apparaît sur les trois sites et a été visionnée au moins 23 millions de fois. Billie Eilish, Natalie Portman et Anushka Shetty sont d’autres célébrités victimes de ce type de « viol numérique ».
Si la copie virtuelle d’une femme peut être utilisée de manière convaincante dans le porno hardcore, n’importe quelle femme qui envoie une simple photo d’elle en ligne est une victime potentielle d’agression sexuelle numérique.
Avec le numérique, il est de plus en plus facile de remplacer un visage par un autre. En 2019, un laboratoire russe de Samsung a annoncé avoir créé un système d’IA capable de générer une vidéo complètement fausse à partir d’une seule image, et l’a démontré en utilisant des photos de célébrités et des peintures célèbres, dont la Joconde, que l’on peut voir parler, sourire et même bouger la tête. Le titre « Living Portraits » (« Portrait vivant ») apparaît en haut de la vidéo, comme si le spectateur était supposé croire que cette technologie trouve sa motivation dans un intérêt pour l’histoire et l’art, et pas dans la perspective d’exploiter sexuellement les femmes.
[Le texte original dit « d’exploiter sexuellement les femmes contre leur gré ». Toutefois, en tant que féministes radicales, nous savons que l’exploitation sexuelle ne peut être consentie, et qu’elle est donc toujours contre notre gré. Même par la grande majorité de celles qui le revendiquent. Consentir à sa propre exploitation dans une société qui nous y conditionne n’est pas un choix. D’ailleurs, les hommes qui sont contre le voile mais ne s’opposent pas forcément à la prostitution et ne comprennent pas pourquoi les femmes battues ne quittent pas tout de suite leur conjoint, vous êtes en état de dissonance cognitive. NdT]
***
En 2020, l’équipe de recherche Sensity a rapporté que plus de 680 000 femmes en Russie et en Europe de l’Est avaient été victimes du vol de leur image et s’étaient retrouvées à leur insu dans des images pornos par le biais d’un bot deepfake disponible gratuitement sur Telegram. Les utilisateurs pouvaient télécharger une photo et recevoir une version pornifiée en quelques minutes. Selon Giorgio Patrini, PDG de Sensity et coauteur du rapport, « Les cibles sont généralement de jeunes filles. Malheureusement, il est évident qu’il y a des mineures dans le lot. »
Sensity a découvert qu’un groupe Telegram où s’échangeait du contenu pornographique deepfake comptait plus de 100 000 membres, dont 70 % semblaient résider en Russie ou en Europe de l’Est. Environ 104 852 images de femmes avaient été publiées sur l’application en octobre de cette année-là, 70 % des photos provenant de réseaux sociaux ou de sources privées.
Des vidéos provenant de comptes TikTok, y compris de jeunes filles mineures, sont également téléchargées sur PornHub. Près d’un tiers des internautes qui utilisent TikTok ont moins de 14 ans, selon des données internes de l’entreprise. Une enquête menée par Rolling Stone a révélé plus d’une vingtaine de cas d’influenceuses TikTok dont l’image avait été volée pour produire de la pornographie deepfake. « La plateforme est basée sur la vidéo, ce qui fournit davantage de matériel [pour fabriquer des deepfakes] », a déclaré Patrini. « Ces personnes sont plus exposées que si elles ne faisaient que télécharger des photos. »
La mère d’une jeune fille de 17 ans a découvert qu’une de ses vidéos TikTok avait été publiée sur PornHub. « Elle était mortifiée. Elle ne voulait pas retourner à l’école », a déclaré la mère de la jeune fille. « Elle a posté cette vidéo en toute innocence. Elle ne voulait pas finir sur PornHub. Ce n’est pas une leçon que l’on devrait apprendre à 17 ans. »
[Mais c’est une leçon que doivent sans cesse réapprendre les femmes : les masculinistes de tous bords et de toutes confessions veulent empêcher les femmes de s’instruire et d’accéder librement aux lieux publics, virtuels ou réels. L’assujettissement des femmes à leurs services domestiques et sexuels est le but du terrorisme masculin, qu’il soit religieux ou séculaire. NdT]
Dans un autre cas, un serveur Discord dédié à la création de photos pornos deepfake via des demandes d’utilisateurs a été découvert. Il suffisait d’entrer la formule : « Do [name redacted], by the way she turns 18 in 4 days. » (« Faites [écrire le nom] qui aura d’ailleurs 18 ans dans 4 jours »). L’administrateur réalisait la vidéo et la postait sur PornHub deux semaines après les 18 ans de la victime.
***
Des occurrences de groupes sur Telegram ou de serveur Discord ciblant spécifiquement les femmes et les filles à des fins d’abus sexuel, de traite et/ou de prolifération de deepfakes ont été signalées aux États-Unis, au Royaume-Uni, au Canada, en Italie, en Corée du Sud, en Russie, en Chine, à Singapour, en Macédoine du Nord, en Malaisie, au Bangladesh et au Myanmar, mais le problème est probablement bien plus répandu et n’est ni suffisamment rapporté ni suffisamment étudié.
Au Myanmar, du porno deepfake est réalisé à partir des photos de manifestantes pro-démocratie. Le 1er février 2021, la junte militaire, dirigée par la Tatmadaw, a organisé un coup d’État et remplacé la Ligue nationale pour la démocratie (LND). Il est important de noter que la nation était dirigée par une femme, Aung San Suu Kyi, qui a été évincée et remplacée par une junte militaire sous la direction du général Min Aung Hlaing.
Les femmes ont été à l’avant-garde des manifestations contre les militaires, ayant mené les premières manifestations dans les rues et continuant à organiser la résistance. En mars 2021, une jeune femme connue sous le nom d’ « Angel », ou Kyal Sin, a été prise pour cible par les militaires et a reçu une balle dans la tête tirée par un sniper lors d’une manifestation pacifique. Sa mort a été rendue publique et elle est devenue un symbole du mouvement de résistance.
Parmi les manifestantes, nombreuses sont des ouvrières du textile expérimentées en organisations syndicales. L’industrie du textile représente une part importante du PIB du Myanmar et constitue le secteur d’activité le plus important du pays. Les femmes et les filles, sous-payées et surchargées de travail, représentent environ 90 % de la main-d’œuvre, certaines ayant commencé à travailler dès l’âge de 13 ans. Gagnant moins de 2 dollars par jour, elles travaillent 11 heures par jour, six jours sur sept, fournissant des produits à certaines des entreprises de la mode les plus riches du monde occidental.
Dans de nombreuses usines, les conditions des ouvrières sont exécrables, avec une chaleur accablante due à une mauvaise ventilation et souvent une impossibilité de prendre des pauses. Le vol de salaire, les violences et le harcèlement sexuels, les cadences de travail inhumaines et les heures supplémentaires obligatoires sont quelques-unes des conditions que ces femmes endurent, et les rapports indiquent que les abus ont « nettement » augmenté après le coup d’État militaire. Avant le coup d’État, les femmes de l’industrie textile avaient manifesté pour réclamer des salaires et des conditions de travail équitables.
Thandar Ko, fondatrice de l’association de défense des droits des femmes BusinessKind, qui informe les ouvrières du textile sur leurs droits, a critiqué l’absence de lois visant à les protéger de ce cauchemar quotidien. « Je voudrais qu’il y ait une loi pour protéger les femmes, ce serait bien mieux », a‑t-elle déclaré. « Mais comme il n’y en a pas, de nombreuses ouvrières sont trop effrayées pour dénoncer les conditions de travail ou le harcèlement. »
La junte militaire a étouffé les tentatives d’organisation politique des femmes pour défendre leurs droits. Ma Moe Sandar Myint, dirigeante de la Fédération des ouvrières du textile du Myanmar (FGWM), l’un des plus grands syndicats d’ouvrières textile du pays, a déclaré à Jacobin en 2021 : « Nous avions l’habitude d’organiser des grèves ouvrières sous le gouvernement de Daw Aung San Suu Kyi, lorsqu’il y avait un État de droit. Aujourd’hui, il n’y en a plus. Nous ne pouvons pas critiquer ouvertement les militaires sans que l’on nous tire dessus ou sans être arrêtées. »
Ces résistantes contre l’armée sont détenues et torturées par la junte ; au moins 308 femmes et filles ont été tuées par les forces de la junte depuis le coup d’État militaire de février 2021, et des milliers d’autres ont été arrêtées. En juin 2023, il a été signalé que des ouvrières du textile et des militantes syndicales allaient être jugées par l’armée pour avoir réclamé une augmentation de salaire dans une usine chinoise exploitée par Hosheng Myanmar Garment Company Limited à Yangon. Cette usine est un fournisseur d’Inditex, le propriétaire du détaillant espagnol Zara — qui prévoit de quitter le pays, à l’instar de plusieurs autres détaillants du marché de la mode européen l’ayant déjà fait.
D’autres femmes sont également visées par des campagnes de « punition sociale » à travers la production et la diffusion de contenus pornographiques deepfakes représentant des dirigeantes de la résistance. À ce jour, des milliers de femmes politiquement actives ont été victimes de doxxing ou d’abus dans le cadre de ces campagnes. Des vidéos et des photos sexuelles deepfakes des victimes sont diffusées sur des groupes Telegram pro-militaires. Selon les rapports, le contenu est souvent légendé avec un langage dégradant, comme dans cet exemple donné aux médias : « Voici la pute qui se filme en HD en train de se faire baiser par tout le monde… Reste à ta place, salope ! »
Les groupes et les pages de « punition sociale » publient fréquemment les adresses de domicile des femmes et d’autres informations personnelles avec les photos et vidéos pornos deepfakes. Une semaine seulement après que les militaires ont pris le contrôle du gouvernement élu du Myanmar, la fille d’un ministre du Conseil d’administration de l’État (CAS) de la junte est devenue la première victime publique de cette tactique. Des vidéos et des photos explicites de la jeune femme ont été diffusées à grande échelle, y compris par les opposants au coup d’État. Les deux factions politiques se servent de la « punition sociale » des femmes par le deepfake : ceux qui soutiennent l’armée, afin de faire honte aux manifestant·es pro-démocratie, et ceux qui s’opposent à la junte, pour humilier les femmes pro-junte considérées comme complices.
[Les hommes de tous bords, en dépit de leurs différences politiques, économiques et religieuses, sont toujours d’accord sur la manière dont il convient de traiter les femmes et manifestent leur misogynie de la même manière, à travers les violences sexuelles et les fémicides. NdT]
***
La plupart des gouvernements du monde n’ont toujours pas déployé et moins encore appliqué de législation criminalisant la pornographie deepfake. Pendant ce temps, un dangereux précédent est en train de s’établir dans plusieurs pays. Au Japon, par exemple, les deepfakes pornographiques ne sont clairement pas considérés comme relevant des atteintes sexuelles. En revanche, ces abus sont soit traités comme un crime contre les industries qui possèdent l’image des femmes concernées, soit ne sont pas du tout considérés comme un crime, à l’instar de la pornographie infantile générée par IA.
En octobre 2020, la police de Tokyo a arrêté deux hommes, Takumi Hayashida et Takanobu Otsuki, respectivement étudiant universitaire et ingénieur système, pour avoir généré de la pornographie deepfake en utilisant les visages de femmes célèbres puis uploadé les vidéos sur des sites web pornographiques. À eux deux, les deux hommes ont gagné environ 800 000 yens, soit 7 600 dollars, en publiant les vidéos sur un site web géré par Hayashida.
Il s’agissait de la toute première arrestation de ce type dans le pays. Les accusations portées contre les deux hommes ont été révélatrices de la manière dont cette nouvelle forme de terrorisme contre les femmes est perçue par les législateurs — majoritairement des hommes. Plutôt que de qualifier cette violation de violence sexuelle, la police a accusé les hommes de diffamation et d’infraction au droit d’auteur. Ce crime a été considéré comme un affront aux entreprises propriétaires des images des deux femmes concernées : le studio de pornographie et les entreprises de divertissement pour lesquelles les femmes travaillaient.
***
Il est effrayant de constater que la technologie deepfake sert également à produire du matériel d’exploitation sexuelle des enfants. En raison du laxisme des lois japonaises concernant la pornographie infantile animée [le Shota représente des enfants de 4–5 ans ayant des relations sexuelles entre eux ou avec des adultes et c’est une institution au Japon, NdT], de nombreux sites web dédiés à la production par IA de matériel pédopornographique ont récemment fait leur apparition. En novembre 2023, une enquête du Yomiuri Shimbun a révélé qu’un certain nombre de sites web hébergés au Japon étaient consacrés à la création et à la vente d’images pédopornographiques.
L’un de ces sites, basé à Osaka, comptait plus de 100 000 utilisateurs enregistrés et enregistrait plus de 2 millions de visites par mois. Le contenu examiné par le journal était « pratiquement impossible à distinguer de photos réelles ». Plus de 3 000 photos pédopornographiques par mois étaient publiées sur le site, sachant que l’enquête n’a porté que sur les pages accessibles gratuitement. Les pages payantes, auxquelles les journalistes n’ont pas eu accès, contiendraient beaucoup plus d’images de ce type.
Des milliers d’images générées par IA montrant des enfants, certains âgés de moins de deux ans, soumis aux pires formes d’agressions sexuelles ont été découvertes. En réponse à une enquête du Yomiuri Shimbun, un représentant de la société gérante du site web a déclaré : « Nous ne pensons pas qu’il y ait le moindre problème légal. »
L’enquête fait suite aux avertissements de l’Internet Watch Foundation (IWF) (« Fondation pour une Veille de l’Internet »), basée au Royaume-Uni, qui met en garde contre l’utilisation abusive de cette technologie qui menace de « submerger » Internet.
Le mois dernier, l’IWF a publié une déclaration à l’attention des gouvernements et des fournisseurs de technologie, les exhortant à prendre des mesures avant qu’il ne soit trop tard et à empêcher un déferlement d’images d’exploitation sexuelle d’enfants générées par l’IA. À défaut, la situation risquerait de monopoliser les enquêteurs des forces de l’ordre et d’élargir considérablement le nombre de potentielles victimes.
Susie Hargreaves, OBE, a déclaré : « Nos pires cauchemars sont devenus réalité. En début d’année, nous avons mis en garde contre les images générées par IA, et prédit qu’elles seraient bientôt indistinguables des images réelles d’enfants victimes d’exploitation sexuelle ; et que nous risquions de voir ces images proliférer en très grand nombre. Nous avons maintenant dépassé ce stade. »
Dan Sexton, responsable des technologies au sein du groupe de veille, a déclaré que les analystes de l’IWF avaient découvert des visages d’enfants célèbres en ligne, ainsi qu’une « demande massive pour la création de nouvelles images d’enfants ayant déjà été exploités, il y a peut-être de cela des années […] Ils prennent du contenu réel existant et le recyclent pour créer de nouveaux contenus avec ces victimes. »
Selon l’IWF, « ce sont des images d’enfants réellement victimes d’exploitation sexuelle dont les visages et les corps ont été réintégrés dans des modèles d’IA conçus pour en générer des images inédites ».
Le rapport souligne également que les criminels emploient la technologie de l’IA pour générer des images de célébrités qui ont été « dé-maturées » et représentées à des âges infantiles dans des scénarios sexuels. En outre, la technologie est utilisée de manière abusive pour « dénuder » des enfants dont les photos ont été téléchargées en ligne. [Les photos de vos enfants que vous postez sur FB et Insta. NdT] Les analystes ont également constaté que ce contenu était commercialisé.
En un mois, l’IWF a enquêté sur 11 108 images d’IA partagées sur un forum du dark web consacré à la pédopornographie. Il a été confirmé que 2 978 d’entre elles représentaient des agressions sexuelles sur des enfants ; 2 562 étaient si réalistes que la loi devrait les traiter de la même manière que s’il s’agissait de véritables images d’agressions sexuelles. Plus d’une image sur cinq (564) ont été classées dans la catégorie A, qui correspond aux images les plus graves ou les plus violentes, représentant le viol, la torture sexuelle et la bestialité. Plus de la moitié (1 372) de ces images représentaient des enfants en âge de fréquenter l’école primaire (sept à dix ans).
Mais les photos d’agressions sexuelles d’enfants ne sont pas les seuls à être crées et partagées par des prédateurs sur le dark web. En septembre 2023, dans la petite ville d’Almendralejo, en Espagne, des lycéens ont généré et diffusé des photos deepfakes pornographiques de leurs camarades de classe. Les photos nues des jeunes filles ont été générées à l’aide d’une application basée sur l’intelligence artificielle, et au moins une victime a déclaré avoir fait l’objet d’extorsion d’argent contre la non-diffusion en public des deepfakes la concernant. En réaction, les mères des lycéennes de la ville ont rapidement organisé une stratégie de défense en créant un groupe WhatsApp pour collaborer avec les enquêteurs.
En novembre 2022, un homme de l’Utah, aux États-Unis, a été arrêté pour avoir créé de la pornographie infantile deepfake en plaçant des visages d’enfants sur des corps d’adultes. Interrogé, il a admis avoir généré au moins 10 vidéos dans lesquelles il avait inséré le visage d’un enfant sur du matériel pornographique pour adultes. Au cours de son entretien avec les enquêteurs, il a également affirmé s’être exhibé devant un·e mineur·e.
En septembre 2023, le premier cas de ce type en Corée du Sud, un homme de Busan a été reconnu coupable d’avoir créé de la pornographie infantile générée par l’IA à l’aide d’une technologie de « haut niveau » qui rendait les photos incroyablement réalistes.
En 2021, Passant Khaled, une adolescente égyptienne âgée de 17 ans s’est suicidée après que des photos nues — et prétendument — d’elle ont été diffusées en ligne. Un jeune homme dont elle avait rejeté les avances est à l’origine de la création et de la diffusion des photos deepfakes. Passant Khaled a ingurgité du poison et est morte le 23 décembre 2021, laissant une dernière note à sa mère. « Maman, crois-moi, la fille sur ces photos n’est pas moi », a‑t-elle écrit. [Trois hommes impliqués, âgés de 16 à 21 ans ont été condamnés à 15 ans de prison. NdT]
Telle est la choquante réalité du porno deepfake : des femmes et des enfants peuvent être victimes d’agressions et d’exploitation sexuelles sans même être touché·es, et cette violation peut être vue et consultée à l’infini par des millions d’hommes participant ainsi à leur avilissement. Il est essentiel de noter que cette forme de média incite [les hommes] à commettre des violences sexuelles physiques contre les femmes et des enfants, et à les monétiser.
Malgré tout, certains universitaires occidentaux en Europe, ainsi que des groupes de pression pro-pédophiles en Europe et en Amérique (États-Unis et Amérique du Sud), proposent la légalisation de la pornographie infantile générée par IA en tant que « thérapie » pour prédateurs sexuels. Il s’agit d’une proposition incompréhensible et horrifiante : selon cette logique, et contre toute attente, le viol serait donc un crime susceptible d’être évité grâce à la consommation régulière de sa reconstitution. Les forces de l’ordre devraient-elles aussi proposer aux tueurs condamnés des programmes d’IA en réalité virtuelle qui leur permettraient de reproduire des meurtres brutaux en guise de réadaptation ? Il est clair qu’une société saine ne ferait rien de tel, ni ne le considérerait comme une option raisonnable. Mais avec la prolifération croissante de la pornographie générée par IA, de nouveaux prédateurs sexuels sont créés chaque jour, ce qui met à rude épreuve des systèmes judiciaires déjà très indulgents à l’égard des violences sexuelles. Et la réponse des universitaires a été de se ranger du côté des proxénètes, des pornographes et des pédophiles, dans un haussement d’épaules cynique.
L’industrie du sexe a joué un rôle moteur dans le développement des technologies médiatiques, notamment la VHS, la vidéo en streaming, et même certains aspects de l’Internet en lui-même. Danielle Citron n’a pas maché ses mots lorsqu’elle s’est exprimée devant la Commission du renseignement de la Chambre des représentants des États-Unis sur l’impact de l’intelligence artificielle et de la manipulation des médias : « Nous constatons régulièrement que les hommes utilisent tout ce qu’ils trouvent pour tourmenter les femmes. Les deepfakes n’en sont que la dernière illustration. »
Les deepfakes démontrent non seulement que les hommes se servent des menaces et des représentations de violences sexuelles pour terroriser et déshumaniser les femmes et les enfants, mais aussi qu’ils ont des intérêts personnels et financiers à forcer les femmes à se conformer à leurs fantasmes et à leurs attentes sexuelles. Les outils qui permettent aux hommes de projeter leurs désirs sur les femmes se sont développés rapidement, sans contrôle, et les limites entre notre réalité et leurs psychoses pornographiques deviennent de plus en plus floues.
[Je n’appellerais pas « désirs » ce que les hommes projettent sur les femmes à travers la pornographie et les velléités de violences sexuelles générées par IA, mais plutôt de « dangereux troubles psycho-sexuels » induits par une société d’exploitation masculocentrée. Les dominants finissent toujours par devenir sociopathiques. NdT]
La résistance et la solidarité mondiales sont plus que jamais nécessaires face à ce terrorisme technologique. Dans l’intérêt de notre avenir et de celui de nos filles, nous devons nous réunir pour élaborer des stratégies et nous opposer à cette nuisance pour notre sécurité, notre dignité et notre humanité.
Genevieve Gluck
Traduction : Audrey A.
Relecture : Nicolas Casaux
Source: Lire l'article complet de Le Partage