Fantasme des hommes, cauchemar des femmes : le porno deepfake est un techno-terrorisme (par Genevieve Gluck)

Fantasme des hommes, cauchemar des femmes : le porno deepfake est un techno-terrorisme (par Genevieve Gluck)

Tra­duc­tion d’un article de Gene­vieve Gluck ini­tia­le­ment publié en anglais le 19 février 2024 à l’adresse sui­vante. Ce texte de Gluck expose un nou­veau déve­lop­pe­ment, par­ti­cu­liè­re­ment ignoble, de l’enfer tech­no­lo­gique. Mais bien enten­du, plus lar­ge­ment, c’est l’ensemble du déve­lop­pe­ment tech­no­lo­gique qui pro­duit des effets désas­treux aus­si bien sur les plans sociaux et humains qu’écologiques, et qui se pro­duit de manière intrin­sè­que­ment et néces­sai­re­ment auto­ri­taire — un déve­lop­pe­ment tech­no­lo­gique démo­cra­tique, c’est un oxy­more. Il serait donc vain de cher­cher uni­que­ment à remé­dier à tel ou tel symp­tôme du désastre. Pour en finir avec la pro­duc­tion de nui­sances, il fau­drait s’en prendre aux fon­de­ments de la machi­ne­rie socio-tech­nique lar­ge­ment hors de contrôle, vouée à en pro­duire à la chaîne.


Ces der­nières années, les nou­velles tech­no­lo­gies de l’information et de la com­mu­ni­ca­tion ont été syno­nymes d’une dégra­da­tion rapide de la vie pri­vée. Les fron­tières entre le soi public et le soi pri­vé se sont estom­pées jus­qu’à la qua­si-trans­pa­rence, étant don­né que nous sommes constam­ment encouragé·es à pos­ter en ligne des infor­ma­tions sur notre quo­ti­dien. Les consé­quences pour les droits des femmes et des filles, dont les corps étaient déjà trai­tés comme des pro­prié­tés publiques avant cette éro­sion éten­due de la vie pri­vée, se mani­festent à tra­vers une myriade de nou­veaux pro­cé­dés visant à trans­for­mer la chair des femmes, et même l’i­den­ti­té des femmes elles-mêmes, en pro­prié­té intellectuelle.

[S’il est vrai que la tech­no­lo­gie dés­in­tègre la vie pri­vée en s’immisçant par­tout, tou­jours plus pro­fon­dé­ment, y com­pris par le biais de pro­ces­sus de sur­veillance ou d’espionnage, l’existence d’une sépa­ra­tion entre vie publique et vie pri­vée au sein des orga­ni­sa­tions éta­tiques nuit aux filles et aux femmes depuis très long­temps, en favo­ri­sant les mal­trai­tances com­mises en pri­vé. Il ne s’agit pas de regret­ter une époque anté­rieure du déve­lop­pe­ment tech­no­lo­gique où la vie pri­vée était davan­tage res­pec­tée. NdT]

Par le biais de la por­no­gra­phie, des camé­ras-espionnes, des deep­fakes, du revenge porn, des assis­tants IA « fémi­nins », des pou­pées sexuelles, de l’idéologie de l’identité de genre et de la traite des femmes et des filles favo­ri­sée par les réseaux sociaux, les corps et les images des femmes sont main­te­nant pro­té­gées par des droits d’au­teur et ven­dues par des hommes pour faire du pro­fit. La femme réelle a été dis­so­ciée, sépa­rée de son huma­ni­té et réduite à des images hyper­sexua­li­sées, voire à une expé­rience à laquelle les hommes peuvent s’essayer eux-mêmes. Les pro­grès tech­no­lo­giques faci­litent les abus sexuels et les vio­lences mas­cu­lines contre les femmes, le manque de sur­veillance pro­cure une forme d’impunité, et la vitesse à laquelle se déve­loppent ces tech­no­lo­gies force les défen­seuses des droits des femmes à une vigi­lance constante.

Cré­dit pho­to : MIT Tech­no­lo­gy Review

Assez récem­ment et dans divers pays, grâce aux réseaux sociaux, des mili­tantes ont réa­li­sé d’importants pro­grès en vue d’attirer l’at­ten­tion sur les atteintes aux droits humains des femmes que génèrent cer­tains aspects du déve­lop­pe­ment tech­no­lo­gique. Tou­te­fois, à moins de s’attaquer au cœur du pro­blème — le fait que les hommes traitent les femmes comme des mar­chan­dises — les femmes et les filles res­te­ront vul­né­rables et seront for­cées de cher­cher à se défendre contre chaque nou­velle vio­la­tion, faci­li­tée par les tech­no­lo­gies média­tiques émer­gentes qui pro­meuvent notre déshu­ma­ni­sa­tion et incitent [les hommes] à com­mettre des vio­lences sexuelles et phy­siques contre les femmes.

[Au lieu de faire avan­cer l’humanité, nous sommes per­pé­tuel­le­ment occu­pées à devoir lut­ter pour accé­der au sta­tut de per­sonne humaine. Pour faire avan­cer l’humanité, il faut reti­rer de force aux hommes leurs pri­vi­lèges sur le vivant et sur toute chose. Ils ne les céde­ront jamais de bonne volon­té. NdT]

La prin­ci­pale forme de tech­no-ter­ro­risme qui se répand à grande vitesse en mena­çant la sécu­ri­té et la digni­té des femmes est aujourd’­hui la pro­li­fé­ra­tion de la por­no­gra­phie deep­fake (« por­no­gra­phie tru­quée pro­fon­dé­ment cré­dible »). À l’heure actuelle, quan­ti­té de pho­tos sont volées sur des pro­fils de réseaux sociaux à cette fin. Cepen­dant, les algo­rithmes déve­lop­pés, en par­tie par le géant coréen de la tech­no­lo­gie Sam­sung, per­mettent de pro­duire du conte­nu por­no­gra­phique à par­tir d’une seule pho­to. Des don­nées récentes montrent que près de 7 mil­liards de per­sonnes, soit plus de 85 % de la popu­la­tion mon­diale, pos­sèdent un smart­phone. Il est ter­ri­fiant, mais pas très com­pli­qué, d’i­ma­gi­ner un ave­nir dans lequel n’im­porte quelle femme ou enfant qui se pro­mène dans la rue peut être fur­ti­ve­ment prise en pho­to et trans­for­mée en por­no­gra­phie contre son gré — et même à son insu.

La pornographie deepfake : un techno-terrorisme mondial

« Toute vio­la­tion du corps d’une femme peut deve­nir du sexe pour les hommes : c’est la véri­té essen­tielle de la pornographie. »

— Andrea Dwor­kin, Inter­course (1987)

« La tech­no­lo­gie deep­fake est uti­li­sée comme une arme contre les femmes via l’incrustation de leur visage dans du por­no. C’est ter­ri­fiant, embar­ras­sant, humi­liant et silen­çant. Les vidéos por­no­gra­phiques deep­fake indiquent aux indi­vi­dues que leur corps ne leur appar­tient pas. La menace ou le fait d’être trans­for­mée en deep­fake peut les contraindre à limi­ter leur pré­sence en ligne, les empê­cher d’accéder à ou de conser­ver un emploi, et de se sen­tir en sécurité. »

— Danielle Citron, pro­fes­seure de droit à l’u­ni­ver­si­té de Bos­ton autrice de Hate Crimes in Cybers­pace (2014)

Un nou­veau type de ter­ro­risme sexuel est appa­ru en paral­lèle de la très lucra­tive indus­trie de la por­no­gra­phie. Dans le por­no deep­fake, les vic­times sont insé­rées dans un contexte por­no­gra­phique sans leur consen­te­ment et à leur insu. « Deep­fake » est un mot-valise consti­tué de « deep lear­ning » (appren­tis­sage pro­fond) et « fake » (faux). Grâce à l’in­tel­li­gence arti­fi­cielle, il est pos­sible de super­po­ser l’i­mage d’une per­sonne à un conte­nu vidéo exis­tant, avec une pré­ci­sion élevée.

Le terme et la méthode de mani­pu­la­tion sont appa­rus en 2017 via un uti­li­sa­teur de Red­dit nom­mé « Deep­fakes », qui publiait de la por­no­gra­phie modi­fiée figu­rant des visages de célé­bri­tés sur le corps d’ac­trices por­no­gra­phiques. Le sujet des deep­fakes est arri­vé à la connais­sance du grand public en Occi­dent avec un article de Vice publié à la fin de la même année, remar­quant que des célé­bri­tés amé­ri­caines et bri­tan­niques telles que Scar­lett Johans­son, Gal Gadot, Mai­sie Williams, Aubrey Pla­za et Tay­lor Swift s’étaient fait voler leur image et s’étaient retrou­vées dans des films por­no­gra­phiques hard­core.

Les deep­fakes pro­li­fèrent à une vitesse accé­lé­rée, sti­mu­lée par une objec­ti­fi­ca­tion effré­née des femmes et par l’é­ro­ti­sa­tion du viol de leurs limites. Lorsque les médias abordent le sujet des vidéos deep­fakes, ils se concentrent sur­tout sur la menace de la dés­in­for­ma­tion, en par­ti­cu­lier en ce qui concerne les élec­tions poli­tiques. Pour­tant, la por­no­gra­phie repré­sente 98 % de toutes les vidéos deep­fakes trou­vées en ligne, et 99 % des vic­times ciblées par la por­no­gra­phie deep­fake sont des femmes. Un rap­port publié en 2023 par le groupe de recherche Sen­si­ty fait état d’une aug­men­ta­tion de 550 % du nombre de vidéos deep­fakes uploa­dées en ligne par rap­port à 2019.

La majo­ri­té des vidéos de por­no­gra­phie deep­fake ana­ly­sées par le groupe de recherche repré­sen­taient des femmes sud-coréennes, un fait attri­bué à la popu­la­ri­té de la K‑pop. Trois des quatre mem­bresses du groupe Black­pink, consi­dé­ré comme l’un des groupes de K‑pop les plus popu­laires, figurent dans le top 10 des per­sonnes les plus ciblées. Après la Corée du Sud, les prin­ci­pales vic­times de por­no­gra­phie deep­fake sont issues des États-Unis, du Japon et du Royaume-Uni.

Pour­tant, la popu­la­ri­té de la K‑pop n’est pas à l’o­ri­gine de ce conte­nu. Le por­no deep­fake est exclu­si­ve­ment le fait d’hommes. La rai­son pour laquelle les femmes sud-coréennes en sont les cibles prin­ci­pales est pro­ba­ble­ment due à l’ex­pan­sion rapide des indus­tries tech­no­lo­giques en Asie, asso­ciée à une atmo­sphère sociale de miso­gy­nie décomplexée.

Des mil­liers de Coréennes se sont mobi­li­sées en 2018 contre l’é­pi­dé­mie de por­no­gra­phie par camé­ra-espionne dans le pays.

Plu­sieurs théo­ries expliquent la rai­son pour laquelle la Corée du Sud, en par­ti­cu­lier, est deve­nue l’é­pi­centre mon­dial de la por­no­gra­phie par camé­ra-espionne et des vio­lences sexuelles numé­riques. Au cours des der­nières décen­nies, le pays est deve­nu une puis­sance éco­no­mique, entraî­nant sur le mar­ché du tra­vail et en nombre sans pré­cé­dent toute une géné­ra­tion de jeunes femmes édu­quées. Les attaques miso­gynes viru­lentes pour­raient en consti­tuer le contre­coup. [Toutes les avan­cées des femmes doivent affron­ter un retour de bâton mas­cu­li­niste, NdT]. Selon Lee Mi-jeong, char­gée de recherche à l’Ins­ti­tut coréen pour le déve­lop­pe­ment des femmes, « les jeunes sont très frus­trés, en par­ti­cu­lier les hommes, lorsqu’ils com­parent leur vie à celle de la géné­ra­tion de leurs parents. Cette frus­tra­tion est pro­je­tée sur les femmes. »

[Eh oui, ils ne sont plus auto­ma­ti­que­ment enti­trés à pos­sé­der une ser­vante domes­tique et sexuelle. Ils sont obli­gés d’essayer d’être aimables s’ils veulent des femmes dans leur vie et une des­cen­dance. C’est com­pli­qué. NdT]

En outre, la Corée du Sud peut se tar­guer d’a­voir la connexion Inter­net la plus rapide de la pla­nète, acces­sible gra­tui­te­ment dans ses plus grandes villes, et d’a­bri­ter le géant de la tech­no­lo­gie Sam­sung, qui a joué un rôle de pre­mier plan dans le déve­lop­pe­ment de l’i­ma­ge­rie deep­fake. Ces fac­teurs ont lar­ge­ment contri­bué au déve­lop­pe­ment d’une culture voyeu­riste de la por­no­gra­phie en ligne, à un rythme supé­rieur à celui des autres pays riches. Cepen­dant, l’é­pi­dé­mie de deep­fakes est en train de se pro­pa­ger à l’échelle mon­diale. À l’heure où nous rédi­geons ces lignes, il existe déjà plu­sieurs sites web dédiés au por­no deep­fake, ain­si nor­ma­li­sé comme un nou­veau genre, et sur­tout, comme une nou­velle forme de ter­ro­risme [mas­cu­lin] contre les femmes.

Selon le groupe de recherche Sen­si­ty, jus­qu’à 1 000 vidéos deep­fakes par mois ont été mises en ligne sur des sites por­no­gra­phiques au cours de l’an­née 2020. Ces vidéos, héber­gées sur trois des plus grands sites por­no­gra­phiques (XVi­deos, XNXX et xHam­ster) enre­gistrent des mil­lions de vues qui génèrent à leur tour des reve­nus publi­ci­taires. Selon Wired.com, une vidéo de 30 secondes d’Em­ma Wat­son appa­raît sur les trois sites et a été vision­née au moins 23 mil­lions de fois. Billie Eilish, Nata­lie Port­man et Anu­sh­ka Shet­ty sont d’autres célé­bri­tés vic­times de ce type de « viol numérique ».

Si la copie vir­tuelle d’une femme peut être uti­li­sée de manière convain­cante dans le por­no hard­core, n’importe quelle femme qui envoie une simple pho­to d’elle en ligne est une vic­time poten­tielle d’a­gres­sion sexuelle numérique.

Avec le numé­rique, il est de plus en plus facile de rem­pla­cer un visage par un autre. En 2019, un labo­ra­toire russe de Sam­sung a annon­cé avoir créé un sys­tème d’IA capable de géné­rer une vidéo com­plè­te­ment fausse à par­tir d’une seule image, et l’a démon­tré en uti­li­sant des pho­tos de célé­bri­tés et des pein­tures célèbres, dont la Joconde, que l’on peut voir par­ler, sou­rire et même bou­ger la tête. Le titre « Living Por­traits » (« Por­trait vivant ») appa­raît en haut de la vidéo, comme si le spec­ta­teur était sup­po­sé croire que cette tech­no­lo­gie trouve sa moti­va­tion dans un inté­rêt pour l’his­toire et l’art, et pas dans la pers­pec­tive d’exploiter sexuel­le­ment les femmes.

[Le texte ori­gi­nal dit « d’exploiter sexuel­le­ment les femmes contre leur gré ». Tou­te­fois, en tant que fémi­nistes radi­cales, nous savons que l’exploitation sexuelle ne peut être consen­tie, et qu’elle est donc tou­jours contre notre gré. Même par la grande majo­ri­té de celles qui le reven­diquent. Consen­tir à sa propre exploi­ta­tion dans une socié­té qui nous y condi­tionne n’est pas un choix. D’ailleurs, les hommes qui sont contre le voile mais ne s’opposent pas for­cé­ment à la pros­ti­tu­tion et ne com­prennent pas pour­quoi les femmes bat­tues ne quittent pas tout de suite leur conjoint, vous êtes en état de dis­so­nance cog­ni­tive. NdT]

***

En 2020, l’é­quipe de recherche Sen­si­ty a rap­por­té que plus de 680 000 femmes en Rus­sie et en Europe de l’Est avaient été vic­times du vol de leur image et s’étaient retrou­vées à leur insu dans des images por­nos par le biais d’un bot deep­fake dis­po­nible gra­tui­te­ment sur Tele­gram. Les uti­li­sa­teurs pou­vaient télé­char­ger une pho­to et rece­voir une ver­sion por­ni­fiée en quelques minutes. Selon Gior­gio Patri­ni, PDG de Sen­si­ty et coau­teur du rap­port, « Les cibles sont géné­ra­le­ment de jeunes filles. Mal­heu­reu­se­ment, il est évident qu’il y a des mineures dans le lot. »

Sen­si­ty a décou­vert qu’un groupe Tele­gram où s’échangeait du conte­nu por­no­gra­phique deep­fake comp­tait plus de 100 000 membres, dont 70 % sem­blaient rési­der en Rus­sie ou en Europe de l’Est. Envi­ron 104 852 images de femmes avaient été publiées sur l’ap­pli­ca­tion en octobre de cette année-là, 70 % des pho­tos pro­ve­nant de réseaux sociaux ou de sources privées.

Des vidéos pro­ve­nant de comptes Tik­Tok, y com­pris de jeunes filles mineures, sont éga­le­ment télé­char­gées sur Porn­Hub. Près d’un tiers des inter­nautes qui uti­lisent Tik­Tok ont moins de 14 ans, selon des don­nées internes de l’en­tre­prise. Une enquête menée par Rol­ling Stone a révé­lé plus d’une ving­taine de cas d’in­fluen­ceuses Tik­Tok dont l’i­mage avait été volée pour pro­duire de la por­no­gra­phie deep­fake. « La pla­te­forme est basée sur la vidéo, ce qui four­nit davan­tage de maté­riel [pour fabri­quer des deep­fakes] », a décla­ré Patri­ni. « Ces per­sonnes sont plus expo­sées que si elles ne fai­saient que télé­char­ger des photos. »

La mère d’une jeune fille de 17 ans a décou­vert qu’une de ses vidéos Tik­Tok avait été publiée sur Porn­Hub. « Elle était mor­ti­fiée. Elle ne vou­lait pas retour­ner à l’é­cole », a décla­ré la mère de la jeune fille. « Elle a pos­té cette vidéo en toute inno­cence. Elle ne vou­lait pas finir sur Porn­Hub. Ce n’est pas une leçon que l’on devrait apprendre à 17 ans. »

[Mais c’est une leçon que doivent sans cesse réap­prendre les femmes : les mas­cu­li­nistes de tous bords et de toutes confes­sions veulent empê­cher les femmes de s’instruire et d’accéder libre­ment aux lieux publics, vir­tuels ou réels. L’assujettissement des femmes à leurs ser­vices domes­tiques et sexuels est le but du ter­ro­risme mas­cu­lin, qu’il soit reli­gieux ou sécu­laire. NdT]

Dans un autre cas, un ser­veur Dis­cord dédié à la créa­tion de pho­tos por­nos deep­fake via des demandes d’u­ti­li­sa­teurs a été décou­vert. Il suf­fi­sait d’entrer la for­mule : « Do [name redac­ted], by the way she turns 18 in 4 days. » (« Faites [écrire le nom] qui aura d’ailleurs 18 ans dans 4 jours »). L’ad­mi­nis­tra­teur réa­li­sait la vidéo et la pos­tait sur Porn­Hub deux semaines après les 18 ans de la victime.

***

Des occur­rences de groupes sur Tele­gram ou de ser­veur Dis­cord ciblant spé­ci­fi­que­ment les femmes et les filles à des fins d’a­bus sexuel, de traite et/ou de pro­li­fé­ra­tion de deep­fakes ont été signa­lées aux États-Unis, au Royaume-Uni, au Cana­da, en Ita­lie, en Corée du Sud, en Rus­sie, en Chine, à Sin­ga­pour, en Macé­doine du Nord, en Malai­sie, au Ban­gla­desh et au Myan­mar, mais le pro­blème est pro­ba­ble­ment bien plus répan­du et n’est ni suf­fi­sam­ment rap­por­té ni suf­fi­sam­ment étudié.

Au Myan­mar, du por­no deep­fake est réa­li­sé à par­tir des pho­tos de mani­fes­tantes pro-démo­cra­tie. Le 1er février 2021, la junte mili­taire, diri­gée par la Tat­ma­daw, a orga­ni­sé un coup d’É­tat et rem­pla­cé la Ligue natio­nale pour la démo­cra­tie (LND). Il est impor­tant de noter que la nation était diri­gée par une femme, Aung San Suu Kyi, qui a été évin­cée et rem­pla­cée par une junte mili­taire sous la direc­tion du géné­ral Min Aung Hlaing.

Les femmes ont été à l’a­vant-garde des mani­fes­ta­tions contre les mili­taires, ayant mené les pre­mières mani­fes­ta­tions dans les rues et conti­nuant à orga­ni­ser la résis­tance. En mars 2021, une jeune femme connue sous le nom d’ « Angel », ou Kyal Sin, a été prise pour cible par les mili­taires et a reçu une balle dans la tête tirée par un sni­per lors d’une mani­fes­ta­tion paci­fique. Sa mort a été ren­due publique et elle est deve­nue un sym­bole du mou­ve­ment de résistance.

Par­mi les mani­fes­tantes, nom­breuses sont des ouvrières du tex­tile expé­ri­men­tées en orga­ni­sa­tions syn­di­cales. L’in­dus­trie du tex­tile repré­sente une part impor­tante du PIB du Myan­mar et consti­tue le sec­teur d’ac­ti­vi­té le plus impor­tant du pays. Les femmes et les filles, sous-payées et sur­char­gées de tra­vail, repré­sentent envi­ron 90 % de la main-d’œuvre, cer­taines ayant com­men­cé à tra­vailler dès l’âge de 13 ans. Gagnant moins de 2 dol­lars par jour, elles tra­vaillent 11 heures par jour, six jours sur sept, four­nis­sant des pro­duits à cer­taines des entre­prises de la mode les plus riches du monde occidental.

Dans de nom­breuses usines, les condi­tions des ouvrières sont exé­crables, avec une cha­leur acca­blante due à une mau­vaise ven­ti­la­tion et sou­vent une impos­si­bi­li­té de prendre des pauses. Le vol de salaire, les vio­lences et le har­cè­le­ment sexuels, les cadences de tra­vail inhu­maines et les heures sup­plé­men­taires obli­ga­toires sont quelques-unes des condi­tions que ces femmes endurent, et les rap­ports indiquent que les abus ont « net­te­ment » aug­men­té après le coup d’É­tat mili­taire. Avant le coup d’É­tat, les femmes de l’in­dus­trie tex­tile avaient mani­fes­té pour récla­mer des salaires et des condi­tions de tra­vail équitables.

Than­dar Ko, fon­da­trice de l’as­so­cia­tion de défense des droits des femmes Busi­ness­Kind, qui informe les ouvrières du tex­tile sur leurs droits, a cri­ti­qué l’ab­sence de lois visant à les pro­té­ger de ce cau­che­mar quo­ti­dien. « Je vou­drais qu’il y ait une loi pour pro­té­ger les femmes, ce serait bien mieux », a‑t-elle décla­ré. « Mais comme il n’y en a pas, de nom­breuses ouvrières sont trop effrayées pour dénon­cer les condi­tions de tra­vail ou le harcèlement. »

La junte mili­taire a étouf­fé les ten­ta­tives d’organisation poli­tique des femmes pour défendre leurs droits. Ma Moe San­dar Myint, diri­geante de la Fédé­ra­tion des ouvrières du tex­tile du Myan­mar (FGWM), l’un des plus grands syn­di­cats d’ouvrières tex­tile du pays, a décla­ré à Jaco­bin en 2021 : « Nous avions l’ha­bi­tude d’or­ga­ni­ser des grèves ouvrières sous le gou­ver­ne­ment de Daw Aung San Suu Kyi, lorsqu’il y avait un État de droit. Aujourd’­hui, il n’y en a plus. Nous ne pou­vons pas cri­ti­quer ouver­te­ment les mili­taires sans que l’on nous tire des­sus ou sans être arrêtées. »

Depuis que les forces armées du Myan­mar ont ren­ver­sé le gou­ver­ne­ment élu du pays en février, le revenge porn est deve­nu une arme uti­li­sée [contre les femmes qui militent pour leurs droits] aus­si bien par la junte mili­taire que par ses oppo­sants. | DAWEI WATCH / VIA REUTERS.

Ces résis­tantes contre l’armée sont déte­nues et tor­tu­rées par la junte ; au moins 308 femmes et filles ont été tuées par les forces de la junte depuis le coup d’É­tat mili­taire de février 2021, et des mil­liers d’autres ont été arrê­tées. En juin 2023, il a été signa­lé que des ouvrières du tex­tile et des mili­tantes syn­di­cales allaient être jugées par l’ar­mée pour avoir récla­mé une aug­men­ta­tion de salaire dans une usine chi­noise exploi­tée par Hosheng Myan­mar Garment Com­pa­ny Limi­ted à Yan­gon. Cette usine est un four­nis­seur d’In­di­tex, le pro­prié­taire du détaillant espa­gnol Zara — qui pré­voit de quit­ter le pays, à l’ins­tar de plu­sieurs autres détaillants du mar­ché de la mode euro­péen l’ayant déjà fait.

D’autres femmes sont éga­le­ment visées par des cam­pagnes de « puni­tion sociale » à tra­vers la pro­duc­tion et la dif­fu­sion de conte­nus por­no­gra­phiques deep­fakes repré­sen­tant des diri­geantes de la résis­tance. À ce jour, des mil­liers de femmes poli­ti­que­ment actives ont été vic­times de doxxing ou d’a­bus dans le cadre de ces cam­pagnes. Des vidéos et des pho­tos sexuelles deep­fakes des vic­times sont dif­fu­sées sur des groupes Tele­gram pro-mili­taires. Selon les rap­ports, le conte­nu est sou­vent légen­dé avec un lan­gage dégra­dant, comme dans cet exemple don­né aux médias : « Voi­ci la pute qui se filme en HD en train de se faire bai­ser par tout le monde… Reste à ta place, salope ! »

Les groupes et les pages de « puni­tion sociale » publient fré­quem­ment les adresses de domi­cile des femmes et d’autres infor­ma­tions per­son­nelles avec les pho­tos et vidéos por­nos deep­fakes. Une semaine seule­ment après que les mili­taires ont pris le contrôle du gou­ver­ne­ment élu du Myan­mar, la fille d’un ministre du Conseil d’ad­mi­nis­tra­tion de l’É­tat (CAS) de la junte est deve­nue la pre­mière vic­time publique de cette tac­tique. Des vidéos et des pho­tos expli­cites de la jeune femme ont été dif­fu­sées à grande échelle, y com­pris par les oppo­sants au coup d’É­tat. Les deux fac­tions poli­tiques se servent de la « puni­tion sociale » des femmes par le deep­fake : ceux qui sou­tiennent l’ar­mée, afin de faire honte aux manifestant·es pro-démo­cra­tie, et ceux qui s’op­posent à la junte, pour humi­lier les femmes pro-junte consi­dé­rées comme complices.

[Les hommes de tous bords, en dépit de leurs dif­fé­rences poli­tiques, éco­no­miques et reli­gieuses, sont tou­jours d’accord sur la manière dont il convient de trai­ter les femmes et mani­festent leur miso­gy­nie de la même manière, à tra­vers les vio­lences sexuelles et les fémi­cides. NdT]

***

La plu­part des gou­ver­ne­ments du monde n’ont tou­jours pas déployé et moins encore appli­qué de légis­la­tion cri­mi­na­li­sant la por­no­gra­phie deep­fake. Pen­dant ce temps, un dan­ge­reux pré­cé­dent est en train de s’établir dans plu­sieurs pays. Au Japon, par exemple, les deep­fakes por­no­gra­phiques ne sont clai­re­ment pas consi­dé­rés comme rele­vant des atteintes sexuelles. En revanche, ces abus sont soit trai­tés comme un crime contre les indus­tries qui pos­sèdent l’image des femmes concer­nées, soit ne sont pas du tout consi­dé­rés comme un crime, à l’instar de la por­no­gra­phie infan­tile géné­rée par IA.

En octobre 2020, la police de Tokyo a arrê­té deux hommes, Taku­mi Haya­shi­da et Taka­no­bu Otsu­ki, res­pec­ti­ve­ment étu­diant uni­ver­si­taire et ingé­nieur sys­tème, pour avoir géné­ré de la por­no­gra­phie deep­fake en uti­li­sant les visages de femmes célèbres puis uploa­dé les vidéos sur des sites web por­no­gra­phiques. À eux deux, les deux hommes ont gagné envi­ron 800 000 yens, soit 7 600 dol­lars, en publiant les vidéos sur un site web géré par Hayashida.

Il s’a­gis­sait de la toute pre­mière arres­ta­tion de ce type dans le pays. Les accu­sa­tions por­tées contre les deux hommes ont été révé­la­trices de la manière dont cette nou­velle forme de ter­ro­risme contre les femmes est per­çue par les légis­la­teurs — majo­ri­tai­re­ment des hommes. Plu­tôt que de qua­li­fier cette vio­la­tion de vio­lence sexuelle, la police a accu­sé les hommes de dif­fa­ma­tion et d’infraction au droit d’au­teur. Ce crime a été consi­dé­ré comme un affront aux entre­prises pro­prié­taires des images des deux femmes concer­nées : le stu­dio de por­no­gra­phie et les entre­prises de diver­tis­se­ment pour les­quelles les femmes travaillaient.

***

Il est effrayant de consta­ter que la tech­no­lo­gie deep­fake sert éga­le­ment à pro­duire du maté­riel d’exploitation sexuelle des enfants. En rai­son du laxisme des lois japo­naises concer­nant la por­no­gra­phie infan­tile ani­mée [le Sho­ta repré­sente des enfants de 4–5 ans ayant des rela­tions sexuelles entre eux ou avec des adultes et c’est une ins­ti­tu­tion au Japon, NdT], de nom­breux sites web dédiés à la pro­duc­tion par IA de maté­riel pédo­por­no­gra­phique ont récem­ment fait leur appa­ri­tion. En novembre 2023, une enquête du Yomiu­ri Shim­bun a révé­lé qu’un cer­tain nombre de sites web héber­gés au Japon étaient consa­crés à la créa­tion et à la vente d’i­mages pédopornographiques.

L’un de ces sites, basé à Osa­ka, comp­tait plus de 100 000 uti­li­sa­teurs enre­gis­trés et enre­gis­trait plus de 2 mil­lions de visites par mois. Le conte­nu exa­mi­né par le jour­nal était « pra­ti­que­ment impos­sible à dis­tin­guer de pho­tos réelles ». Plus de 3 000 pho­tos pédo­por­no­gra­phiques par mois étaient publiées sur le site, sachant que l’en­quête n’a por­té que sur les pages acces­sibles gra­tui­te­ment. Les pages payantes, aux­quelles les jour­na­listes n’ont pas eu accès, contien­draient beau­coup plus d’i­mages de ce type.

Des mil­liers d’i­mages géné­rées par IA mon­trant des enfants, cer­tains âgés de moins de deux ans, sou­mis aux pires formes d’a­gres­sions sexuelles ont été décou­vertes. En réponse à une enquête du Yomiu­ri Shim­bun, un repré­sen­tant de la socié­té gérante du site web a décla­ré : « Nous ne pen­sons pas qu’il y ait le moindre pro­blème légal. »

L’en­quête fait suite aux aver­tis­se­ments de l’In­ter­net Watch Foun­da­tion (IWF) (« Fon­da­tion pour une Veille de l’Internet »), basée au Royaume-Uni, qui met en garde contre l’utilisation abu­sive de cette tech­no­lo­gie qui menace de « sub­mer­ger » Internet.

Le mois der­nier, l’IWF a publié une décla­ra­tion à l’attention des gou­ver­ne­ments et des four­nis­seurs de tech­no­lo­gie, les exhor­tant à prendre des mesures avant qu’il ne soit trop tard et à empê­cher un défer­le­ment d’i­mages d’exploitation sexuelle d’en­fants géné­rées par l’IA. À défaut, la situa­tion ris­que­rait de mono­po­li­ser les enquê­teurs des forces de l’ordre et d’é­lar­gir consi­dé­ra­ble­ment le nombre de poten­tielles victimes.

Susie Har­greaves, OBE, a décla­ré : « Nos pires cau­che­mars sont deve­nus réa­li­té. En début d’année, nous avons mis en garde contre les images géné­rées par IA, et pré­dit qu’elles seraient bien­tôt indis­tin­guables des images réelles d’en­fants vic­times d’ex­ploi­ta­tion sexuelle ; et que nous ris­quions de voir ces images pro­li­fé­rer en très grand nombre. Nous avons main­te­nant dépas­sé ce stade. »

Dan Sex­ton, res­pon­sable des tech­no­lo­gies au sein du groupe de veille, a décla­ré que les ana­lystes de l’IWF avaient décou­vert des visages d’en­fants célèbres en ligne, ain­si qu’une « demande mas­sive pour la créa­tion de nou­velles images d’en­fants ayant déjà été exploi­tés, il y a peut-être de cela des années […] Ils prennent du conte­nu réel exis­tant et le recyclent pour créer de nou­veaux conte­nus avec ces victimes. »

Selon l’IWF, « ce sont des images d’enfants réel­le­ment vic­times d’ex­ploi­ta­tion sexuelle dont les visages et les corps ont été réin­té­grés dans des modèles d’IA conçus pour en géné­rer des images inédites ».

Le rap­port sou­ligne éga­le­ment que les cri­mi­nels emploient la tech­no­lo­gie de l’IA pour géné­rer des images de célé­bri­tés qui ont été « dé-matu­rées » et repré­sen­tées à des âges infan­tiles dans des scé­na­rios sexuels. En outre, la tech­no­lo­gie est uti­li­sée de manière abu­sive pour « dénu­der » des enfants dont les pho­tos ont été télé­char­gées en ligne. [Les pho­tos de vos enfants que vous pos­tez sur FB et Ins­ta. NdT] Les ana­lystes ont éga­le­ment consta­té que ce conte­nu était commercialisé.

En un mois, l’IWF a enquê­té sur 11 108 images d’IA par­ta­gées sur un forum du dark web consa­cré à la pédo­por­no­gra­phie. Il a été confir­mé que 2 978 d’entre elles repré­sen­taient des agres­sions sexuelles sur des enfants ; 2 562 étaient si réa­listes que la loi devrait les trai­ter de la même manière que s’il s’a­gis­sait de véri­tables images d’a­gres­sions sexuelles. Plus d’une image sur cinq (564) ont été clas­sées dans la caté­go­rie A, qui cor­res­pond aux images les plus graves ou les plus vio­lentes, repré­sen­tant le viol, la tor­ture sexuelle et la bes­tia­li­té. Plus de la moi­tié (1 372) de ces images repré­sen­taient des enfants en âge de fré­quen­ter l’é­cole pri­maire (sept à dix ans).

Mais les pho­tos d’agressions sexuelles d’enfants ne sont pas les seuls à être crées et par­ta­gées par des pré­da­teurs sur le dark web. En sep­tembre 2023, dans la petite ville d’Al­men­dra­le­jo, en Espagne, des lycéens ont géné­ré et dif­fu­sé des pho­tos deep­fakes por­no­gra­phiques de leurs cama­rades de classe. Les pho­tos nues des jeunes filles ont été géné­rées à l’aide d’une appli­ca­tion basée sur l’in­tel­li­gence arti­fi­cielle, et au moins une vic­time a décla­ré avoir fait l’objet d’extorsion d’argent contre la non-dif­fu­sion en public des deep­fakes la concer­nant. En réac­tion, les mères des lycéennes de la ville ont rapi­de­ment orga­ni­sé une stra­té­gie de défense en créant un groupe What­sApp pour col­la­bo­rer avec les enquêteurs.

En novembre 2022, un homme de l’U­tah, aux États-Unis, a été arrê­té pour avoir créé de la por­no­gra­phie infan­tile deep­fake en pla­çant des visages d’en­fants sur des corps d’a­dultes. Inter­ro­gé, il a admis avoir géné­ré au moins 10 vidéos dans les­quelles il avait insé­ré le visage d’un enfant sur du maté­riel por­no­gra­phique pour adultes. Au cours de son entre­tien avec les enquê­teurs, il a éga­le­ment affir­mé s’être exhi­bé devant un·e mineur·e.

En sep­tembre 2023, le pre­mier cas de ce type en Corée du Sud, un homme de Busan a été recon­nu cou­pable d’a­voir créé de la por­no­gra­phie infan­tile géné­rée par l’IA à l’aide d’une tech­no­lo­gie de « haut niveau » qui ren­dait les pho­tos incroya­ble­ment réalistes.

En 2021, Pas­sant Kha­led, une ado­les­cente égyp­tienne âgée de 17 ans s’est sui­ci­dée après que des pho­tos nues — et pré­ten­du­ment — d’elle ont été dif­fu­sées en ligne. Un jeune homme dont elle avait reje­té les avances est à l’origine de la créa­tion et de la dif­fu­sion des pho­tos deep­fakes. Pas­sant Kha­led a ingur­gi­té du poi­son et est morte le 23 décembre 2021, lais­sant une der­nière note à sa mère. « Maman, crois-moi, la fille sur ces pho­tos n’est pas moi », a‑t-elle écrit. [Trois hommes impli­qués, âgés de 16 à 21 ans ont été condam­nés à 15 ans de pri­son. NdT] 

Pas­sant Kha­led s’est sui­ci­dée après qu’un jeune homme dont elle a reje­té les avances a dif­fu­sé des pho­tos por­nos deep­fakes d’elle pour se venger.

Telle est la cho­quante réa­li­té du por­no deep­fake : des femmes et des enfants peuvent être vic­times d’agressions et d’exploitation sexuelles sans même être touché·es, et cette vio­la­tion peut être vue et consul­tée à l’in­fi­ni par des mil­lions d’hommes par­ti­ci­pant ain­si à leur avi­lis­se­ment. Il est essen­tiel de noter que cette forme de média incite [les hommes] à com­mettre des vio­lences sexuelles phy­siques contre les femmes et des enfants, et à les monétiser.

Mal­gré tout, cer­tains uni­ver­si­taires occi­den­taux en Europe, ain­si que des groupes de pres­sion pro-pédo­philes en Europe et en Amé­rique (États-Unis et Amé­rique du Sud), pro­posent la léga­li­sa­tion de la por­no­gra­phie infan­tile géné­rée par IA en tant que « thé­ra­pie » pour pré­da­teurs sexuels. Il s’a­git d’une pro­po­si­tion incom­pré­hen­sible et hor­ri­fiante : selon cette logique, et contre toute attente, le viol serait donc un crime sus­cep­tible d’être évi­té grâce à la consom­ma­tion régu­lière de sa recons­ti­tu­tion. Les forces de l’ordre devraient-elles aus­si pro­po­ser aux tueurs condam­nés des pro­grammes d’IA en réa­li­té vir­tuelle qui leur per­met­traient de repro­duire des meurtres bru­taux en guise de réadap­ta­tion ? Il est clair qu’une socié­té saine ne ferait rien de tel, ni ne le consi­dé­re­rait comme une option rai­son­nable. Mais avec la pro­li­fé­ra­tion crois­sante de la por­no­gra­phie géné­rée par IA, de nou­veaux pré­da­teurs sexuels sont créés chaque jour, ce qui met à rude épreuve des sys­tèmes judi­ciaires déjà très indul­gents à l’é­gard des vio­lences sexuelles. Et la réponse des uni­ver­si­taires a été de se ran­ger du côté des proxé­nètes, des por­no­graphes et des pédo­philes, dans un haus­se­ment d’é­paules cynique.

L’in­dus­trie du sexe a joué un rôle moteur dans le déve­lop­pe­ment des tech­no­lo­gies média­tiques, notam­ment la VHS, la vidéo en strea­ming, et même cer­tains aspects de l’In­ter­net en lui-même. Danielle Citron n’a pas maché ses mots lorsqu’elle s’est expri­mée devant la Com­mis­sion du ren­sei­gne­ment de la Chambre des repré­sen­tants des États-Unis sur l’im­pact de l’in­tel­li­gence arti­fi­cielle et de la mani­pu­la­tion des médias : « Nous consta­tons régu­liè­re­ment que les hommes uti­lisent tout ce qu’ils trouvent pour tour­men­ter les femmes. Les deep­fakes n’en sont que la der­nière illustration. »

Les deep­fakes démontrent non seule­ment que les hommes se servent des menaces et des repré­sen­ta­tions de vio­lences sexuelles pour ter­ro­ri­ser et déshu­ma­ni­ser les femmes et les enfants, mais aus­si qu’ils ont des inté­rêts per­son­nels et finan­ciers à for­cer les femmes à se confor­mer à leurs fan­tasmes et à leurs attentes sexuelles. Les outils qui per­mettent aux hommes de pro­je­ter leurs dési­rs sur les femmes se sont déve­lop­pés rapi­de­ment, sans contrôle, et les limites entre notre réa­li­té et leurs psy­choses por­no­gra­phiques deviennent de plus en plus floues.

[Je n’appellerais pas « dési­rs » ce que les hommes pro­jettent sur les femmes à tra­vers la por­no­gra­phie et les vel­léi­tés de vio­lences sexuelles géné­rées par IA, mais plu­tôt de « dan­ge­reux troubles psy­cho-sexuels » induits par une socié­té d’exploitation mas­cu­lo­cen­trée. Les domi­nants finissent tou­jours par deve­nir socio­pa­thiques. NdT]

La résis­tance et la soli­da­ri­té mon­diales sont plus que jamais néces­saires face à ce ter­ro­risme tech­no­lo­gique. Dans l’in­té­rêt de notre ave­nir et de celui de nos filles, nous devons nous réunir pour éla­bo­rer des stra­té­gies et nous oppo­ser à cette nui­sance pour notre sécu­ri­té, notre digni­té et notre humanité.

Gene­vieve Gluck

Tra­duc­tion : Audrey A.

Relec­ture : Nico­las Casaux

Print Friendly, PDF & Email

Adblock test (Why?)

Source: Lire l'article complet de Le Partage

À propos de l'auteur Le Partage

« Plus on partage, plus on possède. Voilà le miracle. »En quelques années, à peine, notre collec­tif a traduit et publié des centaines de textes trai­tant des prin­ci­pales problé­ma­tiques de notre temps — et donc d’éco­lo­gie, de poli­tique au sens large, d’eth­no­lo­gie, ou encore d’an­thro­po­lo­gie.contact@­par­tage-le.com

Laisser un commentaire

Votre adresse courriel ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Recommended For You