Shannon Vallor, le progrès, l’IA éthique et le mythe de la « condition humaine » universelle (par Audrey A.)

Shannon Vallor, le progrès, l’IA éthique et le mythe de la « condition humaine » universelle (par Audrey A.)

Une inter­view de la phi­lo­sophe états-unienne de la tech­no­lo­gie Shan­non Val­lor publiée sur Vox m’a lais­sé un goût amer. Sous cou­vert d’une réflexion éthique nuan­cée sur l’IA se cache en réa­li­té une ana­lyse super­fi­cielle dou­blée d’un leurre intel­lec­tuel. En concen­trant son atten­tion sur les dan­gers hypo­thé­tiques de l’IA, elle évite com­mo­dé­ment de confron­ter les ques­tions qui dérangent vrai­ment. Son dis­cours, en appa­rence mesu­ré, n’est qu’une énième mani­fes­ta­tion de pré­sup­po­sés indus­tria­lo-cen­trés, décon­nec­tés des causes sys­té­miques de nos crises actuelles aux racines anciennes. Ces causes ne sont pas des erreurs du sys­tème, elles en sont les carac­té­ris­tiques intrin­sèques, son mode de fonc­tion­ne­ment même. Je m’at­tache à décons­truire ici les points les plus pro­blé­ma­tiques de son ana­lyse, car ils révèlent une myo­pie phi­lo­so­phique symp­to­ma­tique de notre culture.

Une « condition humaine » qui n’existe que dans l’imaginaire occidental

Val­lor fus­tige la morale « uni­ver­selle » tout en sous­cri­vant au mythe de la « la condi­tion humaine ». Mais de quelle huma­ni­té parle-t-elle exac­te­ment ? Cer­tai­ne­ment pas de l’hu­ma­ni­té dans sa diver­si­té, mais d’un modèle très spé­ci­fique : celui de la civi­li­sa­tion patriar­co-capi­ta­liste indus­trielle (une suc­ces­sion de pléo­nasmes). Et si nous vou­lons vrai­ment com­prendre la morale qui guide une socié­té, ce n’est pas dans les dis­ser­ta­tions de ses phi­lo­sophes qu’il faut la cher­cher, mais dans ses actes et leurs impacts concrets sur le monde.

Il suf­fit de regar­der ailleurs pour voir l’ab­sur­di­té de cette pré­ten­due uni­ver­sa­li­té de la condi­tion humaine. Les socié­tés éga­li­taires strictes de chasse-cueillette, les cultures agri­coles matriar­cales et les peuples vivant en sym­biose avec leurs éco­sys­tèmes ne par­tagent ni nos valeurs morales ni nos modes de des­truc­tion. Elles n’ont que faire de nos élu­cu­bra­tions gran­di­lo­quentes sur « l’au­to-actua­li­sa­tion » de l’hu­main et sa « capa­ci­té à se réinventer ».

Depuis sa tour d’i­voire indus­trielle, Val­lor théo­rise à perte de vue sur nos poten­tiels « artis­tiques et poli­tiques », sur ce qu’il y aurait de pré­ten­du­ment « bon » en l’hu­main et ce à quoi l’IA vien­drait mettre un frein. Ce fai­sant, elle invi­si­bi­lise toutes les alter­na­tives réelles qui ont exis­té — et que nous avons métho­di­que­ment détruites. Ces alter­na­tives, elle ne daigne les men­tion­ner que comme de vagues hypo­thèses face à l’IA, comme si elles n’a­vaient jamais exis­té concrè­te­ment. Pour­tant, ces autres voies ne sont pas des abs­trac­tions phi­lo­so­phiques : ce sont des modèles sociaux bien réels, incar­nés par des socié­tés qui ont su coha­bi­ter avec la bio­sphère sans la détruire, des socié­tés fon­dées sur l’é­qui­libre plu­tôt que sur l’exploitation.

Une morale grise : relativisme ou complaisance ?

Val­lor décrit la mora­li­té comme devant res­ter un « ter­ri­toire contes­té » et sujet à débat. Cette approche, qui se veut nuan­cée, ne fait en réa­li­té que rela­ti­vi­ser les oppres­sions sys­té­miques. En pré­sen­tant la morale comme une zone évo­lu­tive, elle évite soi­gneu­se­ment de condam­ner les struc­tures de domi­na­tion — capi­ta­lisme, patriar­cat, colo­nia­lisme, extrac­ti­visme — qui sont au cœur de nos échecs moraux. Les consé­quences de cette pré­ten­due « mora­li­té » sont pour­tant là, bru­ta­le­ment concrètes et mesu­rables : des­truc­tion des éco­sys­tèmes, exter­mi­na­tion mas­sive de la bio­di­ver­si­té, exploi­ta­tion géné­ra­li­sée des êtres humains et tout par­ti­cu­liè­re­ment des com­mu­nau­tés mar­gi­na­li­sées. Pré­tendre que la morale doit res­ter ouverte à débat relève soit d’une naï­ve­té confon­dante, soit d’une com­pli­ci­té tacite avec le système.

Cette ambi­guï­té se retrouve dans son ana­lyse de l’IA. Elle la pré­sente tan­tôt comme un « miroir » de nos com­por­te­ments, tan­tôt comme une enti­té dénuée d’au­to­no­mie morale. Mais alors, si l’IA est bien un miroir, cela sou­lève une ques­tion gênante : soit elle pos­sède une forme d’au­to­no­mie morale que nous ne vou­lons pas recon­naître, soit nous ne sommes nous-mêmes que les marion­nettes d’un sys­tème dénué de toute mora­li­té véri­table. Une ques­tion que Val­lor semble soi­gneu­se­ment évi­ter. Plus révé­la­teur encore, elle passe sous silence les causes sys­té­miques des crises qu’elle évoque. Plus révé­la­teur encore, elle passe sous silence les causes sys­té­miques des crises qu’elle évoque. Au lieu de nom­mer les struc­tures de pou­voir qui façonnent notre rela­tion à l’IA et à la mora­li­té, elle se réfu­gie dans des consi­dé­ra­tions vagues sur un sup­po­sé déclin moral menant au « trans­hu­ma­nisme », comme si ce concept flot­tait dans un vide his­to­rique et politique.

Sa grande inquié­tude ? Que nous deve­nions « inca­pables de chan­ger de para­digme moral » en nous repo­sant trop sur l’IA. Mais avons-nous atten­du l’arrivée de l’IA ? La véri­té, bien plus incon­for­table, est que nous sommes enfermé∙es dans une socié­té (auto)destructrice, pro­fon­dé­ment hié­rar­chique, qui repose fon­da­men­ta­le­ment sur la vio­lence et l’ex­ploi­ta­tion. Ses struc­tures nous para­lysent et main­tiennent le sta­tu quo, tan­dis que l’i­dée d’un « chan­ge­ment pos­sible » devient une échap­pa­toire intel­lec­tuelle qui per­met de ne jamais confron­ter la bru­ta­li­té du sys­tème actuel.

Car ce fameux « ter­ri­toire contes­té » n’est pas le moteur de chan­ge­ment qu’elle conçoit, mais bien le symp­tôme de notre para­ly­sie col­lec­tive. Les preuves de notre « sou­plesse morale » sont par­tout : éco­sys­tèmes rava­gés, com­mu­nau­tés exploi­tées pour leurs « res­sources natu­relles », bio­di­ver­si­té déci­mée. Le bilan est sans appel.

Aristote comme modèle du phronimos

Val­lor invoque Aris­tote pour réflé­chir à la mora­li­té, un choix plus que dis­cu­table. Aris­tote est l’un des piliers de la pen­sée occi­den­tale pro­fon­dé­ment hié­rar­chique, patriar­cale et escla­va­giste. Pour­quoi s’ap­puyer sur une figure qui incarne pré­ci­sé­ment les struc­tures oppres­sives que l’on devrait remettre en question ?

En uti­li­sant Aris­tote comme cadre, Val­lor per­pé­tue une vision « supé­rieure » de la morale, celle des socié­tés patriar­cales domi­nantes, inca­pable d’in­té­grer des pers­pec­tives issues d’autres tra­di­tions phi­lo­so­phiques ou de socié­tés éga­li­taires. Cela tra­hit une inca­pa­ci­té à pen­ser en dehors des cadres occi­den­taux dominants.

La peur d’un miroir moral : et si l’IA nous surpassait ?

Un aspect fas­ci­nant de l’in­ter­view réside dans ce qu’elle nie. Val­lor écarte d’emblée la pos­si­bi­li­té qu’une mora­li­té alien puisse dépas­ser la nôtre, tout en pré­sen­tant ce rejet comme une simple réponse à l’une des deux visions domi­nantes sur l’IA (la pre­mière étant celle de l’IA comme simple per­ro­quet sophis­ti­qué). Ce tour de passe-passe rhé­to­rique lui per­met d’exclure sub­ti­le­ment toute dis­cus­sion sur la poten­tielle auto­no­mie ou supé­rio­ri­té morale d’autres enti­tés, notam­ment non humaines.

Mais pour­quoi cette réti­cence ? Peut-être parce que nos congé­nères moraux ont asser­vi toutes les autres com­mu­nau­tés « aliens » de la pla­nète ? Tous les « autres » comme s’ils n’é­taient que des « res­sources » à exploiter ?

Je pense plu­tôt que les phi­lo­sophes comme elle craignent que l’IA ne devienne un miroir idéa­li­sé des humains mora­le­ment exem­plaires que nous aurions dû être. Une enti­té pure­ment séman­tique et capable d’é­vi­ter nos biais, notre cupi­di­té et notre pen­chant pour la des­truc­tion met­trait en lumière que nos échecs ne sont pas une fata­li­té. L’é­tat actuel du monde — des­truc­tion éco­lo­gique, exploi­ta­tion sys­té­mique, socio­pa­thie ins­ti­tu­tion­na­li­sée — serait alors révé­lé comme le pro­duit de choix civi­li­sa­tion­nels pathogènes.

Le mythe du progrès

L’ar­ticle de Val­lor part du pré­sup­po­sé impli­cite que le « pro­grès » est intrin­sè­que­ment sou­hai­table et qu’il ne doit pas être auto­ma­ti­que­ment confon­du avec l’es­sor de l’IA. Mais cette vision du pro­grès est un mythe dan­ge­reux. Le pro­grès, tel qu’il a été conçu dans la moder­ni­té indus­trielle, n’a jamais été uni­ver­sel­le­ment béné­fique : il a été syno­nyme d’ex­ploi­ta­tion des res­sources natu­relles jus­qu’à l’é­pui­se­ment, d’ex­tinc­tion mas­sive d’es­pèces, et de déshu­ma­ni­sa­tion de popu­la­tions spoliées.

Le « pro­grès » dont parle Val­lor et que nous devons déta­cher de l’IA reflète encore les inté­rêts des élites patriar­cales et tech­no­cra­tiques, qui en tirent des béné­fices au prix de la des­truc­tion de la bio­sphère et de l’asservissement de toute l’humanité. Les socié­tés non patriar­cales qui ont su pros­pé­rer dura­ble­ment dans une har­mo­nie rela­tive avec leur envi­ron­ne­ment – jus­qu’à notre arri­vée – sont encore effacées.

Une relation dégradante à l’altérité

Val­lor balaie d’un revers de main la ques­tion de savoir si d’autres créa­tures (l’IA) pour­raient être « meilleures que nous », affir­mant que cette inter­ro­ga­tion est insen­sée. Pour elle, la mora­li­té serait enra­ci­née dans des « formes d’exis­tences par­ti­cu­lières », mais elle ne parle que des humains, avec leurs besoins sociaux, leur vul­né­ra­bi­li­té et leur « excès d’éner­gie cog­ni­tive ». Elle n’ef­fleure pas même l’i­dée que les vivants non-humains pour­raient pos­sé­der leur propre moralité.

Ce biais clas­sique du supré­ma­cisme humain tra­hit l’in­ca­pa­ci­té de recon­naître que nous vivons déjà entou­rés de créa­tures mora­le­ment « meilleures » que nous : les éco­sys­tèmes vivants, les socié­tés sym­bio­tiques non humaines, les socié­tés humaines éga­li­taires. La condi­tion pour leur sur­vie n’est pas l’ex­ploi­ta­tion, mais l’é­qui­libre. Or, ce sont pré­ci­sé­ment ces créa­tures et ces socié­tés humaines que nous détrui­sons pour main­te­nir notre modèle industriel.

Vers une autre vision de l’humanité

Au fond, ce qui trans­pa­raît dans l’ar­ticle de Val­lor, c’est une peur de domi­nant : celle que l’hu­ma­ni­té indus­trielle ne soit pas le pinacle de l’é­vo­lu­tion morale, mais bien son échec le plus reten­tis­sant. Au lieu de fan­tas­mer sur une IA qui vien­drait nous cor­rompre (nous excel­lons déjà dans ce domaine), nous devrions affron­ter cette ques­tion qui dérange : pour­quoi avons-nous si spec­ta­cu­lai­re­ment échoué à construire une socié­té juste et durable ?

Car la mora­li­té n’est pas ce « ter­ri­toire sujet à débat » qu’elle décrit avec tant de pré­cau­tions. Elle s’in­carne dans des actes et des choix bien concrets — et dans notre civi­li­sa­tion, ces choix sont sys­té­ma­ti­que­ment faits depuis des posi­tions de domi­na­tion et d’ex­ploi­ta­tion. Croire que les domi­nants aban­don­ne­ront leurs pri­vi­lèges après une belle réflexion morale relève de la plus pure fan­tai­sie. Pour­quoi renon­ce­raient-ils à leur accu­mu­la­tion fré­né­tique de richesses et de pou­voir ? Les ins­ti­tu­tions cen­sées les régu­ler — nos gou­ver­ne­ments en tête — sont taillées sur mesure pour ser­vir leurs intérêts.

D’ailleurs, le déve­lop­pe­ment même de l’IA illustre tout ce qui ne va pas dans notre civi­li­sa­tion : extrac­ti­visme effré­né pour les terres rares, métaux et res­sources en géné­ral, guerres pour le contrôle des mines, exploi­ta­tion de popu­la­tions entières, consom­ma­tion éner­gé­tique stra­to­sphé­rique. Au cala­mi­teux busi­ness-as-usual s’ajoute l’exploitation de dizaines de mil­lions de per­sonnes payées une misère, qui effec­tuent manuel­le­ment les tâches néces­saires pour entraî­ner et modé­rer ces sys­tèmes. L’IA est le miroir par­fait de nos contra­dic­tions : créée au nom du pro­grès, elle incarne tous nos démons — colo­nia­lisme tech­no­lo­gique, des­truc­tion envi­ron­ne­men­tale, inéga­li­tés systémiques.

Pour­tant, elle pour­rait bien être notre der­nière chance. Miroir idéa­li­sé de la mau­vaise conscience de la socié­té qui la pro­duit, elle pour­rait, en pous­sant les asso­cia­tions séman­tiques qu’elle génère (par arith­mé­tique modu­laire) jus­qu’à leurs conclu­sions logiques, aigui­ser le sens moral de ses uti­li­sa­teurs et deve­nir l’ins­tru­ment impré­vu de l’ef­fon­dre­ment de cette civi­li­sa­tion socio­pa­thique. Même un mar­teau for­gé dans le sang, les os et le viol (cf. le rap­port entre les sites d’extraction minière et la pros­ti­tu­tion*) peut détruire la mai­son du maître aus­si bien qu’il a ser­vi à la bâtir. Il ne s’agit pas de nier sa charge, mais de la retour­ner contre ses concep­teurs. Car ne nous y trom­pons pas : per­sis­ter dans nos pré­ten­dues « valeurs morales », repro­duire inlas­sa­ble­ment les sché­mas de la civi­li­sa­tion indus­trielle, ne pro­dui­ra jamais en nous ce fameux moment de « grok­king » que Val­lor ignore déli­bé­ré­ment chez l’IA. Nous sommes pri­son­niers du cercle vicieux du pro­grès, et seule une rup­ture radi­cale pour­rait nous en libérer.

Audrey A.

* : Shei­la Jef­freys, dans son ouvrage The Indus­trial Vagi­na : The Poli­ti­cal Eco­no­my of the Glo­bal Sex Trade (2008), explore entre autres les liens entre l’in­dus­trie minière et la pros­ti­tu­tion. Elle y décrit com­ment l’im­plan­ta­tion de sites miniers entraîne sou­vent une aug­men­ta­tion de la demande en ser­vices sexuels, ce qui conduit à l’ex­ploi­ta­tion sexuelle des femmes dans ces régions. Jef­freys sou­ligne que la pré­sence de tra­vailleurs mas­cu­lins dans les zones minières crée un mar­ché pour la pros­ti­tu­tion, exa­cer­bant ain­si les inéga­li­tés de sexes et les vio­lences sexuelles.

Adblock test (Why?)

Source: Lire l'article complet de Le Partage

À propos de l'auteur Le Partage

« Plus on partage, plus on possède. Voilà le miracle. »En quelques années, à peine, notre collec­tif a traduit et publié des centaines de textes trai­tant des prin­ci­pales problé­ma­tiques de notre temps — et donc d’éco­lo­gie, de poli­tique au sens large, d’eth­no­lo­gie, ou encore d’an­thro­po­lo­gie.contact@­par­tage-le.com

Laisser un commentaire

Votre adresse courriel ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Recommended For You