ChatGPT : l’IA et l’humble grandeur de l’Homme

ChatGPT : l’IA et l’humble grandeur de l’Homme

Il m’aura fallu un énième déjeuner du Nouvel An pour découvrir ce qui faisait la une depuis un moment. Je le confesse, je ne suis pas très in en matière de technologies. Du haut de ses 13 ans, mon neveu m’a présentée au robot conversationnel ChatGPT, non sans me prévenir, avec humour, que j’avais affaire à un compétiteur de taille. J’ai alors cherché à faire la connaissance de mon rival.

« Verify you are human… »

Ironiquement, le robot vérifie mon humanité. Sitôt connectée, je le prends au pied de la lettre et j’enchaine : c’est quoi, être humain ?

ChatGPT : « C’est un concept complexe qui implique une combinaison de caractéristiques biologiques, physiologiques, sociales, culturelles et spirituelles. »

Un concept complexe… Voilà ce que je suis pour lui. Je poursuis : c’est quoi, un concept ?

ChatGPT : « Une compréhension abstraite d’une notion. »

 Et complexe ?

ChatGPT : « Difficile à comprendre, car composé de plusieurs parties interdépendantes. »

Voilà qui dit vrai. L’Homme est sans doute ce qu’il y a de plus difficile à comprendre. J’ai alors poussé la porte encore davantage, par curiosité.

Révolution ou évolution ?

ChatGPT est un réseau de neurones entrainés à produire du contenu à partir des sources des moteurs de recherche. Il le fait d’une façon ergonomique, c’est-à-dire adaptée au fonctionnement naturel de l’être humain. Voilà l’habillage qui rend fluide l’échange entre l’homme et le robot qu’on qualifie désormais d’intelligence conversationnelle. Sa technologie, dite générative (de contenu), est une branche de l’IA. Ce chatbot, même s’il fait couler beaucoup d’encre, ne constitue pas forcément une innovation. Il marque toutefois une rupture dans la continuité.

En 2016, nous avons eu Tay chez Microsoft, qui s’est éteinte presque dans l’œuf, quelques heures après son lancement. On lui a reproché des propos racistes, alors qu’elle (oui, c’était une « fille ») ne faisait que recracher fidèlement ce qu’elle avait englouti pendant son entrainement dans la jungle d’Internet. Sans censure. Aucune. Car sans conscience, précisément. Quelques années plus tard, on passe au délire quand l’ingénieur principal de LaMDA, le chatbot de Google, attribue conscience et émotions à sa création. Ses services sont alors remerciés.

Pour éviter de telles dérives, les concepteurs de ChatGPT ont bridé leur nouveau-né. En réponse aux sujets épineux, le robot ne se lasse pas de préciser explicitement ne pas avoir de conscience propre, d’émotions ou de croyances, avant d’entamer le tour de la question le plus objectivement possible. Quelque part, c’est ce déguisement capable d’argumentation qui fait peur au monde académique et professionnel. « Leur cerveau n’aura plus aucune utilité… pourvu qu’ils ne perdent pas les émotions et les sentiments », m’a dit l’autre jour une mère. 

Le risque de l’imagination

Si l’intelligence artificielle générative produit du contenu à partir de données existantes, elle ne se limite pas à la production de texte.

En effet, à titre d’exemple, il suffit de taper sur Dall.E « Van Gogh painting style of a human having a conversation with a robot », pour obtenir ce résultat impressionnant !

Mais qui peut alors prétendre en être le père ? L’auteur ou le créateur ? Devant l’ampleur du défi à venir, les spécialistes du droit semblent être mis au pied du mur. Une machine peut-elle être considérée comme auteure d’une invention, et donc, détentrice de droits ?

C’est pourtant le cas presque unique de DABUS, une IA ayant reçu un brevet en Afrique du Sud et en Australie. L’homme a choisi consciemment de s’effacer devant sa machine… comme un père s’effacerait pour mettre en avant les talents de son fils. Fascinant ou effrayant ?

Devant les dérives potentielles qui accompagnent l’innovation humaine, sommes-nous face au syndrome de Pinocchio où, à force de se le répéter, l’homme se plie à l’idée qu’il serait apte à créer une machine capable de liberté et de responsabilité, de discernement et de conscience ? Et selon quels critères ? Car s’il y a du blé dans toute l’étendue de l’intelligence artificielle, il y a aussi de l’ivraie, mais ce n’est pas encore le temps de la moisson. Laissons-les pousser ensemble alors, par peur d’arracher le bon avec le mauvais.

Robot versus Homme : de faux ennemis

En effet, il ne s’agit pas de jeter le bébé avec l’eau du bain. Mais pour sauver l’enfant, il faut revenir à l’Homme. À sa part de mystère. À la complexité de son corps. À sa fragilité. Et même, oserais-je dire, à la faillibilité de son jugement dans tous ces scénarios « au cas où ».

Si nous voulons tous d’un avion doté d’un mode de pilotage automatique, nous hésiterons sans doute à le prendre s’il manque un homme à bord pour décider de la marche à suivre. Si nous voulons tous d’une intelligence capable de diagnostic anticipé ou d’intervention chirurgicale autonome, nous hésiterons sans doute à nous y fier aveuglément sans une supervision médicale et biomédicale. Si nous voulons tous d’une intelligence capable de sauver les survivants d’une catastrophe sans qu’aucune âme de plus ne soit mise en péril, nous hésiterons sans doute à nous fier au jugement d’un système d’armes létales autonome qui choisirait par pur algorithme qui tuer ou non dans un conflit. 

Le problème n’est pas dans ce que l’IA peut faire ou ne pas faire. Le problème est dans ce que l’homme veut que l’IA fasse ou ne fasse pas.

Nous prétendons croire que l’homme a droit à l’erreur, mais cette croyance ne serait-elle pas qu’un voile derrière lequel se dissimule notre désir d’infaillibilité, de toute-puissance, d’invulnérabilité ? Ne cherchons-nous pas souvent à adhérer aveuglément aux suggestions des robots que nous jugeons infaillibles ? Ne craignons-nous pas d’assumer cette part de notre grande dignité humaine, celle de poser un jugement libre, malgré le risque de l’erreur et le poids de la responsabilité – morale, à tout le moins ?

Nous n’avons pas été éduqués à utiliser des machines qui commettent des erreurs, car nous n’avons pas été éduqués à accepter les erreurs. Et dans tout cela, nous oublions que la neutralité, l’impartialité et l’infaillibilité supposées relèvent de la manière dont on entraine ces robots. Autrement dit, ils dépendent de la vision de l’Homme et des choix de société qu’ont leurs programmeurs. Tout le combat est là. Précisément. Pour que la fragilité ne serve pas de prétexte au délire de la toute-puissance.

Faire corps pour créer du lien

ChatGPT a eu raison de vouloir « vérifier mon humanité », car la question demeure : y aura-t-il toujours une place pour la vulnérabilité et les plus vulnérables ? Ceux dont « les caractéristiques biologiques, physiologiques, sociales, culturelles et spirituelles »ne permettent pas d’entrer dans le moule de la toute-puissance recherchée ? Se poser la question pour eux, c’est se la poser pour nous. Pour chacun. Pour moi. Nous n’avons pas tous les mêmes talents et ne pouvons à la fois être écrivains, illustrateurs, médecins, musiciens, avocats, ingénieurs, etc. Cette conscience de nos limites, ne constitue-t-elle pas notre plus grand trésor en nous invitant à la rencontre, à la coopération, à l’émerveillement, à la communion de nos talents pour faire véritablement corps et créer du lien? À défaut, le cri des premiers temps résonnera encore et toujours : « Qu’as-tu fait de ton frère ? » (Gn 4,9)

Notre vulnérabilité nous ouvre à la rencontre de l’autre et du Tout-Autre. Elle permet à cette part de mystère en nous de se dévoiler et de se déployer. Nous aurons toujours besoin de nous sentir aimés, d’apprendre à aimer, de nous exposer. Vivre sera toujours un risque en ce sens, car la vie nous expose à des rêves déçus, des deuils, des abandons, des refus, des trahisons.

Il ne s’agit ni de mépriser la technologie, ni de l’absolutiser, mais de lui donner sa juste place sous l’autorité de la conscience.

Cette vulnérabilité nous fait souffrir le plus souvent, c’est vrai.. Peut-on alors penser que, pour atteindre la plénitude, nous devons à tout prix nous en débarrasser? Or, si nous désirons un peu plus aujourd’hui, et comme nous désirerons sans fin demain, c’est que, précisément, nous sommes et serons toujours vulnérables. Sans elle, nous n’aurions plus rien à désirer. Elle est le signe le plus éclatant de notre soif d’absolu, et le passage obligé vers cet infini de l’Amour que nous pressentons parfois, mais qui, à l’horizon, nous attend pleinement.

Alors non, je n’ai pas peur de l’avancée de l’IA, tout comme je n’ai pas eu peur de l’apparition d’Internet ou des smartphones. Il ne s’agit ni de mépriser la technologie, ni de l’absolutiser, mais de lui donner sa juste place sous l’autorité de la conscience. « Être Homme, c’est précisément être responsable », disait Antoine de Saint-Exupéry. Il s’agit alors d’éduquer les consciences afin que l’IA demeure l’alliée de la créativité de l’Amour, capable d’inventivité jusqu’à l’Infini (Saint Vincent de Paul), et ainsi éviter qu’elle ne devienne qu’un amplificateur de la bêtise humaine.

Plus nous sommes puissants, plus notre survie tient à notre humilité. « Garder les pieds sur terre sans perdre de vue que nous ne cessons de chercher du sens ailleurs, c’est souffrir l’humble grandeur de l’homme. » (Tugdual Derville)

            <strong><a href="https://blockads.fivefilters.org/">Adblock test</a></strong> <a href="https://blockads.fivefilters.org/acceptable.html">(Why?)</a>

Source : Lire l'article complet par Le Verbe

Source: Lire l'article complet de Le Verbe

À propos de l'auteur Le Verbe

Le Verbe témoigne de l’espérance chrétienne dans l’espace médiatique en conjuguant foi catholique et culture contemporaine.Nos contenus abordent divers sujets qui émergent de l’actualité. Et, puisque nous souhaitons que nos plateformes médiatiques suscitent le dialogue, on espère bien y croiser autant des réactionnaires pleins d’espérance que des socialistes chrétiens, autant des intellectuelles mères au foyer que des critiques d’art en bottes à cap.

Laisser un commentaire

Votre adresse courriel ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Recommended For You