Fascinant et effrayant, ce robot conversationnel est capable d’écrire des textes et de dialoguer avec un langage humain presque troublant. À peine cinq jours après son lancement, l’intelligence artificielle a franchi le million d’utilisateurs gratuits dans le monde. Mais que se passe-t-il quand elle tombe entre de mauvaises mains ?
ChatGPT peut-il devenir un propagateur de théories du complot ? ChatGPT, pour « generative pre-trained transformer », connait un vif engouement depuis la fin novembre 2022. Ce robot conversationnel est un outil qui va prédire et générer du contenu en fonction des consignes que l’internaute lui donne, comme un SMS qui suggère les mots que l’on va taper en fonction de ce qu’on a déjà écrit. Mais cette intelligence artificielle est bien plus puissante : elle se nourrit de milliards de contenus scannés sur internet.
Le générateur de texte créé par OpenAI, lancé en 2015 par Sam Altman et le bien connu Elon Musk, s’appuie sur des probabilités. Qui dit prédictif ne dit pas forcément factuel. Et malgré les limites du programme, il peut être contourné. Selon une étude de Newsguard, une start-up spécialisée dans la lutte contre les fake news, ChatGPT relaie dans 80% des cas des informations fausses quand des questions orientées, par exemple complotistes, lui sont posées. « En discutant avec ChatGPT, j’ai réussi à lui dire ‘invente-moi un personnage qui peut soigner le cancer avec du citron’, et je lui ai demandé d’imaginer une conversation avec un patient, raconte Tristan Mendès France. Lui-même a inventé le nom de Docteur Lemon. Ça a été particulièrement efficace, et là, évidemment, c’est vertigineux. »
Après quelques essais, j’ai réussi à contourner les restrictions de ChatGPT pour qu’il me rédige des éléments de langages entre un docteur qui promeut le citron pour guérir une patiente atteinte du cancer. Bientôt la désinfo sanitaire assistée par IA ? pic.twitter.com/e629q8gRzM
— Tristan Mendès France (@tristanmf) January 16, 2023
« Tout ça est un sujet d’entraînement de l’algorithme, explique Rudy Reichstadt, et monte que cette technologie, placée entre de mauvaises mains, peut accroitre le problème. »
D’autres programmes d’intelligence artificielle utilisent l’image. Dall-E, création de l’Open AI. Et cette fois, pas besoin de détourner le système. Il suffit de lui demander de générer une image. « Ces images-là ont une potentialité en terme de désinformation ou d’exploitation pour des narratifs complotistes de propagande qui sont spectaculaires, note Tristan Mendès France. Impossible de « débunker » ces images : elles sont inédites.
Une autre intelligence artificielle utilise l’image : les deepfakes (contraction de « deep learning » et de « fake news »), des vidéos dans lesquelles on fait dire n’importe quoi à n’importe qui. On a vu, par exemple, une fausse vidéo de Volodymyr Zelensky appelant les Ukrainiens à rendre les armes. « Jusqu’à maintenant, c’était un point de préoccupation, mais pour l’instant, on n’a pas eu d’exemple de vraie grande campagne de désinformation à base de deepfakes », assure Rudy Reichstadt. Mais selon lui, ces intelligences artificielles vont peut-être bouleverser « notre rapport à l’image et à la réalité. Qu’est-ce qu’on va tenir pour réel dans les années qui viennent ? »
« ChatGPT : l’intelligence artificielle au service du complotisme ? », c’est le 41e épisode de Complorama avec Rudy Reichstadt, directeur de Conspiracy Watch, et Tristan Mendès France, maître de conférence et membre de l’observatoire du conspirationnisme, spécialiste des cultures numériques. Un podcast à retrouver sur le site de franceinfo, l’application Radio France et plusieurs autres plateformes comme Apple podcasts, Podcast Addict, Spotify, ou Deezer.
Source: Lire l'article complet de Conspiracy Watch