Le rôle des parlementaires à l’ère de l’intelligence artificielle générative

Le rôle des parlementaires à l’ère de l’intelligence artificielle générative

L’auteur a été député de Rosemont 1976-1985 et ministre du gouvernement Lévesque.
Il est professeur émérite, Science et Technologie, Université TÉLUQ.

L’Intelligence artificielle générative (IAG) apporte potentiellement une meilleure qualité de vie, mais aussi des risques importants pour la démocratie et la justice sociale. En tant qu’ex-parlementaires, je tiens à explorer avec vous tout particulièrement les enjeux de l’IAG pour la démocratie et comment les parlementaires peuvent jouer un rôle clé dans l’utilisation de cette technologie et de ses outils au service du bien commun.

L’IA générative – Une Technologie qui fascine.

On  a assisté à un véritable ouragan médiatique depuis que le système ChatGPT a été mis à la disposition du public en décembre 2022. Dès le 14 février 2023 il y avait déjà 123 millions d’utilisateurs actifs mensuellement. Selon les analystes de l’Union de Banques Suisses, UBS, « en 20 ans d’analyses des acteurs d’Internet, nous ne nous souvenons pas d’une acquisition aussi rapide pour une application Web à destination des consommateurs ».

La raison principale de cet énorme engouement tient à la facilité d’accès par les usagers et à la qualité des interactions dont sont capables ces robots conversationnel. ChatGPT, Gémini et autres outils d’IAG sont multilingues. On peut leur écrire ou leur parler dans sa propre langue sans disposer d’aucune compétence informatique. Ces outils génèrent des réponses de qualité humaine grâce à leurs capacités d’apprentissage et de traitement du langage naturel. Adieu les pénibles interrogations à l’aide de mots clefs. Il y a quelque chose de fascinant à voir une machine créer un texte, un message oral ou des images multimédia correspondant au contenu d’un dialogue (écrit ou oral) avec un utilisateur humain, et ce pour de multiples usages, peu importe le sujet.

Lors de nos déjeuners à la maison mon épouse et moi, un troisième participant s’est intégré à nos échanges, depuis le début de l’année. Claire interroge  régulièrement ChatGPT pour obtenir ou vérifier des informations que je lui donne. Il  arrive que je me trouve contredis ou corrigé utilement. De plus, elle lui a donné une voix masculine et dialogue régulièrement avec lui, de quoi me rendre jaloux.

Encore plus que lors de l’arrivée des moteurs de recherche, dans les années 1990, les agents conversationnels vont changer radicalement la façon dont nous interagissons avec l’Internet et comment nous accédons à l’information quotidiennement.

L’IA générative (IAG) n’est que l’étape la plus récente de l’évolution des technologies numériques. L’intérêt actuel qu’elle suscite n’est pas sans rappeler celui des systèmes experts des années 90, au moment où j’ai terminé mon doctorat dans ce domaine. Plutôt que sur des règles de déductions, la nouvelle IA repose sur des assemblages de code informatique qui simulent le fonctionnement des réseaux de neurones. À l’aide d’un énorme ensemble de mégadonnées d’entrainement, de milliards, un réseau neuronal apprend à reconnaitre des formes, des images, des sons, des textes.

L’intelligence artificielle rend les systèmes informatiques capables d’effectuer des tâches qui nécessitent normalement l’intelligence humaine comme la reconnaissance vocale et d’images, la synthèse des informations et les résumés de textes, la traduction automatique, et l’aide à la prise de décisions.

Défis posés aux démocraties

La technologie progresse à un rythme fulgurant, beaucoup plus vite que la capacité des personnes à apprendre à l’utiliser. C’est justement ce qui en inquiète plusieurs. Il devient urgent de développer une « intelligence sociétale », mise sur l’utilisation de l’IA pour renforcer la démocratie plutôt qu’à la fragiliser. Comme le soulignait l’an dernier un article du Washington Post :

« Une démocratie saine pourrait régir cette nouvelle technologie et en faire bon usage d’innombrables façons. Elle développerait des défenses contre les personnes qui l’utiliseraient de manière contraire au bien commun. Elle envisagerait la transformation économique qu’elle engendre et commencerait à élaborer des plans pour faire face à un ensemble de transitions rapides et surprenantes. Mais notre démocratie est-elle prête à relever ces défis de gouvernance ? ».

Des possibilités nouvelles

Rêvons un peu aux possibilités d’amélioration de nos processus démocratiques auxquelles nous pouvons contribuer.

Efficacité parlementaire : En synthétisant plusieurs centaines ou milliers d’opinions, l’IA peut fournir aux parlementaires, à leur personnel et aux médias des synthèses qu’ils n’auraient ni le temps ni la capacité de faire. Des parlementaires mieux informés pourront mieux jouer leur rôle de représentant du peuple et de diffuseur d’information fiable auprès des citoyens.

Participation Citoyenne : Les technologies d’IA peuvent aussi accroître la participation des citoyens et des mouvements sociaux à l’évolution de la société en analysant pour eux les énormes quantités d’informations disponibles en ligne, facilitant des débats plus inclusifs, plus éclairés.

Efficacité Administrative : L’IAG peut aider à évaluer les options qui s’offrent sur une question et améliorer l’efficacité des programmes et des initiatives gouvernementales en les adaptant aux besoins diversifiés des citoyens, ce qu’on appelle la personnalisation des mesures.

Transparence décisionnelle : En rendant les données gouvernementales accessibles au public, la gouvernance fondée sur les données favorisera la transparence et la responsabilité dans les processus de prise de décision.

Risques démocratiques

Les parlementaires doivent aussi travailler à réduire les risques démocratiques résultant de la manipulation des outils d’IA par des personnes mal informées ou mal intentionnées.

Désinformation : Les  algorithmes d’IA peuvent être utilisés pour diffuser de la désinformation et manipuler l’opinion publique. Les « deepfakes » et les « fake news » peuvent faire dire n’importe quoi à n’importe qui. En inondant les législateurs de fausses nouvelles, de fausse opinion, ils orientent le débat public en fonction d’intérêts particuliers ou de croyances parfois très minoritaires. Il nous faut des outils de dépistage au service des parlementaires.

Biais et Discrimination : Les milliards de données utilisés pour l’apprentissage des IA portent des biais culturels. Ces données sont fournies en plus grand nombre par les personnes ou les groupes qui ont les moyens d’en produire beaucoup. Ils proviennent en plus grand nombre des pays de l’anglosphère. Les systèmes  peuvent ainsi fournir des recommandations biaisées en matière d’emploi, de logement ou de justice basées sur des préjugés ou diverses formes de discrimination présentes dans les données d’entrainement.

Opacité des gouvernements : Les populations arrivent mal à saisir le sens de l’action gouvernementale et leur méfiance à l’égard des parlementaires s’accroit. Un sondage en 2019 montrait que 25% des Français et 43 % des Néerlandais étaient prêts à laisser des algorithmes d’IA prendre des décisions à la place de leurs gouvernants élus. Or les recommandations des systèmes d’IA, encore plus que les gestes des gouvernants, reposent sur des processus opaques que même les professionnels peuvent difficilement expliquer.

Surveillance et Vie Privée : L’utilisation de technologies de surveillance basées sur l’IA, notamment la reconnaissance faciale, peut mener à des erreurs ou à des violations des droits et de la vie privée. Les citoyens doivent être protégés par l’action parlementaire.

La souveraineté des États fragilisée : Le fonctionnement des systèmes d’IA nécessite d’énormes capacité de traitement informatique ce qui explique qu’ils soient développés par un petit nombre d’organisations qui en ont les moyens. Ces entreprises, notamment les GAFAM et d’autres, utilisent dans leurs plateformes des milliards de données produites par les populations. Ces données et ces informations sont pourtant un bien public comme l’air ou l’eau qui devrait servir au bien commun. Seuls les États démocratiques peuvent assurer un usage responsable et éthique des technologies d’IA.

Encadrer l’usage de l’IA

Les enjeux de l’IA sont globaux. Jusqu’à maintenant, le développement de l’IA s’est fait principalement par de grandes entreprises, qui opèrent de façon uniforme sur tous les continents, dont la capitalisation dépasse les mille milliards de dollars – plus que le budget de plusieurs états – et qui opèrent à l’abri des gouvernements élus par les populations.

Les parlementaires doivent faire pression au nom des populations pour l’élaboration de traités internationaux sur l’IA qui établiront des normes et des pratiques communes respectueuses du bien commun. Dans chaque État également, des lois doivent assurer la transparence des algorithmes, la protection des données privées, la non-discrimination des citoyens et la découvrabilité des contenus culturels et des informations les plus utiles à chaque nation. Des agences de régulation doivent disposer des ressources et des compétences nécessaires pour superviser une utilisation responsable et éthique de l’IA.

Plusieurs pays ont entrepris d’élaborer des politiques et des législations pour encadrer l’utilisation de l’IA. Ce sont partout des processus extrêmement lents, en général peu contraignants pour les entreprises. À titre d’exemple, le gouvernement canadien a déposé en juin 2022, dans le cadre du projet C-27, une Loi sur l’intelligence artificielle et les données (LIAD) qui n’arrive pas à faire consensus, bien qu’elle se limite essentiellement à proposer un système d’autorégulation par les entreprises elles-mêmes.

La législation européenne va beaucoup plus loin en s’intéressant à l’analyse des biais potentiels dans la façon dont les données sont choisies, collectées et utilisées. Elle vise à contrer les réticences des entreprises à fournir des informations sur les données d’entrainement utilisées par leurs systèmes. Elle exige également que les développeurs s’assurent que les utilisateurs puissent savoir quand des contenus ont été générés par de l’IA, de façon à éviter les fausses photographies et les vidéos truquées (les « deepfake »).

Aux États-Unis, alors que le Congrès américain peine à établir une réglementation efficace, se limitant à un décret présidentiel qui fait appel à la bonne volonté des entreprises, l’État de la Californie a entrepris de se doter en mars 2024 de sa propre réglementation. La version initiale du projet de loi SB 1047 a dû être amendée sous la pression des entreprises d’IA. La création d’une agence de régulation a été remplacées par un simple conseil consultatif chargé de recommander des normes aux entreprise. Cependant la législation maintient les obligations pour les développeurs de tester la sécurité de leurs systèmes. En cas de non-respect, des amendes sont prévues, mais sans sanctions pénales. Malgré ces compromis, le projet de loi rencontre une ferme opposition de la part d’acteurs clés du secteur technologique. OpenAI, développeur de ChatGPT, a soulevé le spectre de voir les innovateurs quitter la Californie pour des environnements moins régulés, d’où l’importance de traités internationaux.

Il faut combattre la résistance des multinationales du numérique qui tiennent à continuer à opérer hors du contrôle public. Les États règlementent la sécurité aérienne, les produits pharmaceutiques et bien d’autres domaines et on voit mal pourquoi cela serait moins acceptable pour les produits d’IA, d’autant plus que ceux-ci ont un impact important sur la qualité de l’information, les droits de la personne et la qualité de nos démocraties.

Plutôt que de se soumettre aux exigences des entreprises, les parlementaires du Québec pourraient militer pour que la Convention-cadre du Conseil de l’Europe sur l’intelligence artificielle, un  premier instrument international juridiquement contraignant dans ce domaine, s’applique au 46 pays de l’UE, puisse être appliquée ici et au Canada comme l’y invite d’ailleurs l’article 31 de cette convention.

Vers un usage responsable de l’IA au Québec.

Tout en participant aux efforts internationaux de réglementation de l’IA, les parlementaires du Québec peuvent compter sur les efforts réalisés chez nous pour promouvoir un usage responsable et éthique de l’IA au Québec. Je vois la stratégie IA du Québec se développer sur quatre plans.

Des projets mobilisateurs de recherche et l’innovation.

Une étude internationale  comparait en 2022 la performance de notre écosystème d’IA du Québec à celui de 63 autres nations, plaçant le Québec au 7e rang des pays et au 5ème rang des pays qui produisent le plus de résultats de recherche dans ce domaine. Malgré ce positionnement remarquable pour un pays de 8 millions d’habitants, la même étude soulignait les faiblesses de l’environnement opérationnel au Québec, notamment dans le traitement des visas des travailleurs qualifiés dont la mobilité internationale est vitale, ainsi que la faiblesse des infrastructures de calcul des données massives, un processus central en IA où le gouvernement canadien investit trop peu et davantage dans certaines autres provinces puisque le Canada est 17e et le Québec 34e à ce chapitre sur 63 pays.

Deux grands projets mobilisateurs devaient être entrepris. Le premier consisterait à créer un grand modèle le langage – composante de base des systèmes d’IA –  prenant en compte la spécificité culturelle du Québec. Ce grand modèle de langage pour l’IA générative serait entraîné à l’aide de textes spécifiques à la culture et à la langue québécoises. À cet égard, nous pourrions nous inspirer d’une initiative récente de la Suède qui a entrepris de se doter d’un modèle de langue entraîné à partir de textes disponibles sur les réseaux publiés en langues scandinaves.

Un second projet mobilisateur consisterait à mettre en place une infrastructure nationale de calcul dédiée à l’IA. Entraîner un grand modèle de langue demeure hors de la portée financière des entreprises émergentes et des chercheurs, ce qui favorise la domination des grandes entreprises du numérique qui disposent de larges entrepôts de données.
Le développement de l’économie fondée sur l’IA
Une étude de l’IREC identifiait « l’existence d’un déficit de brevets et d’une fuite d’entreprises émergentes en IA. » Le gouvernement du Québec a investi 1,17 milliard de dollars dans divers projets d’IA, mais la quasi-totalité des projets financés ces cinq dernières années ont subi une prise de contrôle par des entreprises de l’extérieur du Québec. Toujours selon cette étude, on peut craindre que le « Québec n’en vienne qu’à jouer un rôle d’un sous-traitant en R-D au bénéfice d’entreprises étrangères ».

La stratégie québécoise de développement l’IA doit s’appuyer sur les proposition récentes du Conseil de l’innovation du Québec en matière économique. Il est urgent de mobiliser l’ensemble de nos instruments financiers, Investissement Québec, la Caisse de dépôt du Québec et le Mouvement Desjardins, pour soutenir la création d’entreprises d’IA, tout en assortissant l’aide gouvernementale de conditions favorisant la pérennité des composantes de l’écosystème IA du Québec.

L’appui de l’IA à la spécificité culturelle.

La stratégie du Québec en IA doit également soutenir notre spécificité culturelle en mettant en pratique les propositions du récent rapport du Comité-conseil sur la découvrabilité des contenus culturels. Il faut contrer le rouleau compresseur des GAFAM et des plateformes médias en ligne comme Netflix, qui tendent à homogénéiser culturellement la planète. Bien qu’ils soient multilingues, les outils d’IA générative maîtrisent moins bien les langues autres que l’anglais, s’alimentant principalement des données du Web où les publications de l’anglosphère dominent.

L’utilisation éthique de l’IA.

Déjà en 2018, quant à l’utilisation éthique de l’IA, le Québec faisait figure de pionnier par la publication de la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle à l’initiative de l’Institut québécois d’intelligence artificielle MILA dirigée par Yosua Bengio. En 2019 l’Observatoire international sur les impacts sociétaux de l’IA et du numérique (OBVIA) était financé par les Fonds de recherche du Québec. En 2020, le Québec collaborait au processus d’échange international de l’UNESCO qui menait à l’adoption d’une Recommandation sur l’éthique de l’intelligence artificielle.

Pour donner suite à ces initiatives, le Québec doit établir un processus rigoureux d’approbation des systèmes IA avant leur diffusion, aussi rigoureux que celui qui mène à  l’approbation scientifique de nouveaux médicaments en matière de santé. La qualité des  informations produites par l’IA dans des domaines névralgiques comme la santé, l’éducation, la justice ou l’environnement devraient faire l’objet un processus d’évaluation tout aussi contraignant pour s’assurer qu’ils sont exempts de mésinformation ou de biais culturels contraire à l’éthique et à l’équité.

Conclusion

Le Québec réussi à se situer à l’avant-garde du mouvement international dans la recherche, l’innovation et l’utilisation éthique de l’Intelligence artificielle. Pour poursuivre cet effort, les parlementaires du Québec ont un rôle crucial à jouer, à la fois pour appuyer les efforts internationaux et déployer une stratégie de l’IA propre au Québec, une composante essentielle de notre avenir comme nation.

Adblock test (Why?)

Source: Lire l'article complet de L'aut'journal

À propos de l'auteur L'aut'journal

« Informer c’est mordre à l’os tant qu’il y reste de quoi ronger, renoncer à la béatitude et lutter. C’est croire que le monde peut changer. » (Jacques Guay)L’aut’journal est un journal indépendant, indépendantiste et progressiste, fondé en 1984. La version sur support papier est publiée à chaque mois à 20 000 exemplaires et distribuée sur l’ensemble du territoire québécois. L'aut'journal au-jour-le-jour est en ligne depuis le 11 juin 2007.Le directeur-fondateur et rédacteur-en-chef de l’aut’journal est Pierre Dubuc.L’indépendance de l’aut’journal est assurée par un financement qui repose essentiellement sur les contributions de ses lectrices et ses lecteurs. Il ne bénéficie d’aucune subvention gouvernementale et ne recourt pas à la publicité commerciale.Les collaboratrices et les collaborateurs réguliers des versions Internet et papier de l’aut’journal ne touchent aucune rémunération pour leurs écrits.L’aut’journal est publié par les Éditions du Renouveau québécois, un organisme sans but lucratif (OSBL), incorporé selon la troisième partie de la Loi des compagnies.

Laisser un commentaire

Votre adresse courriel ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Recommended For You