Minority Healthcare

Minority Healthcare

L’intelligence artificielle (IA) a pénétré le domaine médical avec la promesse d’une amélioration de la précision et de l’efficacité, tant du diagnostic que du traitement [1]. Restons ouvert, au moins pour la beauté du progrès en marche. Abandonner des tâches rébarbatives et sans valeur ajoutée à qui peut le faire sans défaillance, et se libérer du temps pour des choses plus intéressantes, quoi de mieux en effet. En réalité, rien ne va vraiment changer. Nous resterons dans la continuité de ce qui se faisait avant, sans bien sûr remettre en question la manière de soigner, mais avec en plus l’alibi de l’infaillibilité de la technologie. On peut craindre en revanche que l’utilisation de l’IA soit une étape de plus dans la standardisation de la médecine, et dans l’abandon du qualitatif au profit du quantitatif. Avec en perspective, la difficulté de se défendre contre un programme qui prétendra tout savoir de nous. Il y a plus de 20 ans, Steven Spielberg avait mis en scène la toute puissance de la technologie de l’unité de police précrime, et le danger des arrestations préventives. Gardons-nous bien d’accepter le piège du prépathologique.

La médecine est un art difficile

Les articles dithyrambiques sur l’IA [2] nous imposent d’emblée et sans le démontrer l’idée d’un progrès consécutif à une amélioration de l’imagerie médicale. Mais il y a matière à discuter ! Soigner, guérir, soulager la douleur est chose complexe. S’il s’agissait simplement de poser une étiquette et d’appliquer le traitement qui lui correspond, nous n’en serions pas là. On pourrait réparer les corps, comme on répare les machines. La seule étape du diagnostic – qui ne garantit pas la guérison – est déjà en soi un processus complexe. Le diagnostic reste par nature sujet à nombreuses erreurs, elles-mêmes imputables à de nombreuses causes. S’il s’agit d’un problème de détection lié à une mauvaise perception visuelle, l’IA sera certainement d’une grande aide. En effet, elle est de plus en plus utilisée pour sa capacité à segmenter et étiqueter les différentes structures dans les images médicales, en un temps record. La recherche développe des algorithmes capables de corriger automatiquement les distorsions d’image, ce qui permet de réduire le « bruit », pourrait-on dire par comparaison avec les prises de son. Cependant, il faut rester prudent, car dans ce domaine nous avons déjà l’expérience de grosses déconvenues.

Erreurs technologiques

Fin 2016, la revue Science et Avenir reprend un article de PNAS, et révèle au grand public qu’un algorithme fréquemment utilisé pour les IRM, entraînait un taux gigantesque de faux positifs [3]. Anders Eklund, l’auteur de l’étude, avait investigué la fiabilité de trois des principales librairies logicielles les plus répandues pour la construction et l’analyse des images IRM (SPM, FSL et AFNI), en rassemblant des IRM de 499 personnes saines, réparties en groupes de 20, pour un total de 3 millions de tests en double aveugle. L’expérience a été répétée des milliers de fois, sur un panel de personnes testées toutes en parfaite santé. L’équipe de recherche d’Eklund a démontré que l’on pouvait obtenir jusqu’à 70 % de faux positifs, c’est-à-dire plus de deux tiers de diagnostics pathologiques chez des gens qui n’étaient pourtant pas malades. L’étude pointait du doigt que « les conclusions du logiciel sont faussées dès lors que l’algorithme ne travaille plus sur les seuls voxels, mais sur des regroupements de voxels » [4]. Une erreur technologique, donc. Dès lors qu’il se focalisait sur plusieurs voxels (sorte de pixel 3D), le logiciel considérait qu’une zone de l’organe était active quand en réalité elle ne l’était pas. Autrement dit, on aurait pu vous étiqueter malade sur une erreur d’algorithme. Ce rappel pour modérer un élan trop enthousiaste sur les réussites de la technologie, et pour prévenir de l’aura de fiabilité absolue des nouvelles technologies.

La question controversée des détections précoces…

En dehors d’un aspect purement technique, la question de fond des diagnostics précoces doit être également posée. Diagnostiquer les maladies à un stade précoce, pour traiter précocement et ainsi améliorer les résultats thérapeutiques, est une croyance en partie erronée dont la pratique médicale à déjà fait les frais. Si le raisonnement est facile à comprendre, puisque, comme le disait de manière très efficace le docteur André Gernez, « le sens commun veut qu’il soit plus facile d’écraser un gland qu’un chêne » [5], l’application dans la vie réelle révèle parfois des surprises. Dans la même veine que précédemment, le taux de faux positifs de cancer dans le cadre de mammographies de dépistage, donc pour une détection précoce, a pu monter jusqu’à hauteur de 61 % [6]. C’est ce qui a conduit avec les années à un changement d’attitude des professionnels autant que des femmes, envers la pratique systématique de la mammographie de masse [7].

… et des détections fortuites

Les détections fortuites sont une autre perspective qu’il faut s’attendre à voir jaillir à la pelle des vastes données de toute cette nouvelle imagerie IA. Ainsi, une constatation sans lien avec l’indication clinique de l’examen planifié peut révéler « fortuitement » un problème insoupçonné, qu’il faudra bien investiguer. On a souvent débattu de la prise en charge excessive de ces données diagnostiques supplémentaires. Déjà en 1972, Rang décrivait avec humour le « syndrome d’Ulysse », ce long voyage effectué par les malades au travers des différentes investigations dont ils seront l’objet, vivant un certain nombre d’aventures avant de revenir enfin à leur point de départ [8], soulignant le fait que la plupart des détections fortuites s’étaient finalement révélées bénignes. Il existe même un terme pour les patients qui ont fait l’objet d’examens inutiles : ils sont qualifiés de victimes de la technologie de l’imagerie moderne (VOMIT pour victims of modern imaging technology) [9].

Une apparence d’individualisation médicale

Mais l’emballage et le marketing est soigné. L’IA promet ce qui nous manque le plus : une approche individualisée. En réalité, le mot « individualisation », qui serait le véritable progrès à faire, n’est pas employé. On parle de « personnalisation », ce qui n’est pas la même chose. Une médecine individualisée est à l’opposé d’un traitement de masse, elle soigne une personne unique dans sa physiologie et dans ses réactions. L’IA fait miroiter la possibilité d’adapter les traitements médicaux à chaque patient en fonction de ses caractéristiques, telles que son patrimoine génétique, ses antécédents médicaux et son mode de vie. Ainsi, de la même manière qu’à la cantine du self, on vous propose de personnaliser votre salade, en rajoutant au choix : olives, tomates, oignon, croutons, et/ou feta en supplément, le traitement « personnalisé » serait une simple customisation des traitements habituels. En gros, ils reposeront sur le traitement informatique de quelques croix supplémentaires sur un questionnaire standard remis en début de parcours thérapeutique, et de la compilation de tous vos antécédents. Il ne s’agit en aucun cas du traitement sur mesure du médecin personnel d’un malade, qu’il reçoit en consultation et accompagne, lui et sa famille, depuis plusieurs années.

Mais il est vrai – et cela devient inquiétant – que les algorithmes d’IA peuvent analyser de vastes ensembles de données sur les patients, identifier des modèles, et prédire la manière dont il serait susceptible de réagir à tout type de traitements. Nous voici avec la perspective d’un problème éthique supplémentaire à gérer.

Prévention, prédiction et évaluation des risques

Car si détection précoce n’est pas synonyme de prévention – l’amalgame est fréquent – l’IA va plus loin. Nous quittons la détection de masse pour entrer dans la prédiction individuelle. En effet, l’IA met au point des modèles d’évaluation des risques, sur la base des données de patients, qui peut être énorme. C’est le fameux Big Data. La littérature parle d’identifier les risques potentiels et prédire la probabilité de développement de certaines conditions, par exemple des signes de cancer ou les premiers stades de la maladie d’Alzheimer. « L’IA et la science des données peuvent être utilisées pour développer des modèles prédictifs qui peuvent prévoir la probabilité de certains résultats de santé sur la base des données du patient » [10], nous dit-on. Amateurs de vin, ou sportifs en canapé, attention à ce que vous déclarerez ! Vous saviez déjà que ce n’était pas bon pour votre santé, mais l’IA vous le dira d’une façon scientifique. Et vous aurez peut-être même droit, en bas de page de votre analyse dématérialisée, à un bandeau du type « manger-bouger, un message du ministère de la Santé ». Espérez simplement qu’il n’y ait pas de fuite vers votre assureur ou votre futur employeur. Les précautions d’usage sont affichées, mais sans avoir les moyens d’en garantir le résultat : « Toutefois, il est essentiel de veiller à ce que les algorithmes d’IA soient développés et utilisés de manière responsable et éthique, en mettant l’accent sur la protection de la vie privée et la sécurité des patients. » Bien sûr.

Problèmes éthiques en cascade

Ces prédictions pourront malheureusement revêtir, chez celui qui les reçoit, l’apparence de données scientifiquement éclairées sur les options ou les nécessités de traitement. Comment de surcroît gérer l’anxiété de cette probabilité ? Imaginons un dépistage de la maladie d’Alzheimer, sur le modèle du dépistage du cancer du sein ou du colon, en recourant à l’imagerie IRM.

« Outre les limites de telles démarches, toujours coûteuses et parfois inutilement angoissantes, leur mise en œuvre est à l’heure actuelle totalement irréaliste en ce qui concerne la maladie d’Alzheimer, pour laquelle n’existe aujourd’hui aucun traitement curatif. Et même si, par la suite, un traitement curatif était découvert, s’il s’avère que ce traitement est plus efficace quand il est employé à un stade très précoce de la maladie, faudra-t-il recourir à un tel traitement, très probablement agressif, uniquement sur des images d’IRM (éventuellement confirmées par des dosages sanguins et/ou dans le liquide cérébro-spinal) chez des patients à un stade totalement asymptomatique ? » [11]

Ainsi, la possibilité de faire une IRM de précision n’exonère ni ne facilite le choix thérapeutique à faire. En d’autres termes, si la machine ne répond pas aux questions, elle nous en fait en revanche poser de plus épineuses.

De bien délicates limites

La littérature reconnait que, bien qu’ils puissent fournir des informations précieuses et une aide au diagnostic et au traitement de certaines maladies, la technologie IA n’a pas le même niveau de jugement clinique et d’expérience qu’un humain expérimenté. On peut lire que « l’IA doit être utilisée comme un outil pour soutenir le personnel soignant plutôt que de les remplacer ». La formulation fait frémir, car elle contient l’idée qu’on a sérieusement réfléchi à la question. Or les approches qui ambitionnent de rendre compte des bénéfices possibles de l’IA sous-estiment largement les normes qui régulent l’activité diagnostique et le processus interprétatif d’une image médicale.

« Loin de se résumer a «un constat base» sur des signes qui seraient immédiatement disponibles sur l’image et univoquement liés à une pathologie, les «cibles» visibles surgissent au fur et à mesure en fonction des informations et des savoirs dont les radiologues disposent. » [12]

Le diagnostic humain, lui, est interactif, vivant et expérientiel.

En route pour la généralisation du nouveau dossier numérique

L’utilisation de l’IA est sérieusement envisagée pour analyser des images médicales prises à domicile. Très pratique pour vous éviter de longues heures d’attente. Mais tout aussi intéressant pour la gestion d’éventuels futurs lockdowns ! Suivre les patients à distance pour détecter rapidement d’éventuels problèmes de santé est une façon astucieuse de répondre aux critiques liées aux retards de prise en charge pour cause de confinement. Dans ce contexte-là, le « nouveau dossier numérique en ligne Mon Espace Santé », anciennement « dossier médical partagé » devient indispensable. Si vous souhaitez le refuser, il faudra en faire la demande active [13]. Ces dossiers numériques contiennent en effet une multitude d’informations sur les antécédents médicaux d’un patient. De quoi mettre quelque chose de conséquent sous la dent des algorithmes d’IA qui se chargera d’identifier nos risques potentiels et de recommander des plans de traitement « personnalisés ».

Conclusion

L’affirmation enthousiaste que l’IA améliorera la santé des populations pèche par son parti pris et sa naïveté. L’IA exécute. Elle applique le programme que quelqu’un – avec une intention propre et une faillibilité questionnable – a conçu. Son utilisation ne présage pas de la bonne indication de l’examen proposé, qui repose sur la pertinence d’effectuer d’un examen d’imagerie. Elle ne présage pas non plus de la bonne interprétation de l’examen, car elle n’évitera pas les erreurs provenant d’un raisonnement erroné face à une image, si nette soit-elle. Le choix du protocole d’examen adéquat restera à faire, et la conduite à tenir à l’issue de l’examen à définir.

L’IA est une pirouette rutilante qui nous ramène à la distinction philosophique entre les faits et les valeurs, puisque, en dernier instance, l’acte médical repose sur un choix, et non sur une vérité. Comme le héros de Spielberg, sauvé par des « minority reports », il se pourrait bien que la voie de salut se trouve dans ce qu’on pourrait appeler des minority healthcare, c’est-à-dire des éléments minoritaires – mais très spécifiques de chaque personne unique – que le médecin personnel du malade aura su percevoir et traiter.

– Béa Bach pour la Section Santé d’E&R –

Ne manquez pas Béa Bach à Toulouse, le samedi 27 avril !

Adblock test (Why?)

Source: Lire l'article complet de Égalité et Réconciliation

À propos de l'auteur Égalité et Réconciliation

« Association trans-courants gauche du travail et droite des valeurs, contre la gauche bobo-libertaire et la droite libérale. »Égalité et Réconciliation (E&R) est une association politique « trans-courants » créée en juin 2007 par Alain Soral. Son objectif est de rassembler les citoyens qui font de la Nation le cadre déterminant de l’action politique et de la politique sociale un fondement de la Fraternité, composante essentielle de l’unité nationale.Nous nous réclamons de « la gauche du travail et de la droite des valeurs » contre le système composé de la gauche bobo-libertaire et de la droite libérale.

Laisser un commentaire

Votre adresse courriel ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Recommended For You