Demain, des médecins codeurs d’IA et des ingénieurs en blouse blanche ?

de gauche à droite, de la programmation à la recherche médicale : Grace Hopper, conceptrice du premier compilateur en 1951 et du langage COBOL en 1959 ; Margareth Hamilton, directrice du département génie logiciel au sein du MIT Instrumentation Laboratory qui conçut le système embarqué du programme spatial Apollo ; Elizabeth Hattie Alexander, connue pour avoir développé le premier traitement contre la bactérie Haemophilus influenzae 1, et pour être parmi les premiers à avoir identifié la résistance aux antibiotiques et Marie Curie, prix Nobel de chimie pour ses travaux sur le polonium et le radium.

Demain, des médecins codeurs d’IA et des ingénieurs en blouse blanche ?

 

L’épidémie de COVID-19 a donné un coup de projecteur sur les développements de l’IA en santé et leurs potentiels. La crise a également soulevé d’épineuses questions éthiques propres au champ de la santé. Les réponses se trouvent-elles au croisement des cultures technique et médicale ? Faudra-t-il former des médecins codeurs et des ingénieurs médicaux pour garantir une IA éthique, utile à la santé des personnes et non discriminante ?

Nous avons constaté, dans un article précédent, la façon dont l’intelligence artificielle a permis d’accélérer la recherche médicale dans la lutte contre le COVID et nous avons passé en revue les nombreux domaines où l’IA pourrait agir dans la santé : aide au diagnostic, meilleure allocation des ressources, etc. Cependant, le secteur de la formation s’est encore peu saisi de la singularité, non pas technologique, mais médicale en matière d’IA, alors qu’il apparaît clé à plusieurs égards. En premier lieu, sans compétences médicales comment développer une IA réellement utile à la santé des personnes ? Selon un rapport de PWC, il existe déjà plus de 165 000 applications mobiles de santé dans le monde, mais rapporte Gérard Friedlander le doyen de la faculté de médecine de l’Université de Paris, « leur durée moyenne d’utilisation est de deux à trois semaines. C’est un échec absolu, sauf du point de vue commercial. La seule façon de garantir une conception d’IA utile pour la santé est de ne pas démédicaliser l’IA en santé ». En second lieu, la santé n’est pas un champ comme les autres. L’IA en santé se confronte à de nombreux enjeux éthiques et déontologiques : responsabilité juridique des médecins, secret médical, serment d’Hippocrate, protection des données médicales, prise en compte et protection du patient, efficacité, remboursement, etc. En l’absence d’une éthique individuelle et collective de l’IA en santé, commente dans le Digital Society Forum David Gruson, le fondateur de l’initiative citoyenne Ethik-IA, nous risquons un rejet culturel et juridique de l’IA. « Or, la qualité de la prise en charge dans le système de soins est aujourd’hui tellement sous-efficiente qu’il ne serait tout simplement pas éthique de ne pas avoir recours à ces outils. Nous l’avons constaté clairement dans la question des maladies chroniques et métaboliques », défend-il.

Parmi les enjeux auxquels pourrait répondre une éthique d’IA en santé, David Gruson cite le risque d’une sur-régulation, « la France est déjà le pays où les données de santé sont le plus protégées juridiquement. Si l’on ajoute des crans de réglementation, on risque d’accentuer la tendance des professionnels de santé et des patients français à se tourner vers des outils qui auront été développés ailleurs plus rapidement, mais ne seront pas entourés des mêmes champs de régulation éthiques ». Ensuite, il souligne le risque d’une dérive collectiviste qui minorerait l’individu et écraserait les principes de la médecine personnalisée. L’IA pourrait aussi prendre en charge une partie trop importante de la décision médicale et court-circuiter le consentement du patient. Enfin, concernant la protection des données médicales, il propose d’opérer une graduation, plaçant en haut de l’échelle, le génome d’une personne et son dossier médical, en précisant que le principal facteur de risque n’est pas tant la technologie que nous-mêmes. En effet, « fin 2019, au moins 300 000 Français avaient déjà envoyé des cheveux, de la salive hors d’Europe pour faire examiner leurs antécédents génétiques. On est ici autant dans une question d’éducation que de régulation éthique », conclut-il.

Éducation, certes, mais aussi formation des professionnels des deux bords. « Ceux qui craignent le plus l’intelligence artificielle sont ceux qui la connaissent le moins. Il faut mieux expliquer le fonctionnement d’une IA, montrer que c’est du calcul et non de l’intelligence, rapporte Nicolas Boutry, attaché de recherche au laboratoire de Recherche et Développement d’EPITA. D’un autre côté, en tant qu’ingénieur, comment comprendre les images médicales d’un poumon quand on ne connaît rien en anatomie ? Il manque une union entre les médecins et les ingénieurs, c’est un potentiel de développement et de progrès énorme pour le futur. »

Former des médecins codeurs et des ingénieurs médicaux ?

En 2019, la faculté de médecine de Paris a inauguré une chaire d’enseignement IA en santé couvrant un large champ : IA en imagerie, en anatomopathologie, en oncologie, en éthique et réglementation, etc. Le DU, qui peut accueillir 35 étudiants, sera progressivement complété par des masterclass de différents niveaux, plus orientés vers les professionnels, ainsi que des summer school internationales. « De plus en plus de jeunes médecins suivent pendant leurs études des modules liés à la data, comment la collecter, comment la manipuler. Cette tendance devrait se poursuivre et favoriser des doubles cursus du type développeur IA en santé », estime Louise Joly, directrice du réseau des écoles IA Microsoft by Simplon, qui a justement lancé une école IA en santé au CHU de Nancy début 2020. Pour les médecins chercheurs, savoir coder de l’IA leur permettrait de concevoir leurs propres outils de recherche. Ils pourraient ainsi maîtriser les biais, comprendre les logiques et les limites de l’IA dans le cadre précis de leur objet d’étude.

Concernant les ingénieurs, l’école d’ingénieurs en intelligence informatique EPITA propose déjà, depuis 2019, une mineure santé et devrait lancer en février 2021 une majeure santé. Selon Christian Chabrerie, le directeur du développement de l’école, « l’objectif de la majeure Santé est de former des ingénieurs en informatique immédiatement opérationnels et pouvant s’interfacer avec des professionnels de santé pour répondre aux défis de la santé de demain : le cycle de vie des données, l’imagerie médicale, les applications de l’intelligence artificielle et son adoption par les professionnels de santé et la sécurité des systèmes médicaux ». « Les cursus croisés se font pressants, on sent bien que des métiers et des modes de travail au croisement du monde des ingénieurs et des médecins sont en train de naître autour de l’intelligence artificielle » remarque Nicolas Boutry.

Cependant, « considérant la durée des études de médecine et d’ingénieur, il faudrait être bac + 15 pour acquérir réellement une double compétence. Ce n’est pas réaliste, sans compter que l’IA, comme la médecine, demande énormément de pratique et une actualisation continue des connaissances. Il faut passer beaucoup de temps à s’informer sur les forums, à manipuler des modèles, etc. », explique Nicolas Boutry. Ces profils resteront donc rares et constitueront une élite, Gérard Friedlander en convient : « Les enseignants du DU IA en santé sont des personnes qui ont des doubles cursus, ils ont fait Normal Sup et Médecine ou Polytechnique et Médecine. Ils sont tous geek. C’est très élitiste dans la conception mais il s’agit in fine de fabriquer des outils très ouverts et d’accueillir, au sein de la Chaire IA en santé, des étudiants d’horizons variés : médecine bien sûr, mais aussi sciences et informatique. »

Ainsi, plutôt que des doubles cursus, ne faudrait-il pas plutôt créer des environnements d’apprentissage mixtes pour susciter, le plus tôt possible, la construction de réseaux de collaboration entre médecins et ingénieurs ?

L’hybridation des cultures médicale et ingénieur

C’est tout l’objet du projet du campus Picpus qui réunit l’AP-HP (l’Assistance Publique des Hôpitaux de Paris), EPITA et la chaire IA en santé de la faculté de médecine de Paris Descartes. « En plus de l’échange au niveau de l’enseignement, le campus peut permettre de former des binômes médecin-ingénieur afin de travailler sur des projets en partant des besoins exprimés par les médecins et en s’appuyant sur des données médicales valables. En réunissant ainsi les deux communautés, nous allons faciliter la communication et le partage d’expertise sur le long terme », estime Nicolas Boutry.

L’école IA en santé de Microsoft portée par Simplon au CHU de Nancy fait le même pari. Il existe 17 écoles IA sur le territoire français, mais celle de Nancy est pour le moment la seule à s’être spécialisée sur la santé. Ces écoles ont pour particularité de former des personnes en recherche d’emploi, sans prérequis de diplôme, au métier de développeur IA. La formation initiale dure 7 mois, suivi de 12 mois en contrat de professionnalisation en entreprise. Ce métier émergent s’appuie sur les outils de démocratisation de l’IA. Il s’agit d’algorithmes préprogrammés. Le rôle du développeur IA est alors de savoir choisir le bon algorithme, d’y implémenter les données et d’évaluer la pertinence des résultats.

Cette année, les apprenants de l’école hébergée par le CHU de Nancy ont travaillé sur un projet fil rouge avec un médecin du CHU, spécialiste du genou. Ce médecin du sport avait le projet de s’appuyer sur de l’IA pour prescrire les exercices de rééducation les plus adaptés à ses patients, en fonction de leur pathologie, mais aussi de leur état général, de leur âge, etc. « Dès le début de la formation, les apprenants ont utilisé ce cas pour se former. Ils ont commencé par apprendre à trier et à nettoyer les données fournies par le médecin, puis ils ont ensuite testé les différents outils IA sur ce cas-là. Cette pédagogie par projet en conditions réelles a permis un mélange entre les apprenants et les médecins du CHU. Les apprenants ont, par exemple, présenté les technologies IA aux médecins, peu au fait de l’IA et de ce qu’elle pourrait leur apporter, voire parfois plutôt réticents vis-à-vis de l’IA. Cette première promotion a produit l’émulation que nous espérions. Le CHU accueillera une deuxième promotion l’an prochain et les échanges avec les apprenants ont convaincus d’autres médecins d’expérimenter des projets IA », raconte Louise Joly.

Ce type de formation in situ permet de sensibiliser les développeurs sur les questions éthiques spécifiques à la santé et au vivant. Une précédente promotion avait par exemple pu échanger avec Aurélie Jean, une datascientist qui a été amenée à travailler à partir de données issues de tests réalisés sur des singes en Chine. Pouvait-elle utiliser cette base de données alors qu’elle ne connaissait pas les conditions de leur collecte, sachant que c’était la seule disponible et que son travail pouvait faire progresser la médecine ? Ou fallait-il qu’elle suspende ses développements en attendant la production d’une base de données qu’elle aurait jugée éthiquement valable ? « Ce n’est pas tant la réponse qui compte, que le questionnement et les discussions collectives qui s’en suivent. Cela permet de les sensibiliser à la façon dont l’éthique se construit collectivement et individuellement », explique Louise Joly.

En effet, le contexte de travail actuel des ingénieurs ne prend pas beaucoup en compte ce genre de problématiques, « les ingénieurs sont habitués à élaborer des outils dont ils perdent le contrôle (et la responsabilité) alors que les médecins gardent le contrôle (et la responsabilité) », observe Nicolas Boutry. Pourtant, produire une IA de dépistage du cancer du poumon engage bien plus son auteur que produire une IA de maintenance prédictive. Comment réagir si l’outil développé conduit à mettre en danger la santé d’un patient ? « Il est vrai que personnellement c’est un sujet d’inquiétude et il serait intéressant d’accompagner les étudiants ingénieurs sur ces questions. L’enseignement en médecine pourrait sans doute nous aider à mieux appréhender ces problématiques à la fois sur le plan psychologique et juridique », reconnaît-il. En fait la réponse la plus judicieuse côté ingénieur reste, pour lui, l’IA explicable, c’est-à-dire une IA qui est capable d’expliquer pour quelles raisons le réseau de neurones a produit tel ou tel résultat afin de comprendre sur quels critères il s’est appuyé.

Certes, il ne s’agit pas d’exiger des développeurs et concepteurs d’IA d’adhérer au cadre déontologique des médecins et de partager avec eux la relation au patient, le secret médical, la responsabilité du diagnostic et du soin. Cependant, argumente David Gruson, « on pourrait avoir un programme d’IA tout à fait explicable, et absolument non éthique ». Il défend, alors, l’idée d’une garantie humaine, mais doit-elle être uniquement du ressort des médecins, dès lors que ces derniers ne peuvent maîtriser l’ensemble des implications technologiques ? « Il n’y a d’usurpation de rôle entre ingénieurs et médecins, chacun sait où il est. C’est bien le médecin qui va devoir expliquer à un patient qu’il a un mélanome ou un cancer du poumon. Il est alors important qu’il y ait un dialogue entre médecins et professionnels de l’IA, sinon on va appauvrir le champ, au lieu de l’enrichir. Il y a cette idée d’interdépendance : je ne peux pas faire sans eux et ils ne peuvent pas faire sans moi. Cette notion d’équipe est très importante », résume Gérard Friedlander. Il rejoint sur ce point David Gruson : « une garantie humaine individuelle serait inévitablement faillible, il faut un collège de garantie humaine, qui associe des professionnels, des représentants des patients, etc., et serait chargé de superviser la machine au fil de son usage. »

Créer des écosystèmes entrepreneuriaux

A l’avenir, ces environnements de formation mixtes entre technologie et médecine pourraient donner naissance à des écosystèmes entrepreneuriaux composés de médecins et de spécialistes de l’IA. Pour Gérard Friedlander, il s’agit de ne pas renouveler l’expérience des grandes sociétés pharmaceutiques « Il n’y a plus un seul médecin à leur tête. L’arrivée de l’IA dans le domaine du médicament relance l’intérêt de la filière en raison des besoins de collaboration extrêmement étroite entre ingénieurs et médecins. Il faut pousser les jeunes médecins à comprendre les enjeux, les logiques, les techniques de l’IA en santé et, pour ceux qui en ont l’envie, à rentrer dans une dynamique d’entreprise » explique-t-il. Il cite, pour appuyer son propos, un médecin néphrologue de l’hôpital Necker, la plus grosse unité de transplantation rénale de France. En pilotant un projet d’IA derrière la cohorte de patients de Necker, il a réussi à prédire plus rapidement et à classer de façon plus pertinente les rejets de greffes. Son modèle prédictif va permettre d’améliorer les indications thérapeutiques et, en plus, le modèle fonctionne sur d’autres types de greffes. Autre exemple, l’application Moovcare, lancée par le docteur en oncologie, Fabrice Denis, vise à déterminer les risques de récidive de cancer du poumon. Elle détecte les récidives avec plusieurs semaines voire plusieurs mois d’avance…

Microsoft et Simplon devrait prochainement installer une nouvelle école dans un autre CHU en parallèle d’un DU sur la gestion de projet data et IA à l’attention des médecins. « Une fois formés, les médecins pourront accueillir des apprenants développeurs IA en contrat de professionnalisation. On créera ainsi des binômes entre des médecins acculturés à la data et à l’IA qui portent la vision médicale de leur projet, et des développeurs IA qui vont, eux, aller manipuler les données, appliquer les bons modèles et produire des résultats », rapporte Louise Joly.

 

Ainsi, au-delà d’une formation croisée, c’est une encapacitation mutuelle qui se produit : au contact des médecins, les ingénieurs deviennent beaucoup plus conscients des enjeux éthiques et déontologiques liés à la santé ; au contact des ingénieurs, les médecins comprennent mieux la logique de l’IA et l’utilité médicale qu’elle pourrait avoir. Notons, qu’en France, cette notion d’utilité médicale devrait structurer le champ IA en santé dans les années à venir, puisqu’elle déclenchera des mécanismes de remboursement au niveau de la Sécurité Sociale. Toutefois, cet enracinement d’une double culture technique et médicale aurait également besoin de s’ouvrir à d’autres compétences que sont par exemple, celles des designers, mais aussi celles des patients, à travers les savoirs et les expériences patients. Il serait, en effet, dommage de ne réunir que deux cultures d’expertise sur un sujet aussi important et collectivement engageant.

 

Chrystèle Bazin

Leave a Reply