Les risques éthiques soulevés par
l’IA en santé.
David Gruson, directeur du programme santé de l’entreprise Jouve, fondateur de l’initiative citoyenne Ethik-IA , membre du comité d’éthique du numérique, il écrit aussi dans son temps libre des “polars bioéthiques”
Face au Covid-19, dans certains pays asiatiques, on a pu observer dans l’usage du numérique le recours à cette dimension collective, voire collectiviste.
Elle a amené à superposer à des mesures de restriction des libertés individuelles dans l’intérêt du plus grand nombre (ce qu’est le confinement) des éléments de logique algorithmique, qui viennent renforcer l’arbitrage en faveur du collectif par rapport à l’individuel.
Ces dernières années, les débats sont restés très polarisés, avec d’un côté les grands supporters de la technologie un peu technolâtres et de l’autre les tenants d’un « Big data Big brother », agitant la crainte de super-machines allant toutes nous exterminer.
Le risque éthique
Avec le collectif citoyen Ethik-IA, nous avons souhaité prendre de la distance avec ces discours pour identifier les risques critiques auxquels nous étions réellement exposés.
Le risque éthique le plus grand est celui de se fermer à l’innovation en numérique et en IA. La qualité de la prise en charge dans le système de soins est aujourd’hui tellement sous-efficiente qu’il ne serait tout simplement pas éthique de ne pas avoir recours à ces outils. Nous l’avons constaté clairement dans la question des maladies chroniques et métaboliques.
Cette tension entre collectif et individu n’est pas neuve. Et la dimension éthique est au cœur de la médecine depuis toujours, comme en témoigne le serment d’Hippocrate. Les enjeux éthiques soulevés par l’introduction de l’IA en santé ne font-ils que rejouer à nouveaux frais ces tensions anciennes ou créent-ils des risques d’un nouvel ordre ?
Pour moi, il s’agit plutôt de questions anciennes, que l’IA peut porter à des échelles hyperboliques.
Le risque de délégation de la décision du médecin existe déjà aujourd’hui, avec toutes les machines d’aide à la décision médicale (scanners, IRMS…) qui font que le médecin, s’il n’y prend pas garde, peut entrer dans une forme d’automatisme.
Si les risques auxquels on doit répondre ne sont pas des risques nouveaux, la magnitude potentielle de leur concrétisation implique des méthodes de régulation nouvelle.
IA d’automatisation
La crise du Covid19 a bien montré l’usage massif de technologies numériques pour tenter de restaurer du lien humain, via les téléconsultations, par exemple.
Je suis directeur du programme santé du groupe Jouve et nous avons mis en place une solution d’IA d’automatisation de l’admission en établissements de santé, qui se développe beaucoup avec la crise du Covid19. Et traiter ce genre de formalité administrative et financière de manière algorithmique, c’est au contraire restituer du temps humain pour la prise en charge elle-même. Contrairement à ce que l’on pense, il ne serait donc pas très « humain » de bloquer le développement d’outils de ce type.
L’autre question sensible, c’est celle de la protection des données de santé. Au vu des différents groupes de réflexion auxquels vous participez, est-ce qu’il vous semble qu’on a actuellement des garanties suffisantes de protection des données de santé pour pouvoir mettre en œuvre les promesses de l’IA en santé ?
La France est le pays qui offre le cadre de protection juridique des données de santé le plus fort au monde, combinant le RGPD et la réglementation nationale
On gagnerait à mettre en place une gradation plus fine et plus concrète dans notre échelle de protection des données.
On pourrait ainsi partager beaucoup plus largement les données courantes, dans des cadres d’intérêt général type Health Data Hub, français ou européens, et être le plus protecteur possible des données sensibles, comme le génome. Car on sent qu’il y a dans ce domaine une compétition mondiale, avec un risque éthique assez fort associé à la non-maitrise.
La garantie humaine est un remède partiel aux imperfections d’une régulation par l’explicabilité.
Ce qu’il faut donc, c’est superviser la machine dans le réel : pas à chaque étape, pour ne pas bloquer l’innovation, mais à des points critiques, tout au long de la vie de l’algorithme.
Tant qu’on est bien clair sur la validité du cadre juridique existant, national et européen, qu’on affirme l’application d’une garantie humaine de la technologie au fil de l’eau, on peut se permettre un esprit de régulation positive.
Je ne crois pas qu’on puisse obtenir un consensus international là-dessus, parce que vous avez des pays où c’est plutôt l’approche de fusion des bases de données génomiques qui prédomine. Je crois plutôt à un combat pour la mise sous supervision et régulation humaine de ces algorithmes, qui pourrait aussi s’exercer au niveau international. Et je crois que ce combat-là peut encore être gagné.
Covid :
En décembre, une start-up canadienne a été une des premières à identifier la menace épidémique dans la province de Hubei et à en informer ses clients, parmi lesquels des entreprises et des agences gouvernementales de différents pays. Son arme ? Un programme d’intelligence artificielle, analysant différentes données de santé pour identifier avant tout le monde les tendances émergentes. Quatre mois plus tard, l’épidémie est devenue mondiale et personne ne sait avec certitude comment le monde en sortira. Force est de constater que ce diagnostic précoce n’a pas permis d’éviter la crise : preuve qu’ici comme ailleurs, il faut se garder du « solutionnisme » technologique.
Pourtant, l’IA pourrait se révéler très utile à la sortie de crise, à condition de l’envisager comme un auxiliaire et non une panacée – et que l’urgence sanitaire ne serve pas à rogner la protection des données privées.
Au plan médical, l’IA peut aider à mieux comprendre le fonctionnement du virus, et à identifier des traitements.
En France, l’Institut National de la Santé et de la Recherche Médicale (INSERM) a annoncé le financement d’un projet de recherche sur le virus Sars-Cov-2, utilisant des méthodes d’intelligence artificielle pour mieux comprendre la biochimie des protéines du virus et tester sur les modélisations obtenues l’effet de possibles inhibiteurs.
Traitement :
Plusieurs entreprises utilisent des outils d’intelligence artificielle, combinés à des techniques de génomique et de médecine de précision, pour tenter d’identifier des traitements.
Certaines techniques tirent profit de la grosse puissance des machines et de la capacité des IA à effectuer un très grand nombre de calcul pour chercher des médicaments possibles : c’est le cas des algorithmes de « design génératif », qui produisent un large éventail de résultats possibles et les trient ensuite pour ne sélectionner que les plus intéressants.
S’il est clair que l’IA est un outil précieux de la recherche médicale, il faut rester prudent et se méfier des effets d’annonce, en IA médicale comme ailleurs. Ces initiatives sont récentes et leurs résultats n’ont pas encore été testés dans la durée, ni validés par la communauté scientifique.
SOURCES :
ITW David Gruson en 2 temps
« Le plus grand risque éthique est de se fermer à l’innovation en numérique et en IA »
La « garantie humaine » : faire superviser les IA par des humains
Explicabilité
De l’explicabilité des systèmes : les enjeux de l’explication des décisions automatisées
Données personnelles et santé
L’enjeu majeur des données de santé
Coronavirus : comment utiliser les données de santé sans sacrifier la vie privée ?
IA et Coronavirus
L’IA ouvre des pistes prometteuses face au coronavirus mais il faut rester prudent