Intervention de David Gruson

Réunion du mardi 23 octobre 2018 à 11h40
Mission d'information sur la révision de la loi relative à la bioéthique

David Gruson, membre du comité de direction de la chaire Santé de Sciences Po, professeur associé à la faculté de médecine Paris-Descartes, fondateur de l'initiative Ethik IA :

Je répondrai d'abord à votre seconde question, qui est, finalement, une question plus institutionnelle sur laquelle mon expression personnelle n'a pas vraiment de valeur ajoutée par rapport à l'expression du CCNE. Je vous ferai donc un retour pratique, fondé sur mon expérience opérationnelle.

L'impulsion que vous avez donnée sur cette question doit être soulignée, à savoir la construction, depuis un an, d'un début d'édifice de régulation positive de l'IA en santé et de la robotisation. Nous pouvons être collectivement fiers de ce qui a été versé au débat public ces derniers mois. Votre travail y contribuera, j'en suis convaincu.

Je vous recommande de vous emparer du projet de normes de bonnes pratiques appliquées aux données génomiques, préparées avec Imagine. C'est le résultat de six mois de travail au cours desquels nous avons cherché à répondre à des questions très précises.

Si l'idée venait à la représentation nationale de mettre en place une autorité de régulation éthique des algorithmes, je crains qu'elle soit désectorisée ou excessivement transverse et qu'il faille beaucoup de temps – de temps institutionnel – pour la mise en place, le calage, la saisie de dossiers, avant qu'elle puisse commencer à intervenir sur des algorithmes précis. Même un délai de six mois seulement pour la mise en place institutionnelle de cette autorité pourrait être irrémédiablement préjudiciable à la France, dans un contexte où la technologie se développe si vite qu'il faut rendre très rapidement opérationnel ce patrimoine réel qu'est un dispositif de régulation positive de l'IA.

Pour ce qui est du pilotage de la qualité, une solution pourrait être organisée sous l'égide de la HAS, ouvrant la possibilité de laisser se développer un environnement de recommandations de bonnes pratiques animé par le privé, avec un couple « utilisateur et garant qualité » qui permette de le faire vivre activement.

S'agissant du comité d'éthique du numérique, j'interprète l'avis du CCNE comme une volonté assez pragmatique de trouver une voie de passage entre ce capital d'expertise spécialisé sur la bioéthique, en tant que telle, et la nécessité d'opérer une transition progressive vers une régulation éthique plus transversale des algorithmes. Mais si la France, seule, crée en 2018 une autorité de régulation éthique des algorithmes dans le champ de la santé, nous y perdrons beaucoup en finesse de régulation pratique.

Votre première question le montre d'ailleurs très concrètement, à travers le sujet du recueil du consentement. Il est indiqué qu'il n'y a pas lieu de modifier le droit français sur le principe du consentement du patient, puisqu'il est déjà écrit que le consentement du patient doit être recueilli préalablement à l'administration d'une thérapeutique. Ce principe est vrai et doit rester vrai à l'heure de l'intelligence artificielle ; c'est une garantie impérative.

Comment aménager ce recueil du consentement ? Il faut sans doute l'aménager dans deux directions – il s'agit là, non pas d'un travail de construction législative, mais d'une recommandation de bonnes pratiques à établir avec les professionnels et les représentants de patients. D'abord, peut-être, dans le sens d'un assouplissement. Pour comprendre comment fonctionne l'IA en santé, prenons l'image d'un faisceau d'options causales, avec un algorithme qui va imaginer, à partir d'une situation clinique donnée, un certain nombre de prises en charge possibles, dont certaines ne se réaliseront peut-être pas au fil du parcours de prise en charge, mais aussi avec un espace-temps qui va se contracter assez fortement par rapport au processus actuel de prise en charge, sous l'effet de la rapidité d'évolution de la technologie.

Il y a donc, sans doute, une voie pour capitaliser sur la valeur ajoutée de cette technologie, et ce sans remettre en cause le principe de recueil du consentement : mettre en place des dispositifs de recueil plus séquentiels. En d'autres termes, aller rechercher le consentement du patient, en amont de la prise en charge, y compris sur des options qui ne se réaliseraient pas au fil du processus, et ce afin de pouvoir gérer cette compression de l'espace-temps.

On peut également, dans une seconde direction, mettre en place des mécanismes de recueil du consentement plus protecteurs, notamment pour les personnes les plus vulnérables – personnes âgées, personnes handicapées –, pour qui la compréhension même des enjeux associés à l'expression du consentement en médecine algorithmique pourrait être très difficile.

Nous avons proposé – en essayant d'utiliser les mécanismes législatifs existants – de réhabiliter un outil, celui de « personne de confiance », et de lui donner un nouveau cas d'usage. Cet outil est précieux mais encore insuffisamment utilisé dans notre système de santé. Il conviendrait de mobiliser la personne de confiance en tant que personne qui va aider le patient à exprimer un avis éclairé par rapport à la proposition thérapeutique formulée par algorithme. Ce rôle pourrait être joué, dans certains cas, par des associations de patients, en développant des programmes de formation.

Il s'agit là d'un message clé si nous souhaitons garder une dose de libre-arbitre, à la fois dans la décision médicale et dans le consentement du patient. Il faut poser un principe de garantie humaine, et en même temps, aider les acteurs à utiliser des outils très pratiques pour prendre du recul par rapport à ces technologies.

Aucun commentaire n'a encore été formulé sur cette intervention.

Cette législature étant désormais achevée, les commentaires sont désactivés.
Vous pouvez commenter les travaux des nouveaux députés sur le NosDéputés.fr de la législature en cours.