Intervention de David Gruson

Réunion du mardi 23 octobre 2018 à 11h40
Mission d'information sur la révision de la loi relative à la bioéthique

David Gruson, membre du comité de direction de la chaire Santé de Sciences Po, professeur associé à la faculté de médecine Paris-Descartes, fondateur de l'initiative Ethik IA :

Monsieur le président, monsieur le rapporteur, je vous remercie de l'honneur qui nous est fait de pouvoir nous exprimer devant vous, dans le cadre de la révision de la loi bioéthique.

Je vous remercie d'avoir mentionné « Ethik IA », initiative académique et citoyenne, engagée dans le débat bioéthique depuis un petit peu plus d'un an, et issue du regroupement informel d'acteurs de l'algorithmique appliquée à la santé et de professionnels de santé s'intéressant aux questions numériques.

Je voudrais plus particulièrement adresser un message à M. Touraine, avec qui nous avons eu l'occasion, à de nombreuses reprises, de dialoguer sur ces questions majeures, et que je remercie d'avoir mis l'accent sur le lien entre IA, robotisation et santé.

Je précise, par ailleurs, que j'ai eu l'honneur de codiriger avec M. Claude Kirchner, membre du Comité consultatif national d'éthique (CCNE), le groupe que celui-ci a diligenté sur l'intelligence artificielle et la robotisation. Ses conclusions ont alimenté, en bonne part, la partie « numérique et intelligence artificielle » de l'avis numéro 129 rendu par le CCNE le 25 septembre dernier. Le rapport in extenso sera prochainement diffusé ; le Comité aura naturellement à coeur de vous le transmettre.

Je m'exprimerai au nom d'« Ethik IA », mais aussi à titre personnel et académique, et j'essaierai, dans mes différents propos, de restituer les points de cohérence de la démarche, car cette audition est une étape complémentaire, un mouvement de bascule qui me semble plutôt positif sur ces questions de régulation éthique du numérique et de l'intelligence artificielle en santé.

Vous avez utilisé, monsieur le président, une expression que je n'ai pas utilisée jusqu'à présent, mais qui me va très bien, celle d'une troisième voie. En effet, je pense que c'est ce qui est en train d'émerger. Beaucoup de chemin a été parcouru depuis un an et le passage devant le Parlement de la révision de la loi bioéthique sera peut-être l'occasion de trouver le bon réglage, cette troisième voie qui permettrait à la fois de s'ouvrir à l'innovation en santé et de maîtriser les risques éthiques associés au déploiement de l'IA.

Je commencerai par donner un point de contexte, avant de vous parler de l'éthique. Ce qui me frappe, c'est la temporalité dans laquelle se déroulent les choses. Entre le moment où « Ethik IA » s'est engagée et a participé, il y a plus d'un an, à la consultation citoyenne dans le cadre de la mission confiée à M. Cédric Villani, et maintenant, nous assistons à une accélération frappante de la réflexion sur l'intelligence artificielle en santé.

Je ne vous ferai pas un cours sur l'IA ou la robotisation, je dirai juste un mot pour vous expliquer que ce que nous entendons par intelligence artificielle : le recours à un dispositif algorithmique d'aide à la décision dans le champ de la santé et de la robotisation. Si nous voulons être plus précis, il convient plutôt de parler de dispositif mécatronique : un mécanisme électronique qui a un impact sur une réalité physique sensible. Il peut donc y avoir une articulation entre l'algorithme et le robot, l'intelligence étant son bras armé opérationnel, le bras armé de la robotisation.

Le temps s'écoule vite, mais nous ne sommes pas dans un moment de révolution de la science informatique en tant que telle. Le concept d'IA et celui de machine learning, c'est-à-dire d'intelligence artificielle apprenante, ont été forgés il y a longtemps. Dans les années 1950 pour le premier, par Alan Turing et Marvin Minsky, et il y a une trentaine d'années pour le second, par des acteurs des sciences informatiques comme John Hanlon et David Goldberg, qui ont posé les principes de l'intelligence artificielle apprenante. Il s'agit d'un algorithme qui a la capacité, au fil du de traitement des données, d'écarter ce qu'on appelle en algorithmique des « hypothèses aberrantes », c'est-à-dire des données qui ont un écart-type trop grand par rapport à la valeur centrale permettant d'atteindre les objectifs de la programmation de l'algorithme.

Ces concepts ont donc été forgés il y a déjà longtemps, et aujourd'hui, avec cette accélération, nous vivons une révolution des usages de ces techniques. Quasiment chaque jour, nous assistons à l'irruption de nouvelles solutions d'IA en général, et d'IA dans le secteur de la santé en particulier, avec une concentration de ces cas d'usage sur la technique d'apprentissage par reconnaissance d'image : un cliché par imagerie par résonance magnétique (IRM) ou un scanner, sur lequel un algorithme va apprendre à reconnaître la présence d'une pathologie. Les cas d'application se trouvent donc essentiellement dans le champ de la radiologie, de la dermatologie, de l'ophtalmologie et dans certains domaines de la cancérologie.

Par ailleurs, dans des disciplines que connaît bien le professeur Touraine, il existe des versions technologiquement plus ambitieuses de l'IA, qui se déploient dans le champ de l'immunothérapie et dans celui du pilotage par les données de santé publique, avec des projets menés sur le terrain de la recherche, et avec une ligne de recherche-développement qui touche à la question de l'application de l'intelligence artificielle aux données génétiques.

Nous avons accompagné avec « Ethik IA » un projet de machine learning sur la recherche des causes génétiques des ciliopathies rénales, avec une interrogation profonde des bases de données de l'Institut des maladies génétiques Imagine, portant sur 500 000 petits patients et 5 millions de comptes rendus médicaux faisant l'objet d'un projet de recherche hospitalo-universitaire en santé (RHU).

Dans le champ de la reconnaissance d'images, vous connaissez peut-être Thérapixel, qui propose un dispositif avancé de reconnaissance d'images en mammographie. La France n'est pas absente de cette innovation, mais force est de constater que l'innovation se déploie encore plus vite ailleurs, sur des applications telles que, par exemple, le diagnostic des rétinopathies diabétiques. La Food and Drug Administration (FDA) américaine a délivré en avril dernier sa première autorisation à un algorithme de reconnaissance d'images pour la rétinopathie diabétique, pathologie qui concerne 50 % des patients atteints de diabète de type 2.

L'innovation se développant de plus en plus vite, la question se pose de la manière dont on peut la réguler, en essayant de trouver la bonne ligne d'approche des enjeux éthiques.

Ces enjeux éthiques, si vous me permettez d'utiliser une image, peuvent être présentés sous la forme d'une pyramide à trois crans, correspondant à des enjeux d'importance décroissante ou de sensibilité décroissante.

Le premier cran, que nous avons voulu mettre en évidence et que le CCNE a relayé dans son avis, est celui du manque d'innovation, qui est le risque éthique principal du numérique et de l'intelligence artificielle en santé. Cela traduit un réel changement d'approche dans la façon d'aborder ces questions. S'agissant de la télémédecine, il a fallu dix ans entre la fixation du régime juridique et l'ouverture du modèle économique par le projet de loi de financement de la sécurité sociale (PLFSS) pour 2018.

Concernant l'IA et la robotisation en santé, il faut prendre la mesure des situations dans lesquelles le blocage de notre système quant au recours au numérique et au pilotage par les algorithmes produit des conséquences non éthiques. Nous avons suivi de près, avec Jean-Louis Touraine, le dossier de l'insuffisance rénale chronique. Vous en connaissez les tenants et les aboutissants : nous continuons à vivre avec un modèle économique de l'insuffisance rénale chronique qui survalorise les séances de dialyse en centre lourd au détriment de la dialyse à domicile et de la greffe, alors même que ces solutions sont souvent plus indiquées pour les patients, médicalement comme au plan de la qualité de vie. Les dialyses en centre lourd impliquent trois séances par semaine, avec des répercussions très directes sur la vie familiale et professionnelle.

C'est un sujet sur lequel nous avons été amenés à lancer l'alerte, avec l'association des patients insuffisants rénaux chroniques Renaloo. Cependant, une prise de conscience s'opère : il s'agit d'ailleurs de la mesure 1 du plan « Ma santé 2022 », avec un ancrage dans le PLFSS. Il faut se garder de généraliser, mais les exemples de dérives que nous rencontrons montrent à quel point l'absence de pilotage par les données de santé publique génère, en réalité, une situation non éthique. Comprenez, s'agissant des exemples que j'évoquais à l'instant, qu'il ne s'agit pas de formes très élaborées d'intelligence artificielle mais simplement de dispositifs permettant de mettre en perspective des données de santé publique pertinentes. Cela consiste, par exemple, à confronter à l'échelle d'un territoire la prévalence de l'insuffisance rénale chronique et le taux d'accès à la dialyse à domicile ou à la greffe, pour essayer de faire émerger des situations de blocage ou de non-pertinence des soins.

Il s'agit d'un thème fortement développé par la ministre des solidarités et de la santé. La diffusion du pilotage par les données de santé et par les méthodologies algorithmiques en santé publique est un vecteur puissant, susceptible de venir en appui d'une politique déterminée de résorption des cas de non-pertinence des soins.

Quand ces enjeux éthiques sont abordés, il faut les associer au numérique et à l'IA en santé et garder en ligne de fond la question suivante : quel serait, si vous me permettez l'expression, le « coût d'opportunité » d'une sur-réglementation ? Trop légiférer, trop réglementer revient à retarder la résorption de ces enjeux éthiques immédiats, liés à l'absence de pilotage par les données de santé, alors même que les enjeux éthiques intrinsèques à l'intelligence artificielle, dont je vous parlerai tout à l'heure, existent bel et bien, mais à l'état de simples potentialités. Il y a donc un écart entre les dysfonctionnements liés au retard dans le recours au numérique en santé, voire à son absence – que nous pouvons constater empiriquement aujourd'hui – et les risques éthiques théoriques associés à l'IA.

Il s'agit donc là du premier cran : l'absence ou l'insuffisance de recours au numérique entraîne la persistance de situations éthiquement non acceptables

Le deuxième cran est le fait qu'une sur-réglementation, une sur-législation de ces questions aurait pour effet d'inciter les professionnels et les patients à avoir recours à des innovations de médecine algorithmique conçues hors de France, hors de l'Union européenne, dans un cadre échappant à notre régulation éthique.

Prenons l'exemple de la rétinopathie diabétique, que j'évoquais tout à l'heure. Il n'est pas du tout inconcevable d'imaginer, dans un contexte où les patients sont de plus en plus informés, qu'un patient à qui son médecin traitant dirait : « je pense que vous avez une rétinopathie diabétique, je vais vous recommander à mon confrère ophtalmologue », réponde : « je souhaite, non pas voir votre confrère, mais le cliché de mon fond d'oeil afin d'envoyer un courriel à la société qui exploite cet algorithme outre-Atlantique, et qui passe pour super-fiable dans ses diagnostics ».

Concrètement, la possibilité pour un patient d'accéder à cette innovation provoque une pratique d'évitement du système de santé français. En outre, cet accès à l'information, mais aussi la conditionnalité matérielle qu'impliquerait le recours à cette solution de médecine algorithmique externe, généreraient un biais très fort en fonction des ressources et, partant, une vraie menace, si nous ne développons pas de solutions de médecine algorithmique dans le cadre français ou européen, pour le principe de solidarité qui est à la base de la sécurité sociale.

Après avoir posé les deux risques principaux, nous pouvons aborder les sujets intrinsèquement liés à l'intelligence artificielle en santé. Ce sont, certes, des questions surabondamment abordées par la science-fiction, mais la réalité n'est pas celle d'un risque de domination de l'homme par la machine : elle est faite de risques plus spécifiques, que nous avons essayé de qualifier et que le CCNE a repris dans son avis n° 129. Je le dis, là aussi, avec mes mots, pour que vous compreniez bien les choses, même si l'expression du CCNE, à laquelle je me permets de vous renvoyer, est peut-être plus précise que celle que je vais utiliser. Les risques sont de deux ordres.

Le premier groupe de risques consiste en ce que nous pourrions appeler des risques de délégation. D'une part, la délégation de la décision médicale à l'intelligence artificielle. Vous comprenez bien le sujet : si un algorithme forme une proposition thérapeutique assise sur des centaines de milliers de cas, avec un taux de certitude de 99 %, le risque est, non pas en droit mais en fait, que le médecin se transforme en presse-bouton de cette solution, sans prendre de recul. D'autre part, le risque d'une délégation de consentement du patient. Permettez-moi un parallèle trivial. Quand je regarde Netflix, l'intelligence artificielle me propose une série qui peut se prévaloir de 99 % de personnes satisfaites. Plus je regarde ses propositions, plus l'IA me connaît, et mieux elle sait par avance ce que je veux voir – avant que je le sache moi-même ! Certes, en droit, je suis toujours libre de refuser la proposition qui m'est faite, mais en pratique le consentement du consommateur risque de s'éroder. Il en va de même dans le champ de la médecine pour le consentement du patient.

Le second groupe de risques, qui tient davantage à la matière même de l'intelligence artificielle, consiste en la mise en confrontation de l'intérêt individuel et de l'intérêt collectif. Le processus d'intelligence artificielle apprenante consiste à écarter les données aberrantes au fil du traitement et du temps. Mais, en médecine, les données aberrantes correspondent à des cas individuels, de sorte que la mécanique à l'oeuvre peut aboutir à ne plus prendre en compte certaines situations individuelles, dans l'intérêt collectif, pour atteindre les objectifs du programme. Dans le cas, par exemple, de patients en fin de vie, nous pourrions être amenés à considérer qu'il est plus efficace, dans l'intérêt du plus grand nombre, de ne plus proposer une thérapeutique très coûteuse.

Il s'agit là d'une question éthique importante, complexe, qu'il ne faut sans doute pas traiter en termes moraux – « est-ce bien ou mal ? ». Étant donné les situations non éthiques que nous continuons de subir faute de pilotage suffisant par les données, l'IA contribuera à améliorer la qualité et l'efficience du système, au prix d'un risque intrinsèque de minoration de la prise en compte de certaines situations individuelles.

La zone de risque est celle d'une combinaison des risques de délégation de décision médicale, de délégation du consentement du patient et de minoration de la prise en compte de l'individu par rapport au collectif. Finalement, le risque est que nous nous retrouvions avec un outil tellement puissant, qui améliore tellement l'efficacité et la qualité du système de santé, que nous ne nous rendrions pas compte, au fil de l'eau, de la concrétisation de risques éthiques, tant la satisfaction collective qui se dégagerait de l'amélioration du système serait forte.

Pour revenir à mon exemple, quand je regarde Netflix, je dois vraiment faire un effort pour prendre du recul et avoir conscience de tout ce que je rate quand je ne fais que regarder les séries proposées par Netflix. En effet, d'autres choses existent, mais cela nécessite un effort pour prendre du recul car je juge le service efficace et de qualité ; mais il génère des effets de bord et des effets de concentration sur un seul schéma de décision.

Une fois ce constat posé, quel est le niveau d'intervention pertinent à l'occasion de la révision de la loi de bioéthique ? Il est nécessaire de mesurer que la France a une responsabilité majeure, la révision de la loi française de bioéthique arrivant en avance par rapport à une série d'autres processus de régulation. Les concertations engagées au niveau européen sur ces questions sont encore à leurs débuts. Les principes d'action législative dans d'autres pays étant quasi inexistants, la France sera donc la première à intervenir sur ces questions.

Une responsabilité forte, donc, mais si cette révision de la loi de bioéthique aboutit à quelque chose qui fonctionne, la France aura peut-être la capacité d'incarner une troisième voie susceptible de rayonner dans d'autres pays, à condition de le faire en bonne intelligence.

Alors, que faut-il faire ou ne pas faire ? Je vous appelle tout d'abord à la « modération » législative sur ces questions, pour ne pas bloquer l'innovation et au regard des enjeux de responsabilité pour les professionnels. En effet, aujourd'hui, l'essentiel des dommages susceptibles de résulter de l'intelligence artificielle peuvent être pris en compte dans les cadres juridiques existants, essentiellement par le régime juridique de la responsabilité du fait des choses. Si l'utilisation de robots ou d'algorithmes cause un dommage dans le cadre de son fonctionnement courant, c'est l'utilisateur – médecin libéral ou établissement hospitalier – qui doit être déclaré responsable, sauf dysfonctionnement du procédé robotique ou algorithmique, auquel cas s'appliquera le régime de la loi du 19 mai 1998 sur la responsabilité du fait des produits défectueux. Cette loi transpose une directive communautaire de 1985 qui stipule qu'en cas de dysfonctionnement, le responsable est le producteur.

La Cour de justice de l'Union européenne, dans une décision de décembre 2017, a assimilé un logiciel d'aide à la prescription médicale à un dispositif médical, de sorte que, par extension, un algorithme d'aide à la décision médicale intégrerait le régime des dispositifs médicaux, donc le régime de responsabilité du producteur en cas de dysfonctionnement de l'algorithme. Vous n'avez donc pas besoin de légiférer.

Toutes les questions sont-elles pour autant réglées ad vitam aeternam ? Non.

La loi du 19 mai 1998 comporte une clause d'exonération de la responsabilité du producteur, relative au risque de développement, risque qu'il n'est pas possible d'anticiper au regard des connaissances scientifiques disponibles au moment de la mise sur le marché du produit. Mais pour l'IA, ce risque n'est pas théorique, car l'algorithme, s'améliorant au fil du traitement des données, est susceptible de devenir si différent de sa version initiale que le producteur de la solution d'IA pourrait exciper de la clause exonératoire de risque de développement pour échapper à l'indemnisation du dommage.

Dans un tel cas, qui n'a pas été envisagé et qui ne correspond pas jusqu'ici à un sinistre constaté, la victime ne serait pas indemnisée. Il n'existe pas d'exemple de dommages ressortissants de machine learning pur : nous n'en sommes pas à ce stade de développement de l'IA.

La question se posera-t-elle ? Oui. Se posera-t-elle de manière importante ? Très probablement, vu l'effervescence de solutions pratiques. Faut-il pour autant aborder la question dans un cadre strictement national ? Je ne le crois pas, dans la mesure où, si nous tentions, dans la révision à venir de la loi de bioéthique, de fixer un régime d'indemnisation des dommages du fait du machine learning en France, celle-ci risquerait de faire cavalier seul, ce qui serait une source d'inconvénients importants pour le développement de l'innovation en intelligence artificielle dans notre pays.

Il conviendrait plutôt de faire passer un message et d'enclencher rapidement une initiative européenne pour imaginer la construction d'un régime de responsabilité sans faute pour les dommages issus de l'usage de solutions de machine learning pur : un régime dont on réglerait, au fil du temps, les paramètres afin de tenir compte de la sinistralité constatée, et ce avec un mécanisme d'amendements à déterminer – cotisations des assureurs, intervention de la puissance publique… La question mérite d'être posée sur un plan théorique, mais il y aurait plus d'inconvénients à déséquilibrer les régimes actuels de responsabilité des professionnels que d'avantages à régler des questions qui ne se posent pas encore.

Alors, que faire en pratique ? Je vous ferai passer un dossier. Nous avons en effet proposé, dans le cadre « Ethik IA », deux adaptations législatives, que le CCNE a bien voulu relayer dans son avis n° 129.

L'idée est de légiférer un minimum tout en répondant aux enjeux éthiques, donc d'élaborer une législation qui serait réellement efficace car venant en complément des mesures actuelles. Vous venez de transposer le règlement général sur la protection des données (RGPD), auquel doivent se conformer, y compris sur le plan pénal, les régimes protecteurs relatifs aux données personnelles, régimes applicables à la protection des données de santé. Nous ne sommes donc pas dans un environnement vierge de toute régulation législative, sans même parler des décisions que pourraient prendre les juges en cas de contentieux.

Nous proposons d'ajouter à la loi deux dispositions aujourd'hui manquantes. La première est un élargissement du devoir d'information du médecin, afin que le patient soit informé, préalablement à l'intervention, du recours à un algorithme d'aide à la décision médicale. La seconde, plus innovante, serait l'affirmation d'un principe qui nous semble fondamental : le principe de garantie humaine de l'intelligence artificielle. En d'autres termes, le recours à la médecine algorithmique serait subordonné à la supervision humaine du processus.

Dans un rapport de janvier 2018, sous l'impulsion du docteur Jacques Lucas, le Conseil national de l'Ordre des médecins (CNOM) avait appelé au développement d'un environnement de soft law, de guides de bonnes pratiques, pour accompagner le développement du numérique en santé. À partir du moment où la représentation nationale reconnaîtra le principe de garantie humaine, il conviendra de susciter, d'encourager l'émergence de techniques opérationnelles, de recommandations de bonnes pratiques, pour essayer de mettre en oeuvre concrètement cette garantie humaine de l'IA. Je prendrai l'exemple de deux méthodes que nous avons proposées.

Nous avons d'abord formulé avec la Société française de télémédecine, l'idée d'une télémédecine de garantie humaine de l'IA. Par exemple, un premier médecin confronté au patient et à qui l'algorithme propose une solution thérapeutique correspondant au cas clinique, demande un avis à un second médecin, plus spécialisé. Ce second avis favorisera une prise de recul du premier médecin. La notion de « second avis » humain existant déjà, nous serions donc dans une réflexion connexe.

Le deuxième exemple de technique de garantie humaine serait ce que nous pouvons appeler un « collège de garantie humaine », susceptible d'être mis en place à l'échelle d'un territoire ou d'un établissement. L'idée serait d'étudier, tous les deux ou trois mois, vingt ou trente dossiers médicaux pour lesquels un diagnostic algorithmique a été livré, puis de faire appel à un second avis, cette fois-ci humain. Ce collège serait composé de médecins, de soignants et de représentants des usagers, qui essaieraient de définir si l'algorithme d'aide à la décision reste efficace dans son diagnostic et si les risques éthiques dont nous parlions tout à l'heure – délégation de décision médicale, délégation du consentement du patient et risque de minoration de la prise en compte de la personne par rapport au collectif – peuvent être maîtrisés concrètement au fil du temps. Il s'agit de susciter et d'encourager la définition de bonnes pratiques, sous l'égide de la Haute Autorité de santé (HAS).

La définition des méthodes de régulation est finalement, en soi, un champ de recherche, puisqu'il faut inventer des manières nouvelles de concevoir la régulation éthique. C'est ce que nous avons essayé de faire avec les équipes d'Imagine, en proposant des normes de bon usage de l'IA appliquées aux données génomiques, en essayant de définir des principes de protection un peu plus précis sur ces données très sensibles et en mettant en exergue le fait qu'il existe aujourd'hui, dans notre droit, des freins au développement du recours à l'IA et aux avancées en génétique que celui-ci permet.

Aujourd'hui, un non-clinicien, un data manager, ne peut pas utilise des données cliniques dans le cadre d'une d'application de l'IA à la recherche sur les données génétiques. C'est un vrai blocage. Nous proposons de mettre en place un périmètre de sensibilité dans lequel ces traitements plus profonds pourraient être mis en oeuvre, sous la condition de procédés de sécurisation informatiques plus avancés.

Telles sont les propositions que nous formulons pour une régulation positive de l'intelligence artificielle.

Je terminerai sur la technique de régulation et l'état du débat public, où l'on entend notamment un discours ambiant sur la question de la transparence du code. Certains expliquent, de façon vigoureuse, que pour réguler l'IA il faut rendre le code transparent, voire le mettre sur la place publique. Je ne crois pas à cette solution, qui relève d'une confusion assez dangereuse. Si un centre de recherche ou un acteur industriel investit plusieurs millions d'euros pour écrire un code d'aide algorithmique au diagnostic et doit le mettre sur la place publique, non seulement cette idée n'est pas très rationnelle en termes d'investissement et d'innovation, mais, surtout, c'est la meilleure assurance que cette solution sera captée par un opérateur moins éthique que lui. Par ailleurs, la transparence en matière de code ne sert à rien pour un patient.

Ensuite, il y a cette confusion un peu dangereuse entre contrôle technique et contrôle qualité. Lorsque j'étais directeur général de centre hospitalier universitaire (CHU), il m'est arrivé d'acheter des équipements lourds. Quand vous achetez un équipement d'IRM, vous vous entourez d'avis médicaux et vous vérifiez que le producteur a procédé au contrôle technique préalable, s'agissant de la mise sur le marché des dispositifs de santé. Le producteur doit assurer un contrôle technique global qui intègre des éléments de vérification portant sur le code informatique lui-même. Avant la mise sur le marché, il doit donner à l'utilisateur la garantie de la récurrence de ce contrôle technique. C'est un contrôle de digilence qui peut aller très loin, tant sur le code que sur l'algorithme lui-même.

Cette condition sine qua non ne doit pas être confondue avec le contrôle qualité. Le contrôle qualité porte, en amont, sur la qualité de l'approvisionnement en données de santé – données qui doivent être pertinentes médicalement et collectées avec le consentement des patients – et, a posteriori, sur l'emploi de techniques de pilotage qualité relevant de la méthode de la garantie humaine. L'algorithme d'aide à la décision reste-t-il médicalement efficace au fil du temps ? L'utilisateur a-t-il un niveau de supervision suffisant pour s'assurer que les effets de bord éthiques sont maîtrisés au fil du temps ?

La clarté est donc un enjeu important dans ce débat, en raison des transformations majeures qui vont être associées à l'usage de l'IA en santé ainsi que d'un effet de buzz cosmétique provenant d'un intérêt marqué des médias sur ces questions – qui est positif en soi. Or il ne faut surtout pas donner à l'IA un statut particulier par rapport aux autres innovations techniques, et ne pas perdre de vue non plus la nécessité et la complémentarité du contrôle technique et du contrôle de qualité.

Tels sont, monsieur le président, monsieur le rapporteur, les constats que je voulais porter à votre attention. Je vous transmettrai, en complément, des éléments de production écrits qui pourront vous aider dans vos travaux.

Aucun commentaire n'a encore été formulé sur cette intervention.

Cette législature étant désormais achevée, les commentaires sont désactivés.
Vous pouvez commenter les travaux des nouveaux députés sur le NosDéputés.fr de la législature en cours.