Intervention de Cyrille Dalmont

Réunion du jeudi 25 octobre 2018 à 16h05
Mission d'information sur la révision de la loi relative à la bioéthique

Cyrille Dalmont, juriste et chercheur associé en intelligence artificielle à l'Institut Thomas More :

Monsieur le président, monsieur le rapporteur, je vous remercie de m'avoir invité à évoquer devant vous la question, multiforme et aux contours parfois flous, des implications de l'intelligence artificielle et de son développement fulgurant dans les champs couverts par la loi relative à la bioéthique.

De fait, l'intelligence artificielle, la robotique et la domotique envahissent notre quotidien à une vitesse inimaginable. Les mondes de la santé, de la recherche, de la médecine du quotidien – notamment la télémédecine –, de la médecine prédictive ou encore le choix de l'humain en dernier recours vont être totalement transformés et impactés par des technologies qui n'existaient pas quand les soignants d'aujourd'hui ont commencé leurs études.

La vitesse de diffusion des objets connectés et des logiciels experts est exponentielle. Il y a dix ans, lorsqu'on parlait de domotique, il s'agissait de portes de garage électriques ; il y a cinq ans, il s'agissait d'interphones vidéo ; aujourd'hui nous parlons, par exemple, de montres qui calculent, en temps réel, votre rythme cardiaque, votre pression artérielle, votre taux d'oxygène dans le sang, tout en stockant ces informations dans un cloud qu'une intelligence artificielle, à l'autre bout du monde, peut analyser en quelques secondes, afin d'en déduire votre état de stress, de fatigue, votre capacité au travail, etc.

Dans son avis n°129 du mois dernier, le Comité consultatif national d'éthique (CCNE) qualifie même ce rythme de diffusion du numérique au sein de notre système de santé de « fait majeur irréversible ». Le monde de la santé, comme le reste de notre environnement, va changer. Les répercussions pour les patients et les soignants vont être colossales.

Pour tenter de vous apporter mon modeste éclairage, qui sera plus éthique et juridique que technique, mon intervention sera articulée en trois temps : d'abord, je m'efforcerai de vous faire prendre la mesure du brouillard d'incertitude dans lequel nous baignons sur ces sujets ; ensuite, je voudrais vous montrer, vous convaincre si nécessaire, de l'urgence d'une réappropriation de ces sujets par le politique et d'une authentique régulation ; enfin, je passerai en revue un certain nombre d'enjeux concrets et opérationnels, pour lesquels je me permettrai de vous soumettre quelques recommandations et quelques pistes de réflexion.

La révision de la loi de bioéthique devra se faire sur la base des connaissances actuelles, mais également sur celle d'une anticipation, bien délicate, de ce que sera l'état de la science et de la technique dans les prochaines années.

Sans faire de science-fiction, vous allez devoir anticiper des évolutions techniques qui ne sont, parfois, même pas à l'état d'idées ou d'intuitions dans la tête des chercheurs, et qui, d'ici à cinq à dix ans, auront envahi notre quotidien.

C'est cette vision prospective que le juriste que je suis et le législateur que vous êtes redoutons, nous qui sommes habitués à étayer nos raisonnements sur des normes et des outils déjà existants : responsabilité du fait d'autrui, du fait des animaux, du fait des produits défectueux, du fait des choses.

Réflexe naturel, mais raisonnement partiel, car aucun de ces régimes juridiques ne résiste à une analyse poussée de la situation qui se profile devant nous. Conclusion à laquelle arrivent Mmes Julia Petrelluzzi et Marie Miliotis dans leur ouvrage L'intelligence artificielle : ses enjeux en droit civil européen, que je me permets de vous inviter à consulter.

Cette incertitude, cette instabilité, ce brouillard dans lequel nous avons à réfléchir et dans lequel vous aurez à légiférer, se devinent au travers de deux petits indices récents. D'une part, le rapport de synthèse du CCNE relatif aux États généraux de la bioéthique nous apprend que la participation citoyenne, sur le site des États généraux, a été particulièrement faible : pour les questions relatives aux données de santé, 2 730 participants et 1 188 contributions ; pour celles relatives aux neurosciences, 2 877 participants et 1 458 contributions ; enfin, pour les questions relatives à l'intelligence artificielle, 4 152 participants et 1 853 contributions. À titre de comparaison, la thématique « Procréation et société » a mobilisé 17 559 participants et 29 106 contributions.

D'autre part, il me paraît particulièrement révélateur que le rapport de votre collègue Cédric Villani, publié en mars dernier, qui fut pourtant présenté comme un temps fort de la réflexion sur l'intelligence artificielle, est très peu cité dans l'avis n°129 du CCNE – trois fois seulement. Cela s'explique, selon moi, par le fait que ce rapport se présente avant tout comme une sorte de summa technologiae, compilation d'avis de techniciens, de spécialistes sur l'état d'avancement de l'intelligence artificielle, de la robotique, de la domotique et de l'humain augmenté, et laisse malheureusement la portion congrue aux enjeux éthiques et à leur prolongements politiques, les questions de régulation.

Selon moi, le fait que les enjeux éthiques liés à l'intelligence artificielle et à ses développements soient encore si peu traités, soient une sorte d'angle mort du débat public, n'est pas tant dû à un désintérêt pour ces sujets qu'à un déficit d'information, à un retard dans la gestion par les pouvoirs publics des problématiques de l'IA, de la robotique et de la domotique, et, par voie de conséquence, à la faiblesse du niveau de formation des Français sur le sujet.

On peut donc affirmer que la question qui nous occupe aujourd'hui est à la fois plongée dans un brouillard d'incertitude et insuffisamment documentée et renseignée. Cela doit inviter le législateur à une saine prudence, cette même prudence à laquelle vous invitent, d'ailleurs, nombre d'acteurs qui réclament avec insistance un cadre législatif et réglementaire clair. Il convient, en effet, de ne pas se laisser noyer, comme le fait, selon moi, le rapport Villani, sous des considérations techniques, réelles ou fantasmées, qui ne laissent plus beaucoup de place dans le débat public à la réflexion sur la régulation.

Je me permets de citer devant vous, d'une manière qui pourra vous paraître monotone, je vous prie de m'en excuser, un certain nombre d'instances, internationales pour la plupart, qui ont réclamé ces deux dernières années que le politique se saisisse enfin de la question.

En avril 2018, le comité spécial de la Chambre des lords du Royaume-Uni a demandé la création d'un conseil pour l'intelligence artificielle afin d'informer les gens dès lors qu'une décision cruciale qui les touche ne sera pas prise par les humains.

En novembre 2007, la déclaration de Montréal pour une « intelligence artificielle responsable », a été adoptée à l'initiative de l'université de Montréal, visant à l'amélioration du bien-être collectif, dans le respect de l'intérêt de tous.

En septembre 2017, le Comité international d'éthique (CIB) a adopté un rapport concernant les méga-données de santé.

En septembre 2017, la Commission mondiale d'éthique des connaissances scientifiques et des technologies (COMEST) a adopté un rapport sur l'éthique de la robotique.

En février 2017, le Parlement européen a voté une résolution contenant des recommandations faites à la Commission européenne en ce qui concerne les règles de droit civil relatives à la robotique.

Début 2017, l'Organisation de coopération et de développement économiques (OCDE) a adopté des recommandations relatives à la gouvernance des données de santé.

En octobre 2007, enfin, l'Autorité mondiale du médicament a adopté une déclaration sur les considérations éthiques concernant les bases de données de santé et les biobanques.

À cela s'ajoutent des déclarations et des pétitions régulières de scientifiques, de chercheurs, d'industriels, qui appellent à la retenue et à ce que la puissance publique prenne en main de la question, par la voie de la régulation.

À titre d'illustration, pas plus tard qu'hier, à l'occasion de la privacy conférence au Parlement européen à Bruxelles, Tim Cook, président-directeur général d'Apple, a lancé une cinglante attaque contre « le complexe industriel des données personnelles », en déclarant que nos données personnelles, de notre vie quotidienne jusqu'à notre plus grande intimité, sont aujourd'hui utilisées contre nous, avec une efficacité toute militaire. Toutes ces informations, inoffensives en elles-mêmes, sont minutieusement assemblées, synthétisées, échangées et vendues. Les responsables politiques, et en premier lieu le législateur, doivent entendre ces appels et y répondre sans se laisser impressionner par la technique et les techniciens. Il est vrai que, ces dernières années, l'action publique a pu paraître à la traîne, voire être brocardée, lorsque ses interventions touchaient des domaines très techniques, avec l'idée sous-jacente que les évolutions technologiques seraient affaire d'experts et de spécialistes de haut niveau ne pouvant appartenir qu'à la sphère privée. Avant hier encore, dans L'Express, M. Laurent Alexandre raillait, je le cite, la « nullité scientifique des politiciens ».

Cela ne doit pas vous impressionner. C'est votre rôle que d'imposer un cadre, et un cadre prudent, à ces évolutions techniques. Ce n'est pas le rôle des entreprises privées, quels que soient leur domaine d'activité et leur chiffre d'affaires, que de s'autoréguler, et cela malgré l'existence de comités d'éthique chez quasiment tous les « GAFAM » américains, les « BATX » chinois ou les grands laboratoires pharmaceutiques mondiaux.

Même si c'est une bonne nouvelle que Google, sous la pression de ses salariés, ait une nouvelle fois renoncé, le 15 octobre dernier, à concourir au contrat pluriannuel de cloud computing proposé par le département américain de la défense, ce type de situation reste totalement exceptionnel.

C'est bel et bien à la puissance publique de fixer des règles et des limites quant à l'émergence de technologies qui sont potentiellement dangereuses pour nos libertés, notre intimité, notre santé, voire notre humanité et notre devenir commun.

Alors que signifie cet appel à la prudence et à la régulation dans le champ qui vous occupe ?

Pour répondre à ces enjeux majeurs que je vais maintenant détailler devant vous, il est des analyses que l'on peut emprunter à la philosophie, au droit et à l'éthique, sans nécessairement plonger dans un scientisme ou un technicisme inopérant. Je vous propose donc d'analyser sept enjeux, sept domaines impactés, et je me permettrai de vous proposer quelques pistes de réflexion pour chacun.

Premièrement, le traitement et la collecte des données de santé des patients. Au-delà de l'idée d'un hub ou d'une plateforme de santé nationale, défendue par le Président de la République et le CCNE, il faut, pour être réellement efficace, appréhender la collecte des données dans son intégralité. Ainsi, des données brutes qui, prises individuellement, ne présentent aucun aspect sensible, et qui sont collectées plus ou moins librement par une multitude d'opérateurs malgré le règlement général sur la protection des données (RGPD) peuvent rapidement, une fois concaténées, révéler des aspects majeurs de l'état de santé d'un patient.

Face à ce risque, on pourrait simplement mettre en place un code couleur en fonction du degré de confidentialité ou de sensibilité des données en cause et de leur traitement, avec une labellisation, par l'État, des entreprises et de leur niveau d'habilitation à traiter certaines données en fonction d'un cahier des charges précis et des garanties de sécurité apportées par les entreprises et organismes publics habilités.

À titre d'illustration, les données permettant de faire de la médecine prédictive devraient être classées comme les plus sensibles, avec une interdiction absolue de diffusion auprès de certaines institutions ou de certains acteurs économiques – assurances, mutuelles, banques, bailleurs, etc. –, afin d'éviter toute précarisation numérique de l'individu, qui ne pourrait plus s'assurer, se soigner, contracter un emprunt ou louer un bien si les facteurs de risque étaient chez lui trop importants.

Deuxièmement, les relations entre soignants, et entre soignants et patients, face au diagnostic médical. Ces relations vont également être transformées au quotidien par l'apparition de diagnostics et d'ordonnances issus d'intelligence artificielle. Afin d'identifier de manière certaine les diagnostics réalisés par des intelligences artificielles, il serait assez facile de concevoir un pictogramme, à imposer de manière systématique sur tous les actes, images ou ordonnances réalisés par une intelligence artificielle, afin d'en avertir sans équivoque soignants et patients. Ce pictogramme permettrait également aux patients de se prévaloir d'une intervention humaine en dernier recours, qui devra dorénavant s'imposer comme un droit. Le CCNE évoque, lui, dans son avis n°129, un principe législatif de « garantie humaine ».

Troisièmement, la responsabilité civile de la machine. Comme nous l'avons vu, en l'absence d'un droit spécifique de l'intelligence artificielle et de la robotique, il serait plus prudent de rattacher les intelligences artificielles et les robots utilisés dans les services de santé à un spécialiste référent et à son assurance, afin de protéger les patients contre une recherche de responsabilité en cascade qui risquerait finalement de se transformer en recherche de non-responsabilité.

Quatrièmement, la réalisation des diagnostics et des ordonnances par les intelligences artificielles. En plus du pictogramme obligatoire et de l'appel à un humain en dernier recours, en partant du principe, jamais évoqué, que toute machine est piratable, un protocole très strict de contrôles réguliers des actes devrait être mis en place afin de maîtriser le plus strictement possible les risques de hacking ou de cyber-terrorisme médical à grande échelle.

Cinquièmement, les prothèses numériques et mécaniques. Le handicap est un autre domaine majeur dans lequel les espoirs suscités par l'intelligence artificielle et la robotique sont grands pour les personnes touchées. A ces espoirs est cependant associé un risque non négligeable de dérives transhumanistes, qui doivent également être anticipées. Ainsi, concernant les prothèses numériques et mécaniques, une règle simple devrait s'appliquer. Tant qu'une prothèse permet de pallier la défaillance de fonctionnement normal d'un membre, on est dans le cadre du soin et, éthiquement, rien ne s'oppose à la démarche. En revanche, si l'on cherche à dépasser la limite humaine, on franchit une frontière dangereuse pour notre humanité, à savoir une recherche d'humain augmenté, avec un risque d'eugénisme, à terme. La loi devrait être garante de cette frontière.

Sixièmement, les opérations chirurgicales par une machine autonome. L'actualité récente laisse entrevoir qu'à une échéance assez courte, des opérations chirurgicales totalement automatisées seront possibles. Au regard des conditions dans lesquelles une machine autonome pourra opérer un patient, deux règles simples mais fondamentales devraient s'imposer, en plus du consentement renforcé du patient.

D'une part, la présence systématique d'un spécialiste référent devrait être imposée durant cette opération ; si c'est aujourd'hui une évidence, la tentation financière risque de faire son apparition lorsque, demain, ce type d'opération deviendra une routine, notamment dans le cadre de la médecine ambulatoire, et de conduire à l'intervention d'un simple opérateur non spécialiste.

D'autre part, l'existence d'un protocole d'arrêt d'urgence au niveau hardware et d'un test obligatoire de son fonctionnement, avant toute intervention, toujours en partant du principe que toute machine est piratable.

Enfin, dernier enjeu, la régulation des acteurs et des questions éthiques. Le CCNE, dans son avis n°129, appelle à la création d'un comité d'éthique spécialisé dans les enjeux du numérique. Cette idée-force trouve un sens certain au travers des révisions programmées de la loi relative à la bioéthique. Il devrait être cependant complété par la mise en place d'un recours systématique à des comités d'éthique mutualisés, ou non – par branche ou par secteur, cela reste à définir –, pour tous les acteurs qui, demain, participeront à notre système de soins, même si leur domaine de compétence semble à première vue très éloigné du monde de la santé : entreprises informatiques, moteurs de recherche, entreprises de robotique ou de domotique, bailleurs collectant des données sur leurs locataires et donc sur leur mode de vie, assurances et banques, etc.

Je m'arrête là. Bien d'autres sujets pourraient sans doute être évoqués et nous le ferons sans doute dans l'échange qui va suivre. J'espère avoir apporté quelques éléments utiles à votre réflexion et je vous remercie de votre aimable attention.

Aucun commentaire n'a encore été formulé sur cette intervention.

Cette législature étant désormais achevée, les commentaires sont désactivés.
Vous pouvez commenter les travaux des nouveaux députés sur le NosDéputés.fr de la législature en cours.