Intervention de Jean-Gabriel Ganascia

Réunion du mercredi 7 novembre 2018 à 8h50
Mission d'information sur la révision de la loi relative à la bioéthique

Jean-Gabriel Ganascia, professeur à l'université Pierre-et-Marie-Curie, chercheur en intelligence artificielle, président du comité d'éthique du Centre national de la recherche scientifique (CNRS) :

Je vous remercie de toutes ces questions.

Serait-il souhaitable de disposer d'un comité d'éthique du numérique, prenant en compte non seulement les questions d'intelligence artificielle, mais de façon plus générale toutes les transformations sociales liées au numérique et leurs conséquences éthiques ? Je crois qu'il serait important de disposer d'une telle instance, dans un champ qui dépasse celui du CCNE. Le numérique transforme l'ensemble de la société. Il induit tout d'abord une réingénierie des objets : ainsi, un objet peut avoir l'apparence d'une montre, mais faire en réalité également office de téléphone, d'ordinateur. Il en va de même pour les voitures, les chaussures, les vélos, désormais dotés de capteurs. Au-delà des objets, la trame du tissu social se modifie elle aussi. Si l'amitié sur les réseaux sociaux reste, comme dans l'Antiquité, un lien d'affinité particulier entre des individus, elle revêt aussi désormais bien d'autres dimensions. Il en va de même pour la réputation : il existe ainsi en Chine un score de réputation. Le système bancaire utilise aussi des scores pour décider de l'attribution de prêts par exemple. La notion de confiance se modifie également. Je pense donc qu'il serait bon qu'un comité spécifique puisse réfléchir aux questions éthiques suscitées par les développements du numérique.

Vous avez soulevé par ailleurs la question de l'extension de la réflexion éthique autour du numérique à l'ensemble du monde vivant, conformément à la définition originelle de la bioéthique. Je crois que les questions d'environnement qui se posent aujourd'hui devraient conduire à envisager l'ensemble des enjeux éthiques liés à la fois au devenir de l'humain et à celui de l'environnement dans lequel il s'inscrit. L'une des questions qui se posent aujourd'hui, très rarement soulevée, concerne le fait que le numérique n'est pas du domaine du virtuel, mais participe bel et bien de l'univers matériel : il faut savoir par exemple que certaines applications du numérique conduisent à une déperdition d'énergie considérable et à une augmentation consécutive de l'effet de serre. Si le bitcoin était étendu à une masse monétaire importante, cela aurait des effets désastreux du point de vue écologique. On a par exemple calculé que s'il était étendu à la masse monétaire du dollar, cela correspondrait, en consommation électrique, à l'équivalent de la consommation d'un pays comme la France. Il est donc important, ainsi que vous le suggérez, de considérer les questions éthiques au sens large, en ne se limitant pas à l'humain.

Vous avez ensuite évoqué la question de la logique commerciale liée à l'internet. Cela m'apparaît vraiment comme un aspect central. Le modèle économique des grands acteurs de l'internet s'est construit au départ sur l'idée de la gratuité : l'utilisateur ne payait pas pour le service rendu. Le fait d'effectuer une requête sur Google n'est pas payant ; pour autant, il existe bel et bien une contrepartie, dans la mesure où l'entreprise, en échange du service rendu, utilise vos données. Ces sociétés font ainsi partie des plus grandes régies industrielles et sont au centre d'une économie marchande qui pose énormément de problèmes. Cela utilise de l'intelligence artificielle : le modèle économique de Google fonctionne par exemple sur la publicité ciblée. Le principe est de cerner qui vous êtes, à partir des sites que vous consultez et des requêtes que vous effectuez, afin de vous proposer des produits et services adaptés à votre profil et d'obtenir ainsi un taux de retour plus satisfaisant. Il s'agit là d'un changement majeur qui s'est opéré ces dernières années. Il faudrait que les pays, notamment européens, essaient de fonder des modèles différents, évitant tout intrusion dans la vie privée des utilisateurs. Il me semble important, dans cette optique, de promouvoir des dispositifs respectant un certain nombre de critères éthiques. Je pense notamment à des systèmes comme le moteur de recherche européen Qwant, qui s'engage à ne pas aspirer les requêtes, donc à respecter la vie privée en ne fondant pas son modèle économique sur l'exploitation des données individuelles. Je crois qu'il faudrait encourager et soutenir de telles initiatives.

L'Etat doit-il édicter des normes, ou est-il envisageable de procéder autrement ? J'ai pour ma part une certaine réticence à l'égard des normes, dont la mise en oeuvre est généralement un processus très lourd, faisant intervenir les grands acteurs, lesquels ont évidemment tendance à défendre leurs propres intérêts. Je pense donc qu'il serait préférable que se développe une réflexion au sein de l'ensemble de la société, qui pourrait conduire à l'émergence d'une demande sociale et de labels, attribués et vérifiés par des institutions indépendantes qui s'assureraient par exemple qu'un dispositif n'aspire pas les données individuelles pour les exploiter à des fins marchandes.

Vous avez également soulevé la question de la robotique affective. Comme vous l'avez indiqué, certains aspects de l'intelligence artificielle s'attachent à simuler le raisonnement rationnel, tandis que d'autres essaient plutôt de reproduire les émotions, avec toutes les questions que cela peut poser. Ne risque-t-on pas, par exemple, de déléguer à ces robots la charge de s'occuper des personnes âgées ? Cette perspective est absolument effrayante. Mais il existe aussi des aspects positifs : un robot affectif permet aux personnels soignants d'être plus disponibles. Sans doute savez-vous que les personnes atteintes de démence sénile sont insupportables pour leur environnement car elles posent sans cesse la même question. On peut ainsi imaginer un dispositif capable de répondre à ces patients, dégageant ainsi du temps pour que les professionnels vaquent à d'autres tâches. Il s'agit là d'une question ouverte. Je crois qu'il faut, d'une façon plus générale, considérer que les dispositifs d'intelligence artificielle sont des systèmes sociotechniques : cela signifie qu'ils ne sont pas uniquement des objets techniques, mais sont aussi couplés à une organisation sociale. Il importe donc de parvenir à penser le couplage des deux dimensions. J'ai évoqué précédemment les dispositifs permettant de suivre à distance les déplacements de personnes atteintes d'un début de maladie d'Alzheimer : cela peut être très positif si, derrière ce système, des gens suivent ces mouvements, tout en s'engageant à ne rien en divulguer afin de protéger l'intimité de la personne concernée, et peuvent intervenir s'ils constatent un problème. Il faut selon moi que, derrière chaque objet technique soit pensée l'organisation sociale qui va les accompagner. Dans le cas contraire, on s'engagerait dans un avenir plutôt cauchemardesque. Il me paraît important d'appréhender cette notion d'environnement social des objets techniques dès leur conception.

Je souhaiterais à présent revenir sur la question de la rupture épistémologique et du changement de paradigme. J'ai évoqué brièvement dans mon exposé les techniques d'apprentissage machine. Aujourd'hui, on procède essentiellement à de l'apprentissage supervisé : cela consiste à partir d'exemples, dont chacun se voit attribuer une étiquette. Il est alors possible, sur le fondement de ces exemples, de généraliser. Cet apprentissage est très limité. Il existe également d'autres techniques d'apprentissage : on peut par exemple imaginer des systèmes qui apprennent en regardant les traces d'exécution de leurs programmes et essaient, sur cette base, de s'améliorer. Bien évidemment, la question reste ouverte de savoir si une machine pourrait être capable de changer la représentation, les éléments de description, ce qui constituerait une rupture épistémologique. Aujourd'hui, cela nous semble très improbable. Pour l'instant, les machines restent dans un paradigme donné : elles ne font qu'utiliser les descripteurs qui leur ont été fournis. Qu'en sera-t-il dans le futur ? Je ne puis évidemment pas répondre à cette question. Je puis seulement vous dire que nous en sommes pour l'instant extrêmement loin, même si des travaux ont été menés sur ces questions dès le début de l'intelligence artificielle.

D'aucuns affirment que les machines vont bientôt, grâce à leurs capacités d'apprentissage, être beaucoup plus intelligentes que nous et prendre le pouvoir. Peut-être avez-vous par exemple entendu un certain médecin expliquer qu'elles allaient avoir un quotient intellectuel (QI) supérieur au nôtre. La notion même de QI pose des problèmes en soi : il s'agit d'une mesure tout à fait discutable. Quant à l'idée de QI d'une machine, elle est absurde, car elle suppose que les machines dites « intelligentes » le sont réellement. Or il faut bien comprendre ce qu'est l'intelligence artificielle : il s'agit d'une discipline scientifique ayant pour objectif de mieux comprendre l'intelligence en la décomposant en fonctions cognitives élémentaires et en simulant chacune d'entre elles. Des progrès considérables ont été effectués dans ce domaine au cours des dernières années, mais on ne fabrique pas pour autant des objets intelligents. L'utilisation du terme « intelligence » dans ce contexte est assurément source de confusion, et il est important de bien préciser ce dont il s'agit.

Votre dernière question portait sur la modification des capacités cognitives et des comportements humains, en lien avec le numérique. La question est ouverte. Il se trouve que je siège, en compagnie de scientifiques de diverses disciplines, au conseil scientifique de l'observatoire des mémoires : la question de savoir si notre mémoire va diminuer du fait des machines nous est régulièrement posée. Cette interrogation est ancienne. Dans l'Antiquité, Phèdre de Platon met en scène Socrate s'inquiétant de ce que l'écriture risque de conduire à amoindrir la mémoire individuelle. L'idée que les supports externes de mémoire pourraient faire perdre certaines facultés aux humains n'est donc pas neuve. La même question se pose aujourd'hui avec les outils numériques. Que disent les études menées dans ce domaine ? Dans certains pays, comme la Finlande, on suit depuis très longtemps une cohorte à ce sujet, avec réalisation régulière de tests. Serait-il intéressant de procéder de même en France ? Cela fournirait certainement des éléments d'information très utiles. Faut-il dès à présent craindre des pertes de capacités cognitives ? Il semblerait que les capacités de maintien de l'attention aient évolué. Les compétences en calcul mental ont de même certainement décru, mais c'est antérieur au développement de l'intelligence artificielle. Je crois pour ma part que le danger vient essentiellement non pas de l'intelligence artificielle, mais des jeux vidéo et des situations d'addiction qu'ils entraînent ; s'ils peuvent conduire à une augmentation de l'agilité, ils sont aussi susceptibles d'entraîner une diminution d'autres capacités cognitives et un isolement individuel.

Pour conclure, je souhaiterais insister sur le fait que le problème actuel du numérique tient à ce que nos sociétés sont de plus en plus inégalitaires. Le numérique est d'un côté une formidable chance, car il offre aux personnes qui ont une certaine éducation la possibilité d'accéder à une multitude d'informations, quasiment gratuitement. Il faut s'en réjouir. En revanche, il ne faut pas nier l'existence d'inégalités de connaissances, de compétences : tout le monde n'est pas capable de tirer profit de cet ensemble d'informations et de savoirs. Il s'agit là de l'enjeu majeur pour le futur. En 2000, lorsque les chefs d'État et de gouvernement européens s'étaient rencontrés à Lisbonne, ils avaient dressé le constat que nous entrions dans une société de la connaissance et fait part de leur volonté que l'Europe soit leader dans ce domaine, en développant l'enseignement et la recherche. Il s'agissait assurément d'un bon diagnostic. Or, dix-huit ans plus tard, on observe que l'Europe a plutôt régressé dans le monde. Il convient donc aujourd'hui de nous interroger sur notre capacité à mettre en oeuvre les programmes de formation et de recherche qui permettraient à l'Europe de se développer dans la société du futur.

Aucun commentaire n'a encore été formulé sur cette intervention.

Cette législature étant désormais achevée, les commentaires sont désactivés.
Vous pouvez commenter les travaux des nouveaux députés sur le NosDéputés.fr de la législature en cours.