Intervention de Cédric Villani

Réunion du jeudi 7 décembre 2017 à 9h00
Office parlementaire d'évaluation des choix scientifiques et technologiques

Photo issue du site de l'Assemblée nationale ou de WikipediaCédric Villani, député, premier vice-président de l'Office :

Nous resterons bien évidemment en contact.

Je vais prendre quelques instants pour vous parler de cette mission, qui en est à peu près à mi-parcours. Un travail considérable a déjà été effectué, mais beaucoup reste à faire. Il s'appuie sur des travaux antérieurs. Le rapport France IA, produit l'an dernier, a correspondu au réveil du politique français sur ce sujet, un réveil tardif par rapport à d'autres acteurs internationaux, mais qui intervient cependant plus tôt que chez certains de nos collègues, européens en particulier. Suite au rapport France IA, rédigé très rapidement dans une certaine forme d'urgence, mais qui a néanmoins procédé à un excellent travail de défrichage et de cartographie, est venu le rapport de notre Office, qui nous a été d'une grande utilité pour le calage et l'instruction de notre propre rapport. Notre ancienne collègue Dominique Gillot a elle-même assisté à l'une de nos auditions et sera bientôt auditionnée formellement dans le cadre d'une confrontation de résultats, de vérifications, afin de tenter de tirer le maximum du travail préliminaire accompli par l'OPECST.

Par rapport à ce dernier, nous avons, dans cette mission, plusieurs ambitions, dont l'une est d'affiner les diagnostics, dans un paysage qui évolue de façon assez importante, aussi bien en termes de cartographie des acteurs impliqués que pour ce qui concerne les domaines et les usages. Nous avons également pour vocation d'expliciter davantage les questions déjà identifiées, d'aller plus en profondeur et de formuler un certain nombre de propositions, essentiellement en termes d'actions à mener. Nous nous sommes rendu compte en effet qu'il existait certaines particularités de mise en oeuvre spécifiques à l'intelligence artificielle, la question majeure étant de savoir quel est le chemin à parcourir pour aller de l'état actuel à l'état que nous souhaitons atteindre.

Dans la lettre de mission du Premier ministre figuraient deux grands objectifs : il s'agissait de proposer au Gouvernement, pour les années à venir, une stratégie se déclinant en plusieurs axes (politique, économique, administratif, juridique, culturel, éducatif, etc.), afin de faire en sorte, d'une part, que la France et l'Europe puissent être au mieux de leur compétitivité en la matière, renforcer leurs atouts, combler leurs faiblesses et, d'autre part, que cela profite à l'ensemble de la société et serve des buts que l'on considèrera comme justes et équitables plutôt que d'aggraver les inégalités, ce qui constitue un risque classique face à toute nouvelle révolution ou grande vague d'innovation technologique.

Cette mission se déroule dans un très grand enthousiasme puisque, entre les demandes que nous avons suscitées et celles qui nous sont parvenues, quelque 600 personnes sont à ce jour « entrées dans la boucle ». Nous en avons reçues environ 250 en audition, le plus souvent sous forme de tables rondes, avec des débats organisés, parfois thématiques, parfois en fonction des interlocuteurs. De nombreuses tables rondes restent encore à venir.

Nous avons, par ailleurs, très récemment mis en ligne une plateforme contributive, pour permettre à l'ensemble des citoyens intéressés de participer à la réflexion. Évidemment, une telle démarche poursuit plusieurs buts. L'un d'eux est de participer à augmenter la prise de conscience, par les citoyens, de l'importance des choix qui sont en cours de discussion. Un autre objectif consiste à récupérer des informations et des suggestions valables. Même si 10 % des contributions qui nous parviennent apportent des questions ou propositions intéressantes, ce sera possiblement très important.

Cette mission intervient aussi dans un contexte de très grande curiosité et de fort besoin d'explications. Il ne se passe pas une journée sans que notre mission ne reçoive des demandes d'intervention dans des colloques, de conférences, d'interviews. Il apparaît clairement que le monde entier s'est emparé de ce sujet, en quelques années.

Dans ce contexte surgissent, par ailleurs, de très fortes tendances à la rumeur, à l'anxiété, à la peur. En France, mais plus globalement en Europe, la dominante est davantage, dans l'opinion publique, à l'inquiétude qu'à l'enthousiasme. Un travail va donc devoir être mené également à titre culturel, pour mettre en lumière les aspects enthousiasmants, positifs, mystérieux et passionnants ainsi que les attentes vis-à-vis de ces nouvelles technologies.

Il va falloir aussi trouver un équilibre au plan économique, entre une volonté de coopération tous azimuts, très bienveillante, et le fait que nous sommes dans un contexte de compétition internationale considérable, dans lequel il faut avoir en tête la partition que jouent les uns et les autres. Il s'agira de voir comment trouver une voie responsable entre la grande peur et la béatitude.

Nous avons, en outre, mené un travail d'acculturation auprès de nos collègues parlementaires avec l'organisation d'ateliers à l'occasion de ce rapport de mi-parcours, auxquels ont participé un bon nombre de députés et sénateurs, et qui avaient pour but de nous renforcer collectivement sur le sujet, d'instruire la discussion avant que ne viennent en aval de possibles évolutions législatives.

Il s'agit d'un sujet pour lequel il convient d'être bien informé et de se tenir à l'écoute, parce que les révolutions surviennent rapidement, plus rapidement que ce dont nous avons généralement l'habitude en sciences. Pour faire écho à l'intervention de Rémi Quirion, vous avez vu la manière dont il a mis en avant Yoshua Bengio, l'un des plus grands spécialistes mondiaux des réseaux de neurones. Il faut savoir que le trio formé par Yoshua Bengio, Geoffrey Hinton et le Français Yann Le Cun est devenu extrêmement médiatique dans le monde entier depuis qu'en 2012 un concours international en intelligence artificielle a été remporté par une équipe utilisant leur technique. Cela a marqué le grand retour sur la scène scientifique des réseaux de neurones, technique dont les meilleurs experts pensaient qu'il s'agissait d'une impasse. Cinq ans plus tard, les réseaux de neurones profonds sont partout et permettent d'attirer des capitaux en quantité considérable. Ils ont même modifié la donne par rapport à la demande en hardware, en structure, puisque les processeurs qu'ils utilisent ne sont pas les mêmes que ceux utilisés pour le calcul intensif classique. Cela a donc conduit à un rebattage complet des cartes, en l'échelle de quelques années seulement.

Le contexte requiert donc de trouver un équilibre, en agissant vite parce que le monde bouge très vite, mais sans pour autant prendre de décisions hâtives, trop définitives ou trop engageantes, car il se produira encore, à n'en pas douter, dans les années qui viennent, des évolutions importantes en la matière.

À titre personnel, en tant que scientifique, je dois dire que cette émergence de l'intelligence artificielle a été, pour moi, une grande surprise. Je me souviens qu'il y a une dizaine d'années, l'un de mes collaborateurs directs était passé dans ce domaine et je n'avais alors pas manqué de lui dire qu'il lui fallait bien réfléchir avant de s'engager dans un domaine où il ne se passait pas grand-chose et qui n'avait peut-être pas grand avenir. La suite de l'histoire m'a montré que j'étais complètement dans l'erreur. Le domaine a vraiment bougé au cours des dix dernières années et continuera de le faire d'année en année.

Parlons un peu des constats et du paysage tel qu'il se dessine. La première question à se poser est celle du périmètre et de la définition : qu'entend-on par « intelligence artificielle » ? La question revient régulièrement et il est impossible d'y apporter une réponse précise. L'intelligence artificielle n'est pas une technologie particulière, ni une innovation mise au point par une équipe donnée, ce n'est même pas une stratégie particulière de programmation algorithmique, mais un ensemble très disparate de techniques qui, toutes, visent à permettre à un algorithme, donc à sa version opérationnelle logicielle, de donner des réponses très fines, si fines que l'on aurait cru naïvement, a priori, que cela demandait de l'intelligence humaine. Cette définition est très floue et mouvante ; mais dès que l'on cherche à donner une définition précise, on se heurte à des impasses. Pour autant, certains, comme les juristes, souhaitent disposer d'une telle définition, pour savoir ce qui va tomber sous le coup de tel ou tel article de loi, en matière également de droit de la concurrence, etc. La puissance publique estime par ailleurs que, si elle veut subventionner l'intelligence artificielle, elle doit savoir exactement ce que cela recouvre.

Il faut aller davantage dans le détail des techniques d'intelligence artificielle pour répondre à ces questions. Ce débat doit avoir lieu enjeu par enjeu et sujet par sujet. Si l'on s'intéresse par exemple à la propriété intellectuelle, il faut se demander quelles sont les méthodes utilisées pour la production de l'intelligence artificielle : c'est de là que viendra la solution par rapport aux règles à mettre en place.

Il existe beaucoup de méthodes pour faire de l'intelligence artificielle, mais trois familles sont plus populaires que les autres et reviennent de façon récurrente dans les discussions. La première famille, historiquement, pour laquelle on parle aussi de « systèmes experts », est une méthode dans laquelle on essaie de mimer les décisions intelligentes en travaillant sur la modélisation des causes, des conséquences, avec des modèles et des arbres de décision, et où l'on met finalement sur le papier un savoir-faire, scientifique par exemple, obtenu par ailleurs. Il s'agit d'une méthode dans laquelle on raisonne par ontologie, où les causes, les conséquences, les buts sont bien assumés. Une autre grande famille de méthodes insiste sur l'intelligence comme un élément qui s'acquiert par l'expérience de la situation et se traduit, le plus souvent, par une méthode d'apprentissage statistique : une fois que le logiciel est programmé, on l'entraîne avec un très grand nombre d'exemples, de données, et il apprend spontanément à reconnaître, grâce aux exemples qui lui sont fournis, ce qu'il doit faire lorsqu'une nouvelle situation se présente, par analogie. Cette méthode est donc basée sur les corrélations, sur l'identification de similitudes entre des situations. Une troisième grande famille est celle de la méthode par exploration, qui considère que l'intelligence consiste aussi à aller vers de nouvelles situations, qui n'avaient pas été prévues, ne figurent pas dans la galerie d'exemples mais que l'on va explorer par soi-même.

Vous avez, par exemple, toutes et tous entendu parler de AlphaGo, le logiciel qui a écrasé l'un des meilleurs joueurs humains de go au monde : ce logiciel fonctionne par une combinaison d'apprentissage par l'exemple et d'apprentissage par exploration. Dans un premier temps, on lui a fourni un très grand nombre de parties de go réalisées par les meilleurs experts du jeu, pour qu'il apprenne, par l'exemple, quel coup jouerait un très bon humain dans quelle situation, avant, dans un deuxième temps, de lui faire mener une démarche d'exploration. L'ordinateur calculant extrêmement vite, cette exploration peut correspondre à des milliards d'années de temps humain. Cela lui a permis d'explorer une multitude de coups, de façon très naïve, et de trouver de temps en temps, par chance, un coup extraordinaire auquel aucun humain, si bon soit-il, n'aurait pensé. La deuxième version de AlphaGo, qui écrasait la première, a été obtenue uniquement par le biais de l'exploration, s'affranchissant ainsi du savoir-faire des humains, qu'elle est toutefois parvenue, en parcourant un très grand nombre de coups, à retrouver et à dépasser de très loin.

Il existe des sujets sur lesquels on peut appliquer une méthode plutôt qu'une autre. Certains sujets se prêtent ainsi davantage à la démarche par système expert, parce que l'on a réussi à les comprendre et à les modéliser suffisamment bien, mais ne correspondent pas aux autres approches. D'autres se prêtent à la méthode par l'exemple, d'autres encore à l'approche par exploration. On peut ainsi utiliser l'exploration pour trouver de nouveaux coups de jeu de go, car il est facile de modéliser en interne dans les circuits de silicium si une position en go est forte ou pas. En revanche, si l'on se situe dans le cadre d'une recherche de diagnostic automatique, la méthode par exploration n'est pas adaptée, car on ne peut deviner si le malade va mourir ou pas. Pour l'instant, l'apprentissage dans le domaine de la médecine s'effectue surtout par le biais de la statistique. Il est toutefois possible que cela évolue. On dispose par exemple de modèles de plus en plus perfectionnés en médecine sur le fonctionnement du coeur ou l'évolution de certains cancers. Il est donc probable qu'à l'avenir on utilise aussi des techniques d'exploration pour renforcer et améliorer nos logiciels dans le domaine médical.

Il existe bien évidemment de très nombreuses autres méthodes d'intelligence artificielle, jusqu'ici développées plutôt à titre expérimental.

Vous voyez que si l'on se situe dans un débat juridique où il est question de la responsabilité de l'algorithme, selon que le logiciel aura été programmé avec telle ou telle technique, le résultat sera différent. Ainsi, si l'on a utilisé un apprentissage statistique, il y aura une responsabilité par rapport aux données d'entraînement : qui les a réalisées, qui les a collectées, comment elles ont été exploitées, qui a vérifié qu'il n'y avait pas de biais, comment a été effectué le contrôle qualité de l'interface entre ces données et le logiciel, et ainsi de suite. Il en va de même dans l'analyse des risques. Jusqu'ici, on s'intéressait beaucoup, en termes de contrôle qualité dans les logiciels, à la vérification de l'absence de bug et au fait que l'identification des objectifs figurait bien dans les spécifications. Désormais, il faudra également vérifier que personne n'a introduit des données malveillantes, malhonnêtes, dans la base de données utilisée. De nouveaux problèmes émergent ainsi, en fonction de la stratégie employée.

Je souhaiterais revenir quelques instants sur la question de l'imaginaire, de l'image que véhicule l'intelligence artificielle. Toute révolution technologique s'accompagne d'un certain nombre de mythes qui, souvent même, la précèdent. En termes d'intelligence artificielle, nous sommes en présence de mythes très forts, en nombre limité, qui se renouvellent très peu et pèsent sur le domaine. Ils sont incarnés par le robot de 2001 l'odyssée de l'espace, par l'intelligence artificielle de Matrix, qui a réduit l'humanité en esclavage ou, encore, plus récemment, par le film Her, dans lequel un humain tombe amoureux d'une intelligence artificielle. On sort très peu de ces clichés et il est important, pour l'avenir, d'enrichir notre imaginaire et notre discours et de calmer le contexte d'anxiété qui, en Europe, prévaut. L'anxiété et la peur peuvent présenter la vertu de réveiller lorsque l'on est endormi et confiant. Certains commentateurs extrêmement durs à l'égard de la position de la France ont ce rôle bénéfique pour certaines institutions de les réveiller, de les gifler en quelque sorte. Mais il faut prendre garde à ce que le discours ne soit pas anxiogène pour tous ceux qui ont besoin de s'équiper. Nous sommes ainsi déjà alertés sur le fait que, dans nos PME, par exemple, se produisent des réactions de rejet par rapport à l'équipement en intelligence artificielle, motivées notamment par la peur de perdre le contrôle de son art ou de se faire dominer par les grandes puissances étrangères.

Cette révolution technologique arrive dans un contexte particulier, fondé sur une évolution vers le pragmatisme dans les dernières années. Alors que, historiquement, les évolutions informatiques étaient plutôt fondées sur l'exploration des concepts identifiés auparavant au niveau théorique, on se situe ici dans un mouvement contraire, dans lequel les experts ont le sentiment d'avoir mis le doigt sur des concepts profonds et puissants, non encore identifiés au plan théorique. J'aime citer un responsable de l'un des meilleurs centres de recherche européens en intelligence artificielle, me disant que le spécialiste en intelligence artificielle aujourd'hui était comme un alchimiste des temps anciens, se promenant avec son grand grimoire plein de formules magiques qu'il sait dans quelle situation appliquer, mais sans pouvoir expliquer pourquoi elles fonctionnent. Cela signifie qu'au plan scientifique, énormément de choses restent à faire. Il y a là des sujets passionnants à explorer.

J'ajouterai qu'au niveau scientifique s'est produit un rebattage des cartes impressionnant sur l'interface entre mathématiques et informatique, d'une part, et toutes les autres disciplines, d'autre part. On parle, aujourd'hui, beaucoup plus qu'auparavant, de mathématiques et santé, mais aussi de mathématiques et industrie, mathématiques et environnement. Cela tient à ce que l'intelligence artificielle permet. Au sein de la science mathématique, les équilibres ont été bouleversés. La statistique, qui faisait traditionnellement figure de parent pauvre au sein des mathématiques et n'était pas prise au sérieux autant qu'elle aurait dû l'être, y compris en dehors du monde mathématique, tient au contraire, désormais, le dessus du pavé par certains aspects. Ce sont nos collègues statisticiens qui, parmi les mathématiciens, reçoivent les offres les plus alléchantes et c'est dans ces filières que l'on a le plus de difficultés à recruter des enseignants-chercheurs, parce qu'ils sont très rapidement happés par le monde du privé. Il est intéressant de constater ce changement intervenu au sein des équilibres scientifiques internes à la discipline et fruit de l'évolution d'une technologie.

À quoi l'intelligence artificielle va-t-elle s'appliquer ? La réponse brève est que cela va s'appliquer à tout. Il existe dans tous les domaines, sans exception, de possibles cas d'usage impressionnants. L'intelligence artificielle se développe cependant avec des vitesses variées selon les domaines. Elle est, par exemple, très forte pour reconnaître une situation, analyser des jeux de données, reproduire des comportements automatiques ou acquis par l'expérience ; on a ainsi coutume de dire que toute décision prise par un humain en moins d'une seconde peut être remplacée par un algorithme d'intelligence artificielle. Elle est également très forte pour optimiser lorsqu'il y a de très nombreux paramètres à prendre en compte, mais aussi pour jouer. On a vu ainsi, au fur et à mesure du développement de l'intelligence artificielle, des humains être battus aux échecs, puis au poker, au jeopardy, au go et à nombre d'autres jeux. Chaque fois que le contexte est bien délimité, que l'on sait mesurer la performance et entraîner les intelligences artificielles, ces dernières parviennent à aller bien au-delà des humains. Elles sont, en revanche, très mauvaises pour prendre des décisions relevant du bon sens, du sens commun. Les gens, dans le grand public, demandent souvent à quel stade en est l'intelligence artificielle par rapport au développement humain : correspond-elle à l'intelligence d'un surdoué ? D'un enfant de six ans ? De deux ans ? Cela n'a pas de sens, car il s'agit de raisonnements et de représentations du monde différents. Pour l'instant, l'intelligence artificielle est, par exemple, très mauvaise pour comprendre réellement un texte.

D'un point de vue économique global, la situation est également particulière. Si l'expertise scientifique est assez bien répartie entre de nombreux acteurs, il existe, au niveau économique, une domination considérable des géants américains et désormais chinois. Au moment du rapport Gillot-de Ganay, il était question de l'émergence de « géants potentiels chinois ». Ils ont aujourd'hui émergé et ont des capitalisations financières considérables, de gigantesques stocks de données. Du côté de la Silicon Valley, on les regarde avec beaucoup d'inquiétude, en se demandant jusqu'où ils vont aller en la matière. De nouveaux acteurs émergent, en outre, avec un positionnement particulier. Nous parlions précédemment du Canada, qui a effectué une percée extrêmement forte dans le domaine au cours des dernières années, arrive déjà à mettre sur la table des financements annuels de plusieurs centaines de millions de dollars, en partie privés, en partie publics, et attire des chercheurs renommés, de nouvelles entreprises qui recrutent à « tour de bras ». Le Canada a réussi à imposer son style particulier, en affirmant une sensibilité aux questions éthiques beaucoup plus forte que son voisin américain et une plus grande liberté pour aller de l'avant que l'Europe. Israël est également un pays qui s'est affirmé sur la carte internationale. Je me rends d'ailleurs là-bas la semaine prochaine pour assister à un colloque sur le thème « intelligence artificielle et santé », sur lequel ils se sont déjà positionnés, avec une politique, des modèles économiques et une réflexion sur les entreprises. En Europe du nord, on note par ailleurs l'émergence d'une volonté politique très forte d'aller de l'avant, bien que l'expertise n'y soit pas plus développée qu'en Europe de l'ouest, par exemple. Le débat public y a déjà été instruit et s'est montré favorable au fait d'aller de l'avant, quitte à prendre des risques.

Ce domaine représente, en outre, un défi écologique majeur. Dans un contexte de crise écologique mondiale, on attend tout d'abord de l'intelligence artificielle qu'elle apporte de nouveaux outils pour analyser, améliorer, perfectionner, mais il faut aussi avoir conscience du fait que ces techniques sont très coûteuses, en matériel, en puissance de calcul et en énergie. Ces méthodes, qui utilisent et réutilisent les données, sont très gourmandes et, si l'on n'y prend garde et que les tendances de calcul continuent à augmenter de façon exponentielle à travers le monde, on va se retrouver face à des domaines très consommateurs d'énergie et extrêmement polluants. Rappelons que l'industrie informatique, même si l'on y pense comme un élément dématérialisé, est très polluante et présente une très forte empreinte carbone. L'Europe a vocation à être le continent dans lequel on se préoccupe le plus de l'environnement et à tenir compte de cet aspect dans sa stratégie.

Parmi les défis à relever et les pistes sur lesquelles nous travaillons, dans le prolongement de nos collègues Gillot et de Ganay, figure le fait de transformer notre industrie et de reconnaître que la France et l'Europe ont un retard notable, moins, toutefois, sur la partie recherche que sur d'autres aspects tels que les infrastructures – de calcul, en particulier –, la mise en valeur économique ou encore la communication à l'attention des citoyens. Parmi les chiffres cités lors des auditions, celui correspondant au retard de l'Europe par rapport au continent nord-américain, en termes d'investissements d'infrastructures, s'élève à plusieurs dizaines de milliards d'euros. Ce sont des investissements qu'il va falloir mettre sur la table si l'on veut être dans la course.

C'est un défi aussi que de faire intervenir tous les pans de la société : nous sommes bien armés en Europe, où nous disposons de sciences dures, mais aussi de sciences humaines et sociales bien développées. Cela constitue, dans ce secteur, une nécessité : en effet, l'intelligence artificielle est un sujet transversal, dans lequel la stratégie doit être globale et s'appuyer sur tous les acteurs. Il s'agit également d'un sujet dans lequel s'expriment des spécialisations et des sectorialisations de la discussion : lorsque l'on mène des auditions, on a le sentiment que, dans un premier temps, tout le monde parle de la même chose (politique de données, politique d'infrastructures, régulation, etc.), mais que, dans un second temps, il est question, dès que l'on approfondit la discussion, d'éléments différents. Ainsi, la discussion sur l'intelligence artificielle et le droit ne ressemble pas à celle relative à l'intelligence artificielle et la santé ou la défense. Au sein même du droit, les problématiques peuvent varier, car l'intelligence artificielle vient s'articuler avec les usages, les pratiques des différents milieux. Cela constitue une différence majeure avec la première vague de révolution numérique : il s'agissait tout d'abord de doter tout le monde d'outils uniformes, adaptables, les mêmes pour tous. Ici, il va falloir que chaque communauté s'empare des outils et travaille avec les experts en logiciels, en ingénierie, pour adapter les outils à ses besoins et les développer le plus tôt possible. Cela va donc nécessiter un travail en interne. Lors de la table ronde consacrée, par exemple, à la problématique « intelligence artificielle et santé », quand les représentants de l'Assistance publique-Hôpitaux de Paris (AP-HP) nous ont parlé de leur plateforme de données, qu'il a fallu des années pour mettre en place, ils nous ont expliqué qu'ils ont dû surmonter des obstacles légaux, et notamment avoir une discussion très serrée, pendant plusieurs années, avec la CNIL, et des obstacles technologiques pour disposer des infrastructures nécessaires et développer les bons niveaux de sécurité. Cette plateforme n'est pas parfaite mais représente toutefois un progrès considérable par rapport à l'existant. Des actions ont ensuite dû être entreprises en interne, pour comprendre qui avait le droit d'accès sur les données, qui allait donner le feu vert, etc. Ce travail culturel, psychologique, d'infrastructure humaine interne devra être effectué par chaque communauté.

Les pistes que nous dégageons et qui sont mentionnées dans la note de synthèse que vous avez reçue sont déclinées en six grands axes.

Le premier concerne la politique industrielle qu'il conviendrait d'initier. Ainsi que je l'ai indiqué, tous les secteurs seront impactés. Certaines problématiques seront communes, mais des secteurs devront être lancés en priorité, pour lesquels il existe des technologies matures et une attente très forte : il s'agit de la santé, des transports, de la défense et de l'environnement, la problématique de l'énergie étant incluse dans ce dernier item. Il faudra, à chaque fois, penser français et européen et beaucoup s'appuyer, au niveau européen, sur des réseaux, sur la mise en commun de compétences, la mise à niveau progressive des infrastructures matérielles et la construction de réseaux humains. Nous avons également distingué des secteurs dans lesquels il faut se lancer, mais de façon beaucoup plus expérimentale : cela concerne l'éducation et l'inclusion au sens large (éducation personnalisée, handicap, dépendance, information des citoyens), secteurs pour lesquels il existe de très fortes attentes mais où il faut travailler, car les expérimentations sont en cours. Tous les autres secteurs relèvent d'approches plus expérimentales encore, que ce soit le droit, le sport, etc. Chacun devra mettre en place son équipe de veille, ses expérimentations entre institutions et start-up, et ainsi de suite. À chaque fois, les données, les plateformes, le renforcement des compétences humaines seront des éléments clés. Le droit à l'expérimentation sera également un aspect majeur. On utilise souvent pour évoquer cela l'image du « bac à sable », pour désigner un environnement dans lequel on s'autorise à jouer, où la puissance publique desserre quelque peu le contrôle, pour voir ce qui se passe.

La politique des données demandera une instruction spécifique. La course mondiale pour les données concerne surtout, pour l'instant, les données structurées, étiquetées, bien rangées, susceptibles d'être mises dans de grandes « moulinettes » de calcul. La politique des données soulève des enjeux techniques, légaux, éthiques, de gouvernance, et requiert un droit des données qui doit, de plus en plus, s'intéresser aux usages et aux finalités plutôt qu'aux processus de collecte en soi. Il faut savoir que l'Europe est le continent dans lequel on protège le plus, et de loin, les citoyens. Le general data protection regulation (GDPR ou règlement général sur la protection des données - RGPD) mis en place au niveau européen est décrié par les uns comme un frein à la compétition mais encensé par les autres comme un terreau de confiance. Notre mission se prononcera sans ambages sur le fait que le GDPR est une bonne chose parce que cela permettra, sur le long terme, d'améliorer la confiance que les citoyens ont à l'égard de la technologie. Il constituera aussi un levier d'innovation par rapport à de nouvelles utilisations, de nouvelles architectures pour l'usage de l'intelligence artificielle. Il faut, en revanche, ne pas alourdir les réglementations telles qu'elles se mettent en place au niveau européen. Cela faisait déjà partie des recommandations du rapport de Ganay-Gillot. Nous appuierons très fortement ces deux aspects. Il est très positif qu'en Europe l'on protège le citoyen, mais il ne faut pas « surjouer cette partition ». Nous avons en outre besoin de grandes plateformes de calcul : il faudra également agir en la matière au niveau européen.

Le troisième axe est relatif à l'emploi et à la formation. Ce sujet, qui est sur toutes les lèvres, est pourtant celui sur lequel on dispose du moins d'éléments. Honnêtement, personne ne peut dire s'il y aura, dans les années à venir en Europe, des tensions sociales et économiques exacerbées à cause du développement de l'intelligence artificielle, avec un chômage de masse, ou si au contraire cela va permettre une reprise, un redémarrage important. On peut analyser divers scénarios, catastrophiques ou positifs, mais il n'y a, pour l'instant, pas lieu d'être submergé par l'inquiétude. Il convient de mettre en place des outils de surveillance, d'expérimentation, de travailler dès maintenant sur la façon dont on peut monter en compétences, en formation, à partir d'un constat pour l'instant assez sévère, puisqu'il apparaît que nous sommes très faibles en termes de formation. Si tout le monde s'accorde à dire que la formation est un grand enjeu, personne ne connaît réellement les bonnes méthodes pour y parvenir, sauf à mettre en contact réellement les experts les uns avec les autres. Autre constat : il ne s'agit pas de remplacer toutes les formations sectorielles existantes par des formations intelligence artificielle mais de les apparier et de faire monter chaque formation sectorielle en compétence en lui associant un volet de compétence en intelligence artificielle. Les profils les plus recherchés actuellement sont les profils bi-compétence, par exemple, des médecins connaissant suffisamment bien l'analyse de données massives pour intelligence artificielle pour pouvoir l'appliquer à leur domaine ou, a contrario, des experts en IA ayant fait l'effort, pendant des années, de se familiariser suffisamment avec un domaine particulier – médical, industriel, etc. – pour pouvoir parler directement avec des équipes travaillant sur ces sujets. L'intelligence artificielle est ainsi un sujet qui vient interpénétrer les domaines déjà existants au lieu de les balayer. Cela passe notamment par l'éducation et la manière dont on évoque cette thématique, dès l'école, pour attirer davantage de personnes vers des secteurs dans lesquels, globalement, nous ne formons pas assez de professionnels – ingénieurs, mathématiciens, théoriciens, etc. – pour répondre aux besoins.

Aucun commentaire n'a encore été formulé sur cette intervention.

Cette législature étant désormais achevée, les commentaires sont désactivés.
Vous pouvez commenter les travaux des nouveaux députés sur le NosDéputés.fr de la législature en cours.