Intervention de Mounir Mahjoubi

Réunion du jeudi 14 mars 2019 à 10h00
Commission d'enquête sur la lutte contre les groupuscules d'extrême droite en france

Mounir Mahjoubi, secrétaire d'État chargé du numérique :

Vous avez raison, je voulais simplement dire que nous étions près de chez M. Dussopt… Ensemble, nous nous sommes rendus dans un lieu exemplaire, en milieu rural, où des personnes âgées se forment à l'utilisation d'internet. Elles apprennent notamment à utiliser un mot de passe sécurisé afin de pouvoir pleinement profiter de l'espace numérique en se protégeant des contenus dangereux, ce qui a pour effet de diminuer leur niveau d'anxiété. Cela peut prendre un peu de temps, mais cela finit toujours par marcher : si un monsieur qui en était à sa huitième séance nous a dit avoir encore trop peur pour se connecter de chez lui, il n'en était pas de même pour les trois dames également présentes qui, elles, étaient déjà suffisamment rassurées parce qu'elles avaient reçu les outils pour cela. L'État doit continuer à se donner pour mission de connecter le maximum de personnes en créant les conditions de la confiance et c'est ce que nous allons faire partout sur le territoire, quel que soit l'âge des personnes concernées.

Vous m'avez également interrogé sur la police et la justice. Dans ce domaine, nous avons commencé par la mise en place d'équipes expertes. Aujourd'hui, quand un dossier parvient à l'OCLTIC ou à un service de gendarmerie expert du numérique, il est traité par des équipes formées et sachant parfaitement traiter toutes les demandes, qui n'arrivent pas à eux directement : les équipes expertes sont mobilisées de façon spécifique, seulement pour les enquêtes nécessitant leur intervention. La majorité des dossiers sont confiés à des enquêteurs traitant de tous les sujets. Comme vous le savez, à chaque fois qu'apparaissent de nouveaux types de violence, à chaque fois que de nouvelles voix s'expriment – on parle souvent de « nouvelles violences » pour désigner en fait des violences s'exerçant depuis longtemps et que les victimes dénoncent pour la première fois –, cela nécessite un temps de formation et de changement culturel dans nos institutions judiciaires et policières pour que, lorsqu'elles sont exprimées, les demandes soient immédiatement considérées comme légitimes. Sur ce point, on peut prendre pour exemple les violences faites aux femmes : en la matière, il a fallu plusieurs années pour que les plaintes soient accueillies selon un protocole garantissant une certaine homogénéité. Pour ce qui est de l'homophobie, le travail n'est sans doute pas fini, mais il avance bien : aujourd'hui, quasiment tous les policiers ont été confrontés au moins une fois à une séance de sensibilisation sur l'accueil d'une personne ayant subi des violences homophobes.

Enfin, en matière de violences en ligne, toutes les victimes ne sont pas accueillies de la même manière. Si une personne qui a été victime d'un raid dépose plainte auprès d'un agent qui n'a pas encore été formé et sensibilisé à ce problème, il se peut que celui-ci ne sache pas comment gérer la demande dont il est saisi. Cependant, en matière numérique, la consigne a été donnée de faire rapidement remonter les plaintes au niveau régional, où on trouve, partout en France, des personnes formées aux problématiques de ce type ; des plaintes parfois très techniques peuvent émerger mais, dans la majorité des cas, la procédure se déroule avec une grande fluidité. Il reste cependant encore beaucoup à faire dans ce domaine ; le ministre de l'intérieur s'est exprimé à ce sujet, mais il aura sans doute d'autres annonces à faire dans les mois qui viennent.

Deux exemples récents peuvent être évoqués. Le premier est celui de Bilal Hassani, qui a mis notre modèle sous tension, car c'était la première fois qu'on voyait autant de monde, au même moment, insulter et harceler massivement une personne sur les réseaux sociaux. Ses avocats et les réseaux d'associations qui le soutiennent ont souhaité déposer des plaintes simultanées dans de très nombreux lieux à travers la France pour le soutenir, ce qui pose un défi que nous devons être capables de relever. Il faut, par ailleurs, que les contenus haineux le concernant disparaissent et que leurs auteurs soient poursuivis.

Dans un autre registre, Pierre Liscia a fait hier l'objet d'un raid massif provenant de plusieurs milliers de personnes, à la fois sur le territoire français et à l'extérieur de nos frontières. Aujourd'hui, ces raids massifs qui sont le fait de groupuscules et groupes organisés constituent une nouvelle pratique contre laquelle nous ne disposons pas encore d'une réponse adaptée. La loi défendue l'année dernière par Marlène Schiappa, renforçant la lutte contre les violences sexuelles et sexistes, comportait une innovation judiciaire très importante : la reconnaissance du cyberharcèlement en groupe. Alors que dans la définition précédente du harcèlement, il fallait que le même auteur ait commis les mêmes faits à plusieurs reprises pour qu'on puisse qualifier son comportement de harcèlement, on considère désormais qu'un acte commis par de nombreux auteurs coordonnés est qualifiable d'acte de cyberharcèlement et peut donc donner lieu à des poursuites. Évidemment, il faut un peu de temps avant qu'une telle innovation soit complètement assimilée par les équipes chargées de traiter les plaintes et de les transmettre au parquet, mais il y a une volonté collective d'avancer.

On ne peut parler de poursuites judiciaires sans évoquer la question de l'identification des auteurs, complexe pour les victimes, mais aussi pour les services de police, car elle nécessite d'entrer en relation avec les plateformes concernées, au moyen de procédures mises en place au fil des années et ayant évolué. J'ai souhaité voir par moi-même comment les choses se font, ce qui m'a permis de constater que, s'il existe des procédures presque intégralement numériques, qui permettent d'aller très vite, on recourt encore à des procédures – notamment des réquisitions – sur papier, qui ont pour effet d'ajouter un délai administratif qui pourrait être évité. Cela dit, dès lors qu'elle a été formée aux procédures numériques, une équipe régionale ne met plus en oeuvre les procédures papier, ce qui permet d'accélérer les enquêtes. La courbe relative au temps de traitement des enquêtes montre donc une nette accélération des processus d'acquisition des informations, et je suis optimiste quant au fait que cette accélération se poursuive et s'étende à l'ensemble du territoire.

Madame la présidente, vous m'avez interrogé au sujet des bulles de filtres. Cette question constitue pour nous un nouveau défi et donne actuellement lieu à un débat portant sur le fameux devoir de coopération des plateformes. Si la loi contre la manipulation de l'information – parfois appelée « loi contre les fake news », mais il vaut mieux parler français – ne traite pas spécifiquement de ce sujet, elle doit créer les moyens d'identifier comment les bulles de filtres peuvent provoquer l'enfermement algorithmique d'un internaute, confronté à son insu à des contenus manipulatoires. Lorsque je présidais le Conseil national du numérique, nous avions théorisé ce sujet – qui devient aujourd'hui un sujet politique émergent – en faisant porter notre réflexion sur les notions de loyauté et de transparence des algorithmes.

Comme je l'ai rappelé l'année dernière au moment de l'adaptation du droit français au RGPD, nous avons décidé que l'administration ne devait pas utiliser d'algorithmes non explicables pour prendre ses décisions – sont ici visés les algorithmes de nouvelle génération, auto-apprenants : n'étant pas techniquement auditables à l'heure actuelle, ils ne sont pas transparents et ne doivent donc pas être utilisés. Le Parlement a émis de nombreuses réserves sur ce point en indiquant qu'il souhaitait être informé régulièrement des recherches menées sur ce sujet. Un vrai travail de recherche a été mené avec l'Institut national de recherche en informatique et en automatique (INRIA), et l'une des priorités du Fonds pour l'innovation consiste à développer, dans le domaine de l'intelligence artificielle, l'auditabilité des algorithmes et à faciliter l'analyse par l'extérieur de la loyauté des algorithmes.

Il y a deux façons de savoir comment fonctionne un algorithme, la première étant évidemment de connaître son code et de savoir à partir de quel jeu de données il a commencé à apprendre. Si vous n'avez pas accès à ces informations, que ce soit à cause du secret des affaires ou pour toute autre raison, il existe une autre solution consistant à créer un code qui va injecter des données dans le système basé sur l'algorithme qui vous intéresse et à observer ce qui résulte de ces opérations, ce qui va vous permettre, de l'extérieur, d'identifier des biais, des dangers et des risques liés à l'utilisation de l'algorithme observé.

La France possède de très bons laboratoires de recherche dans cette discipline, où elle dispose d'une certaine avance : c'est ce qui justifie que, lors de la première séance du Conseil de l'innovation, qui s'est tenue en juillet 2018, Frédérique Vidal, Bruno Le Maire et moi-même ayons souhaité en faire un sujet prioritaire d'investissement.

La loyauté de l'algorithme constitue une nouvelle question technique et politique sur laquelle nous allons devoir avancer au cours des prochains mois, et qui va se trouver au coeur de la discussion portant sur de très nombreux sujets. Comme vous le savez, la France et le Canada sont porteurs d'une initiative mondiale qui fera l'objet de nombreuses discussions lors du G7 numérique qui se tiendra au cours des prochaines semaines en France, à savoir la création d'un groupe international d'experts en intelligence artificielle (G2IA), qui aura pour objectif de créer et financer un groupe d'experts indépendants capables de fixer des règles collectives de valeurs, d'usages et de pratiques relatives à la loyauté des algorithmes auto-apprenants d'intelligence artificielle. Nous pourrons ensuite nous référer à ces règles pour imposer aux plateformes certaines obligations relatives à leurs pratiques en matière d'utilisation des algorithmes.

S'agissant des pratiques des plateformes et des obligations qu'on pourrait leur imposer, cette problématique est tellement nouvelle qu'elle ne donne pas encore lieu à des demandes de la part des associations, de la société civile ou du Parlement, et qu'elle est encore peu décrite par les experts. Dans ces conditions, on se retourne vers le Gouvernement en demandant : « que fait-on ? ». Je vous renvoie la même question. Je considère pour ma part que nous devons continuer à avancer ensemble sur les questions de la loyauté des plateformes et de la transparence des algorithmes. Nous avons bien conduit le débat sur la protection des données personnelles et si nos concitoyens sont plutôt bien informés, il existe encore en la matière des sujets de conquête – je pense notamment aux données d'intérêt général et d'innovation, ainsi qu'au partage et à la valorisation des données –, mais j'ai l'impression que tout le monde est bien conscient des enjeux, ce qui permet de faire progresser le débat. Toutes les conditions me paraissent donc réunies pour que nous avancions sur ces sujets et faisions des choix politiques au cours des mois et des années qui viennent.

Sur les algorithmes et l'intelligence artificielle, nous n'en sommes qu'au tout début du débat politique, et nous devons veiller à ne pas nous laisser dépasser par les usages. C'est toute la difficulté en la matière car, en attendant d'avoir bien compris tous les déterminants et les excès de ces nouveaux outils, nous n'allons pas interdire des usages qui ont déjà fait la preuve de leur utilité. Sur ce point, je n'ai pas de réponse absolue à vous faire, si ce n'est que nous investissons dans la recherche et que nous attendons également beaucoup de la société civile et du Parlement pour faire émerger un point de vue et un cadre légal.

Je me suis intéressé au travail parlementaire accompli sur le thème du numérique au cours des dix dernières années et je peux vous dire qu'il n'y a jamais eu autant de commissions qui se soient intéressées à ce thème – soit en tant que tel, soit en l'intégrant à un autre sujet de travail. Nous arrivons à un moment où se produit une prise de conscience à l'Assemblée nationale, mais aussi au Sénat – où nous avons eu un très intéressant débat sur l'intelligence artificielle il y a un an et demi – de la nécessité de politiser ce débat – quand je dis « politiser », je l'entends au sens noble du terme –, et j'en suis très heureux.

Aucun commentaire n'a encore été formulé sur cette intervention.

Cette législature étant désormais achevée, les commentaires sont désactivés.
Vous pouvez commenter les travaux des nouveaux députés sur le NosDéputés.fr de la législature en cours.