Intervention de Roger Vicot

Séance en hémicycle du mercredi 27 juillet 2022 à 15h00
Prévention de la diffusion de contenus à caractère terroriste en ligne — Discussion générale

Photo issue du site de l'Assemblée nationale ou de WikipediaRoger Vicot :

Ce texte est en quelque sorte la suite logique d'un long processus commencé au milieu des années 1990, avec l'avènement d'internet, du cyberespace et des possibilités nouvelles de communication ainsi ouvertes à tous. Alors que le terrorisme était la plupart du temps lié à un territoire particulier et circonscrit, internet lui a offert un espace mondial de propagande, où son message s'adresse à l'opinion publique mondiale. À ce moment-là, le terrorisme est aussi, hélas, devenu une affaire de publicité. Souvenons-nous des mots de Raymond Aron : « Le terrorisme ne veut pas que beaucoup de gens meurent, il veut que beaucoup de gens le sachent. » Dans ce domaine, internet est devenu un terrifiant outil. Dernier exemple en date, cité à plusieurs reprises : en mai dernier, un suprémaciste blanc tuait dix personnes à Buffalo et diffusait ses actes en direct sur le réseau social Twitch. On songe aussi, bien sûr, aux atrocités perpétrées par Daech et diffusées presque quotidiennement grâce à un service de presse et une communication parfaitement structurés.

Cette proposition de loi vise donc à lutter contre les activités terroristes sur internet – recrutement, organisation et apologie –, et à procéder aux adaptations de notre législation, afin de favoriser l'application du règlement de l'Union européenne relatif à la lutte contre la diffusion de contenus à caractère terroriste.

Je ne reviendrai pas sur les mesures que le texte prévoit : elles ont été développées et précisées à plusieurs reprises. Comme l'a expliqué Cécile Untermaier, il ne saurait être question de nous opposer à ce texte, qui, sur le fond, ne peut évidemment qu'être approuvé. Notre législation doit évidemment intégrer toute mesure qui vise l'objectif principal du texte, dès lors qu'elle est proportionnée et qu'elle s'inscrit dans le cadre de l'État de droit.

Je voudrais revenir sur un élément qu'a évoqué Ugo Bernalicis. Certes, la CMP a maintenu le principe d'un appel possible contre la décision du tribunal administratif dans un délai de dix jours, la décision de celui-ci devant être rendue dans un délai maximum d'un mois. Rappelons cependant que les procédures en référé seront toujours possibles en cas d'atteinte manifestement illégale à la liberté d'expression ; dans ce cas, le délai n'est pas d'un mois, mais de quarante-huit heures. La vraie question est celle de l'encadrement pratique et technique de ces dispositions, de façon que personne ne soit injustement lésé et que certains contenus ne se trouvent pas retirés d'internet par la grâce – ou par la faute – de quelques algorithmes.

Le texte aurait pu être amélioré, par exemple grâce à une précision rédactionnelle ciblant spécifiquement les contenus faisant l'apologie du terrorisme, c'est-à-dire pénalement répréhensibles. Mme Untermaier a fait référence tout à l'heure à des définitions internationales – celles de l'Union européenne, de l'ONU – du terrorisme : l'utilisation de moyens violents pour faire pression en permanence sur un gouvernement ou une population. Ces définitions sont très précises et auraient pu être reprises dans le texte, de manière à définir spécifiquement de quoi l'on parle.

Nous aurions aussi pu rappeler dans le corps de la loi le principe essentiel posé par le règlement de l'Union européenne auquel nous faisons référence par le biais de ce texte : en aucun cas l'application de ces nouvelles dispositions ne doit conduire à des retraits de contenus massifs et automatisés, c'est-à-dire non proportionnés. Par conséquent, nous aurions pu prévoir que seule une personne physique soit autorisée à le faire.

Nous aurions également pu prévoir un contrôle de l'ARCOM sur les algorithmes utilisés par les fournisseurs de services d'hébergement, puisque c'est finalement de ce point que nous parlons. L'ARCOM aurait pu se voir communiquer les algorithmes en question pour le filtrage a priori des contenus. Elle aurait ainsi pu constater d'éventuelles applications disproportionnées de la loi et les sanctionner autant que de besoin.

De plus, nous aurions pu lui offrir la possibilité de contrôler les mécanismes de filtrage appliqués par les fournisseurs de services d'hébergement, de manière à cerner les techniques utilisées, à paramétrer les algorithmes et à s'assurer qu'aucune autocensure excessive, susceptible de porter atteinte à la liberté d'expression, n'est créée.

Enfin, nous aurions pu prévoir l'information du Parlement sur les effets de l'application de la loi et sur le volume des retraits effectués en comparaison de celui des retraits demandés. Néanmoins, ces quelques lacunes ne remettent pas en cause le bien-fondé du texte. Pour toutes ces raisons, le groupe Socialistes et apparentés votera la proposition de loi.

Aucun commentaire n'a encore été formulé sur cette intervention.

Inscription
ou
Connexion