Photo issue du site de l'Assemblée nationale ou de Wikipedia

François Jolivet
Question N° 35347 au Secrétariat d'état à la transition numérique


Question soumise le 29 décembre 2020

M. François Jolivet attire l'attention de M. le secrétaire d'État auprès des ministres de l'économie, des finances et de la relance, et de la cohésion des territoires et des relations avec les collectivités territoriales, chargé de la transition numérique et des communications électroniques, sur les manquements relevés dans la modération du réseau social Twitter. Ce réseau est le théâtre morbide de campagnes de harcèlements, de diffamations et d'incitations à la haine. En mai 2016, Twitter s'était engagé devant la Commission européenne à supprimer toutes ces publications en moins de vingt-quatre heures à partir de leur signalement. Mais, alors que la plupart des réseaux sociaux ont essayé de reprendre en main cette modération, force est de constater que les efforts consentis par Twitter ne suffisent pas. Les ressources humaines nécessaires pour assurer une modération efficace ne semblent pas au rendez-vous. L'entreprise ne semble pas se donner les moyens d'agir rigoureusement et localement, privilégiant l'automatisation et plaçant ses effectifs à un niveau transnational. Le vide laissé par des algorithmes peu efficaces est comblé par des associations et des collectifs, mobilisés pour préserver la raison d'être d'un réseau social : l'échange et la confrontation d'idées dans le respect et la non-violence. Ces collectifs se retrouvent parfois même victimes d'une modération sans discernement, qui entraîne le blocage de leurs comptes. En France, la société est soumise à la loi pour la confiance dans l'économie numérique (LCEN), qui oblige les intermédiaires techniques à « rendre publics les moyens qu'ils consacrent à la lutte contre les activités illicites ». L'opacité interroge pourtant, et le lien entre les services de modération et les autorités nationales, notamment la plateforme de signalement Pharos, est imparfait. Ce manque d'engagement et de clarté ne semble pas être un problème d'ordre financier pour l'entreprise. Alors que cette situation encourage les plus violentes dérives, il souhaite connaître les actions envisagées par le Gouvernement pour peser, au niveau français et au niveau européen, sur la politique de modération de Twitter afin que ce réseau social reste un formidable outil d'expression et de communication.

Réponse émise le 18 mai 2021

Internet a permis de démultiplier les moyens de communication et d'échanges entre les personnes, ce qui est à la fois un bienfait pour nos sociétés et une source de préoccupations au regard des contenus haineux dont Internet accroît la visibilité. Au cours des dernières années, l'impact des plateformes sur la liberté d'expression et sur nos démocraties a été renforcé, en rendant visibles les effets qu'ils peuvent avoir sur les processus électoraux ou sur la confiance du public, par exemple en diffusant des informations fausses ou trompeuses sans en subir les conséquences, ou encore en permettant, par les mécanismes de viralité à l'œuvre sur ces plateformes, la diffusion de messages haineux, de contenus choquants ou d'actes de harcèlement. Face au caractère désormais incontournable de ces réseaux, le Gouvernement s'engage activement au niveau européen et national à la protection des citoyens en ligne et à la préservation de la liberté d'expression. Il entend imposer des règles et obligations ciblées à la charge des grandes plateformes numériques, pour assurer leur mise en œuvre de moyens et dispositifs concrets (techniques, humains) pour lutter efficacement contre la haine en ligne. Au niveau européen, le Gouvernement est un soutien actif des propositions de la Commission sur le texte du Digital Services Act (DSA), que nous espérons voir aboutir au cours de l'année 2022. Ce règlement européen permettra de mettre en place des obligations renforcées pour les très grandes plateformes, et des exigences accrues de transparence sur les politiques de modération adoptées par les plateformes. L'objectif en matière de modération est, pour le régulateur, de vérifier que les plateformes disent ce qu'elles font et font ce qu'elles disent. Les autorités françaises s'assurent que cet objectif de responsabilisation des plateformes numériques soit poursuivi de manière ambitieuse, à travers des solutions concrètes et efficaces. Cette responsabilisation doit se faire à la hauteur de leur rôle dans la diffusion de contenus. Le Gouvernement soutient le modèle de régulation proposé dans le Digital Services Act (DSA), fondé sur la logique du « devoir de diligence », par lequel le régulateur contrôle, de façon systémique, l'adéquation des moyens mis en place par les opérateurs, sans entrer ni dans le choix des moyens, ni dans un contrôle au niveau de chaque contenu mis en ligne. Le DSA prévoit également la mise en place d'obligations renforcées pour les très grandes plateformes pour les risques particulièrement forts qu'elles présentent et, principalement, une obligation pour celles-ci d'évaluer les risques systémiques découlant de l'utilisation de leurs services et de prendre des mesures raisonnables, proportionnées et effectives d'atténuation de ces risques, notamment ceux relatifs à la diffusion des contenus illicites et ceux ayant des effets négatifs sur l'exercice des droits fondamentaux. La responsabilisation des plateformes est par ailleurs rendue effective par un régime de mise en œuvre robuste et des sanctions dissuasives pouvant aller jusqu'à 6% du chiffre d'affaires mondial de l'entreprise. En outre, le texte porte le renforcement des pouvoirs du régulateur en matière de supervision du suivi des obligations des plateformes et le renforcement des obligations de transparence de l'ensemble de leur politique de modération. En parfaite cohérence avec le projet européen et dans l'intervalle séparant de son adoption, le Gouvernement est activement engagé au niveau national dans la lutte contre les contenus haineux et la supervision de la fonction de modération des plateformes par les autorités publiques. Des dispositions portées dans le volet numérique du projet de loi confortant le respect des principes de la République, actuellement en discussion au Parlement, vont en ce sens. Ainsi, l'article 19 bis vise à obliger les plateformes à mettre en œuvre les moyens humains et technologiques proportionnés à leurs missions de modération. Cette disposition est renforcée par la publication par les plateformes des moyens consacrés à la lutte contre certaines activités illicites ainsi que d'indicateurs chiffrés sur l'efficacité de leurs missions de modération selon des modalités fixées par Conseil supérieur de l'audiovisuel. Enfin, ces dispositions renforcent les obligations de coopération des plateformes avec les autorités judiciaires et administratives, notamment d'information quant aux suites données aux injonctions faites par ces autorités ainsi que celle d'informer les autorités publiques en cas de connaissance d'une information indiquant une infraction grave mettant en jeu la sécurité ou la vie d'une personne.

Aucun commentaire n'a encore été formulé sur cette question.

Cette législature étant désormais achevée, les commentaires sont désactivés.
Vous pouvez commenter les travaux des nouveaux députés sur le NosDéputés.fr de la législature en cours.