Intervention de Élisa Borry-Estrade

Réunion du lundi 10 juillet 2023 à 17h00
Commission d'enquête sur la structuration, le financement, les moyens et les modalités d'action des groupuscules auteurs de violences à l'occasion des manifestations et rassemblements intervenus entre le 16 mars et le 3 mai 2023, ainsi que sur le déroulement de ces manifestations et rassemblements

Élisa Borry-Estrade, responsable des affaires publiques de Meta :

Les plateformes que vous avez réunies aujourd'hui sont avant tout des lieux d'expression qui offrent une voix à chaque individu. En ce qui concerne Meta, nous souhaitons vous présenter les standards que nous utilisons, mais également évoquer notre coopération avec les autorités de police et de justice.

Nos plateformes permettent à des communautés de se fédérer autour d'intérêts et de passions. Elles sont utilisées dans les milieux militants et associatifs car elles démocratisent la participation au débat public, devenu gratuit et accessible en un clic. Ces dernières années, des mouvements d'ampleur sont nés ou ont émergé grâce aux réseaux sociaux, comme #metoo ou le Printemps arabe. Cette expression est rendue possible par des outils universels, les mêmes partout dans le monde. Il n'y a pas de spécificité nationale de produits de Meta.

Cependant, cette liberté d'expression n'est pas sans limites. Le droit s'applique : les plateformes et le numérique en général constituent un secteur régulé en France et en Europe. Lors des dix dernières années, 29 textes ont introduit ou encadré l'usage de technologies numériques de sécurité en matière de géolocalisation ou de reconnaissance faciale, par exemple. Au niveau européen, le règlement général sur la protection des données a posé un cadre devenu la référence internationale en matière de protection des données personnelles. Plus d'une quinzaine de textes sont en application ou le seront prochainement. Je pense notamment au règlement sur les services numériques. La régulation est riche et fournie. Mais nous ne l'avons pas attendue pour agir.

Depuis sa création, Meta a élaboré des règles strictes définissant ce qui peut être publié sur ses plateformes. Elles répondent à un principe simple que l'on trouve dans la Déclaration des droits de l'homme et du citoyen : la liberté consiste à faire tout ce qui ne nuit pas à autrui. À titre d'exemple, nos standards interdisent plusieurs types de contenus en rapport avec les travaux de cette commission. Il s'agit des contenus violents, mais aussi l'incitation à la violence. Pour prévenir des dommages potentiels en ligne, nous supprimons les propos qui incitent à la violence ou qui la facilitent. Nous supprimons des contenus, désactivons des comptes et coopérons avec les forces de l'ordre lorsque nous estimons qu'il existe un risque réel de violence physique ou de menace directe pour la sécurité des individus. Nous interdisons aussi aux internautes de faciliter, d'organiser, de promouvoir ou d'admettre certaines activités criminelles ou préjudiciables visant des personnes, des biens, des entreprises ou encore des animaux.

Nous autorisons les internautes à débattre d'activités criminelles et nuisibles et même à défendre leur légalité, ainsi qu'à attirer l'attention sur des faits dont ils peuvent être témoins ou victimes, tant qu'ils ne produisent pas les dommages et qu'ils ne les mettent pas en avant. Pour protéger les utilisateurs des images choquantes et violentes, nous supprimons les contenus particulièrement violents comme des vidéos de démembrements ou des corps de personnes décédées. Dans le cadre des discussions sur des questions importantes telles que les violations des droits de l'homme, les conflits armés ou les actes de terrorisme, nous autorisons le contenu graphique avec certaines restrictions, pour permettre aux utilisateurs d'en parler et de condamner, afin de sensibiliser à certaines situations. Nous ajoutons un panneau d'avertissement sur certaines images afin que les gens sachent que leur contenu peut être sensible avant de cliquer dessus.

Nous appliquons ces lignes directrices grâce à la combinaison de moyens humains et technologiques. Plus de 40 000 personnes travaillent aujourd'hui aux enjeux de sécurité et de sûreté chez Meta, dont près de 15 000 modérateurs. Sur les cinq dernières années, nous avons investi plus de 16 milliards de dollars dans ce domaine, soit plus que n'importe quelle autre plateforme. Grâce à nos outils automatisés, nous détectons et nous retirons des millions de contenus chaque jour dans le monde. Pour en rendre compte, nous publions chaque trimestre un rapport de transparence qui comporte des éléments sur le nombre de contenus retirés, les appels déposés par les utilisateurs ou encore le taux de prévalence de ces contenus.

En vous rendant sur le site transparency.fb.com, vous constaterez que nous avons retiré 13,6 millions de contenus violents entre janvier et mars 2023 sur Facebook, dont 98,3 % avaient été détectés avant tout signalement d'utilisateur. Sur la même période nous avons retiré plus de 7 millions de contenus incitant à la violence sur Instagram, dont plus de 97,5 % détectés avant tout signalement. Ces outils et ces standards sont en évolution permanente.

Aucun commentaire n'a encore été formulé sur cette intervention.

Inscription
ou
Connexion