Lutte contre la manipulation de l'information — Texte n° 990

Amendement N° 136 (Adopté)

(1 amendement identique : 177 )

Sous-amendements associés : 236 (Adopté)

Publié le 6 juin 2018 par : Mme Forteza, M. Bothorel, M. Villani.

Photo issue du site de l'Assemblée nationale ou de Wikipedia Photo issue du site de l'Assemblée nationale ou de Wikipedia Photo issue du site de l'Assemblée nationale ou de Wikipedia 

Les opérateurs de plateforme en ligne mentionnés au premier alinéa de l'article L. 163‑1 du code électoral et qui recourent à des algorithmes de recommandation, classement ou référencement de contenu publient des statistiques agrégées sur leur fonctionnement.

Sont mentionnés pour chaque contenu :

1° La part d'accès direct, sans recours aux algorithmes de recommandation, classement ou référencement ;

2° Les parts d'accès indirects, dus à chacun des algorithmes de recommandation, classement ou référencement de la plateforme qui sont intervenus dans l'accès aux contenus.

Ces statistiques sont publiées en ligne et accessibles à tous, dans un format libre et ouvert.

Exposé sommaire :

Au cours de la lutte contre les fausses informations, de nombreux acteurs ont constaté que celles-ci sont souvent mises en avant par les algorithmes des plateformes (réseaux sociaux, moteurs de recherche).

A titre d'exemple, un travail a été réalisé par Guillaume Chaslot, ancien ingénieur informatique auprès de YouTube. Dans un article rédigé pour Médium, il détaille ainsi que « plus les gens passent de temps sur ces vidéos, plus elles rapportent des revenus publicitaires à Google. La plupart des plateformes font des choix similaires. Or, ce choix a un effet pervers qui a un impact majeur sur l'information mondiale ».

Autrement dit, les algorithmes déduiraient que les contenus les plus efficaces pour capter l'attention de l'utilisateur sont des contenus polémiques, pas nécessairement vérifiés, aux formats courts et susceptibles de véhiculer des fausses nouvelles, et en proposeraient davantage. Par exemple, l'algorithme de YouTube proposerait plus de contenus affirmant que les Américains n'ont jamais marché sur la Lune plutôt que des documentaires sur le fonctionnement du système solaire, car l'utilisateur y passerait moins de temps. Le site algotransparency (https ://algotransparency.org) illustre l'influence de cette dynamique sur les élections présidentielles française et allemande de 2017.

Face à ces déclarations Google a affirmé que la méthode employée par leur ancien employé n'était pas fiable et donc que leur algorithme n'aurait pas de telle conséquence. Il conviendrait de pouvoir objectiver ce débat, en se basant sur des données à même de nourrir des travaux indépendants menés par des chercheurs, des associations ou des citoyens engagés. En effet, si ce genre d'algorithmes a un effet sur la diffusion de fausses nouvelles, nous devons pouvoir en étudier les biais, pour mieux les contrôler.

D'un point de vue technique, cet amendement part d'un constat : actuellement, des contenus sont proposés en ligne par les plateformes, soit par un accès direct c'est-à-dire grâce à l'URL ou un moteur de recherche extérieur, soit par un accès indirect c'est-à-dire suggéré, recommandé ou mis en avant de façon algorithmique. Connaitre la part de chaque voie d'accès nous permettra de comprendre si un algorithme en particulier est plus ou moins responsable de l'affichage régulier de certains types de contenus qui véhiculent notamment des fausses informations.

Ces statistiques doivent être consultables par tous en ligne et être réutilisables. Il ne s'agit nullement d'accéder au fonctionnement de l'algorithme en lui-même, la publication des effets d'un algorithme ne menant pas à la possibilité de le reproduire. Ainsi, il n'y a pas d'atteinte au secret des affaires et à la liberté d'entreprendre.

Cet amendement propose un dispositif ponctuel dans le cadre d'un travail de longue haleine sur la régulation des plateformes. Une réflexion devra notamment être menée sur la coordination des différents régulateurs impliqués dans ce domaine (CNIL, ARCEP, CSA, Autorité de la concurrence, etc.) et sur l'éventuelle création d'une instance de régulation des plateformes qui pourrait prendre la forme, par exemple, d'un Comité consultatif national d'éthique pour les technologies numériques et l'intelligence artificielle tel que défendu par Cédric Villani au sein de son rapport « Donner un sens à l'intelligence artificielle ». Une telle instance pourrait apprécier les questionnements liés à l'éthique dont relève la régulation des plateformes.

Aucun commentaire n'a encore été formulé sur cet amendement.

Cette législature étant désormais achevée, les commentaires sont désactivés.
Vous pouvez commenter les travaux des nouveaux députés sur le NosDéputés.fr de la législature en cours.