Militer par les données : de la construction des causes à la politisation d’un problème public
5 février 2021
Des militants de la manifestation du 8 mars 2020 à Paris (© Antonin Ménagé)
La déferlante « NousToutes » : la communication au service de la mobilisation féministe
8 mars 2021

Encadrer le rôle de modération des plateformes en ligne: acteurs et enjeux

En 2019, le scandale de la « Ligue du LOL » a bouleversé le monde médiatique. D’influents bloggeurs, journalistes et communicants ont été au cœur d’accusations de harcèlement par des utilisateurs de Twitter, ciblant notamment des militantes féministes pour leurs positions idéologiques.

Au premier trimestre 2020, 9,6 millions de propos haineux ont été supprimés de Facebook soit quasiment quatre fois plus que deux ans auparavant [1]. Ce chiffre révèle la forte présence de la haine sur les réseaux sociaux et plus largement sur les plateformes numériques.

La vision d’Internet comme espace de libre expression est rendue utopique par la montée des contenus malveillants. Les critères de la modération sont élaborés par les plateformes elles-mêmes, qui mettent en œuvre des Conditions Générales d’Utilisation. Leur non-respect entraine souvent le bannissement de l’utilisateur, en témoigne l’actualité récente et l’exclusion de Donald Trump de Twitter.

Cette modération, aussi importante soit-elle, ne peut être effectuée entièrement par l’intelligence artificielle et les algorithmes. Elle fait appel à des nombreux acteurs plus ou moins professionnels. Leur statut questionne, mais ils garantissent une quiétude relative aux internautes. Pour Romain Badouard « la question de la régulation de la parole publique en ligne dépasse largement les relations entre États et plateformes, et implique une grande diversité́ d’acteurs qui développent des pratiques alternatives de régulation culturelle : les médias misent sur le fact-checking et la certification de l’information » [2]

Mais, si ce travail doit être effectué, il n’en demeure pas moins que les plateformes numériques ont un rôle important dans la prise de parole politique et démocratique et qu’il est indispensable de les encadrer. Alors, face à la haine en ligne, quels sont les modérateurs, et quel cadre législatif leurs imposent les Etats ?


UN STATUT DE MODERATEUR PLURIEL

L’émergence sur Internet d’une nouvelle sphère médiatique par l’avènement des plateformes numériques tels que les réseaux sociaux et les forums participatifs, a engendré la montée de discours haineux et a facilité leur circulation. L’enjeu majeur est alors de savoir dans quelle mesure les critères de modération utilisés par les plateformes numériques sont légitimes. Ne s’agit-il pas déjà d’une censure ?

Le rôle de modération revient à divers acteurs. Les internautes sont désireux de rendre les plateformes qu’ils utilisent moins en proie à la violence. Les citoyens peuvent signaler eux-mêmes des contenus qu’ils jugent inappropriés, qui seront vérifiés par des algorithmes. Il n’est pourtant pas possible d’autonomiser ces procédures car les algorithmes qui vérifient les contenus, ne prennent pas en compte le contexte du message. Pour cela, des personnes sont employées afin de supprimer le reste des contenus inappropriés. Effectuant un digital labor [3], ces travailleurs viennent souvent de pays où le coût de main d’œuvre est moins élevé. Ils sont exposés à des contenus d’une violence extrême, causant des troubles psychologiques.

Ces derniers semblent descendre des gatekeepers [4], intermédiaires chargés de gérer l’accès de certaines informations à la sphère publique, par le choix de la médiatisation. Mais on observe que ce pouvoir de « filtrage » et attribué à d’autres acteurs que les journalistes professionnels, en dehors des médias traditionnels.

Face à la prolifération des contenus haineux, les nouveaux gatekeepers ne sont pas assez nombreux. Alors, certains internautes en viennent à modérer eux-mêmes les réseaux qu’ils utilisent. On assiste à la montée d’équipes de « raids » dont le but est « de noyer les commentaires racistes, homophobes ou misogynes sous un flot de messages ouverts (…) afin de délégitimer les prises de paroles haineuses » [5]. Le collectif « #JeSuisLà » sur Facebook en est un exemple. D’autres citoyens vont plus loin en traquant, à travers les réseaux sociaux, des individus suspectés de crimes. Cette civilian police [6] tente d’appréhender les contenus illégaux ou haineux de cyber-pédophilie et de body shaming notamment.

L’initiative citoyenne de signalements peut parfois être abusive. En juin dernier, la Commission des lois a adopté un amendement créant une sanction contre les internautes en cas de sur-signalement. L’objectif est d’encadrer par la loi les procédures de signalement pour rationaliser leur traitement.

Quoi qu’il en soit, pour assurer une bonne modération, ces acteurs quadrillent une grande partie du réseau Internet. Apparaît aujourd’hui un risque de sur-signalement et d’une modération opérée sur des critères flous. Il faut alors sans doute parvenir à obliger les géants du web à aller au bout de leur rôle de modérateur, en étant plus vigilant sur la manière dont ils effectuent ce travail. L’encadrement législatif semble alors impératif.


ENCADRER LA MODERATION, UN DIFFICILE EQUILIBRE ENTRE LIBERTE ET CENSURE

La prolifération de « troubles informationnels [7] » sur Internet impose aux Etats de trouver un équilibre entre encadrement législatif des activités de modération et liberté d’expression. Si une liberté d’expression absolue risque d’accroître la « toxicité de l’espace public numérique et [de nuire] gravement à la qualité du débat public » [8], une législation trop contraignante augmente, à l’inverse, le risque de sur-censure de la part des opérateurs.

Ainsi, face aux menaces de « troubles informationnels » [9], de nombreux Etats, notamment européens, ont fait le choix d’un encadrement législatif de la modération. On assiste depuis 2018 à un phénomène d’inflation législative concernant la régulation des contenus en ligne.

L’Allemagne a légiféré en ce sens en adoptant la loi NetzDG en 2018. Cette loi vise à sanctionner les contenus haineux présents sur les réseaux sociaux, en obligeant les plateformes à retirer dans les 24 heures tout contenu manifestement malveillant après un signalement. La délégation du pouvoir de censure de l’Etat vers les grandes plateformes du web fait l’objet de critiques. Très contestée au sein du pays, la loi est qualifiée, par la presse, « d’erdoganisme » [10] pouvant mettre à mal la liberté d’expression. Les détracteurs de la loi craignent que cette législation donne aux géants du web le pouvoir de choisir et de trier les contenus.

Ceci illustre néanmoins la volonté des Etats de légiférer dans le sens d’une responsabilisation des plateformes en ligne dans leur rôle de modération. La régulation des contenus ne doit pas se faire au détriment de la liberté d’expression. Or, en France par exemple, le législateur ne semble pas parvenir à trouver le parfait équilibre.

La loi Avia [11], promulguée le 25 juin 2020 visait aussi à obliger les opérateurs de plateformes en ligne et les moteurs de recherche à retirer, dans un délai de 24 heures, après leur signalement, tous contenu illicite et haineux [12]. Censurée par le Conseil Constitutionnel, la loi contrevenait à la liberté d’expression, principe à valeur constitutionnelle [13]. Pour le Conseil il existe un risque de sur-censure. Cette loi ne pourrait « qu’inciter les opérateurs de plateforme en ligne à retirer les contenus qui leur sont signalés, qu’ils soient ou non manifestement illicites » [14]. Des questionnements autour de la légitimité des activités de modération sont alors soulevés. Un dilemme apparaît entre une nécessaire régulation par le juge, seul garant du droit ; et une régulation par les plateformes elles-mêmes, dans la mesure où l’on considère qu’elles sont responsables des propos tenus en leur sein [15].

A l’échelle européenne, la conception de l’encadrement juridique des activités de modération est différente. L’adoption du Digital Services Act [16], présenté comme une véritable Constitution numérique, porte une approche différente. Il s’agit de confier à des régulateurs nationaux, la possibilité d’étudier les pratiques de modération des plateformes. Dans cette approche, le pouvoir de modération de la liberté d’expression n’est pas intégralement délégué à des acteurs privés, il reste en partie la responsabilité des pouvoirs publics.

Quelle qu’en soit l’échelle géographique, la question de l’encadrement par la loi nécessite une prise de position claire sur le rôle attribué aux géants du web en tant que modérateurs de la parole.

En définitive, si la mise en place d’un cadre à la modération des contenus présents sur les plateformes en ligne s’impose, des difficultés apparaissent quant à la manière de l’effectuer. Les enjeux politiques nécessitent de choisir le rôle que l’on souhaite confier aux GAFAM dans la modération de l’expression populaire et dans la régulation de la parole politique en ligne. En outre, les acteurs professionnels concernés par les activités de modération font face à un flot de signalement tel, que de nombreux contenus passent entre les mailles du filet. Des internautes tentent d’assurer eux-mêmes l’ordre sur le web : une pratique qui questionne.

Antonin Bernard, Zelda Flame, Cassandra Goncalves, Nicolas Le Bot, Majda Oujana (promotion 2020-2021)


[1] Le chiffre des propos supprimés par Facebook au premier trimestre 2018 s’établissant à 2,5 millions. https://fr.statista.com/infographie/21696/nombre-de-messages-de-haine-supprimes-sur-facebook/. A noter, ces chiffres sont proposés par Facebook et relèvent donc de critères développés par la plateforme de modération elle-même.

[2] Badouard, R. (2020). La régulation des contenus sur Internet à l’heure des « fake news » et des discours de haine. Communications, 1(1), 161-173.

[3] « Les activités numériques quotidiennes des usages des plateformes sociales, d’objets connectés ou d’applications mobiles », Dominique Cardon et Antonio A. Casilli, Qu’est-ce que le digital labor ?, La revue des médias, INA.

[4] Concept théorisé par le sociologue Kurt Lewin en 1947. Les gatekeepers sont les intermédiaires de l’espace public chargés de gérer l’information dans l’espace médiatique.

[5] Badouard, R. (2020). La régulation des contenus sur Internet à l’heure des « fake news » et des discours de haine. Communications, 1(1), 161-173.

[6] Myles, D., Millerand, F. & Benoit-Barné, C. (2016). Solving Crimes Online: The Contribution of Citizens on the Reddit Bureau of Investigation. Réseaux, 3(3), 173-202.

[7] Cette expression est utilisée par Claire Wardle dans un rapport sur le Conseil de l’Europe sur le sujet « Information Disorder : Toward an Interdisciplinary Frameword for Research and Policy Making ». Les troubles informationnels regroupent les « fakes news », la propagande ciblée, le cyberharcèlement et les discours de haine. Source : Badouard, R. (2020). La régulation des contenus sur Internet à l’heure des « fake news » et des discours de haine. Communications, 1(1), 161-173.

[8] Nicolas Smyrnaios et Charis Papaevangelou, Régulation de la parole politique en ligne : les deux modèles antinomiques de Twitter et de Facebook, INA, 2020 https://larevuedesmedias.ina.fr/regulation-discours-politique-twitter-facebook-reseaux-sociaux

[9] Voir le rapport de Claire Wardle pour le Conseil de l’Europe sur le sujet :  Information Disorder : Toward an Interdisciplinary Framework for Research and Policy Making , Council of Europe Report, octobre 2017.

[10] Le journal allemand Tagesspiegel a qualifié la loi NetzDG « d’erdoganisme à l’état pur » faisant référence au président turc Erdogan, fréquemment accusé de dérives autoritaires dans son pays.  https://no.qaz.wiki/wiki/Network_Enforcement_Act

[11] LOI n° 2020-766 du 24 juin 2020 visant à lutter contre les contenus haineux sur internet : https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000042031970?r=gOf6l9ivAL

[12] Ce délai pouvant même être réduit à 1h dans le cadre de propos particulièrement haineux.

[13] La liberté d’expression est présente dans la Déclaration des Droits de l’Homme et du Citoyen, faisant partie du bloc de constitutionnalité.

[14] Point 19 de la décision du Conseil Constitutionnel : https://www.conseil-constitutionnel.fr/decision/2020/2020801DC.htm

[15] Nicolas Smyrnaios et Charis Papaevangelou, op. cit.

[16] Le Digital Services Act est un ensemble de règles européennes proposées par la Commission européenne dont le but est de créer un espace numérique plus sûr. La Commission a pour objectif de parvenir à une adoption de ce texte, au premier semestre 2020, après examen du Parlement et des États membres. https://ec.europa.eu/info/strategy/priorities-2019-2024/europe-fit-digital-age/digital-services-act-ensuring-safe-and-accountable-online-environment_fr