La censure dans un réseau social dépend des revenus

La censure ou la modération des contenus est l'un des aspects les plus complexes des réseaux sociaux. Sur les grandes plateformes comme Facebook et Twitter, les résultats seront d'abord confortables et bon marché à penser qu'ils seront comme les compagnies de téléphone ou la poste. Votre mission, dans ce cas, sera simplement de déplacer le contenu généré par les utilisateurs d'un site à un autre et de ne pas vous impliquer. En effet, l'intervention sans autorisation judiciaire, dans le cas du téléphone et du courrier, est une violation des droits. Dans les réseaux sociaux, le contenu est également généré par l'utilisateur, mais ce n'est pas un message privé. Cela soulevait un dilemme : les réseaux sociaux doivent-ils garantir la liberté d'expression sans restriction des

utilisateurs (qui peuvent aussi rester anonymes) ou doivent-ils agir comme les anges gardiens d'internet ?

Selon les données publiées par ce supplément, il y a 4.620 2019 millions de personnes dans le monde qui utilisent les réseaux pour publier leurs opinions et certains de ces messages peuvent être considérés comme offensants ou nuisibles pour autrui. Mark Zuckerberg, fondateur et propriétaire de Facebook, a longtemps déclaré que la modération de contenu était l'une de ses priorités. En 5, il avait promis d'allouer 3.700% de ses revenus (environ 2020 milliards de dollars) à cette tâche. Un article de XNUMX a confirmé que "les plateformes comme Facebook doivent faire des compromis… entre la liberté d'expression et la sécurité" et qu'il y a rarement une seule "bonne" réponse.

Le dilemme, en fait, naît avec chaque individu. Ceux-ci, d'une part, veulent pouvoir exprimer leurs opinions sans aucun filtre, mais, d'autre part, ils veulent que les contenus qui leur semblent inappropriés ou nuisibles soient supprimés. Les enquêtes montrent qu'il existe un large spectre de tolérance envers les contenus jugés préjudiciables. Une enquête Morningconsult réalisée en 2019 indiquait que 80% des personnes consultées niaient l'élimination des messages haineux à caractère racial, religieux ou sexiste, 73% s'engageaient pour la suppression des vidéos montrant des crimes violents et 66% étaient contraires aux images de contenu sexuel.

Cette hétérogénéité permet un large champ de censure arbitraire. Les études les plus récentes indiquent que la stratégie de modération d'un réseau social est conditionnée par son modèle de revenus, selon trois chercheurs de la Wharton School of Business de l'Université de Pennsylvanie qui ont publié en décembre une étude intitulée 'Revenue Model Implications and Technology for Content Stratégies de modération ».

Les travaux ont souligné qu'il est plus probable que les réseaux sociaux financés par les revenus publicitaires aient tendance à modérer les contenus que ceux qui reçoivent leurs revenus par abonnement, où le paiement constitue déjà un filtre. Mais quand les plateformes agissent, celles qui sont financées par la publicité modèrent de manière moins agressive que les payantes car leur intérêt est de retenir le plus grand nombre de personnes pour les exposer aux annonceurs. Dans ce cas, la censure ou la modération des contenus est aussi une règle de droit pour le produit et remplit une double fonction : élargir la base d'utilisateurs ou les faire s'abonner davantage, en augmentant son utilité et sa satisfaction (en éliminant ce qui vous dérange). la maison du maire).

Ce double rôle, disent les auteurs, « est enraciné dans la nature des médias sociaux où les utilisateurs aiment à la fois lire et publier, mais sont également sensibles aux contenus qu'ils jugent nuisibles. Pour un planificateur social (un gouvernement ou un organisme qui établit des règles au nom de la société) qui se soucie du bien-être des utilisateurs, la modération est un outil pour éliminer les messages de contribution négatifs. De ce point de vue, nous montrons que les plateformes à but lucratif sont plus susceptibles d'utiliser cette dualité et le contenu modéré que le social planner. En d'autres termes, les plateformes sont davantage incitées à la modération dans l'intérêt des planificateurs sociaux.

Mais plus d'incitations ne signifie pas toujours les bonnes incitations. En censurant le contenu, une plateforme financée par la publicité sera moins stricte qu'un planificateur social, tandis qu'une plateforme basée sur un abonnement sera plus stricte. De manière générale, les autorités défendent qu'il y a de la place pour une régulation gouvernementale des réseaux sociaux et, lorsque cela est justifié, elle devrait être différenciée par le modèle de revenus dont dispose chaque plateforme.

La façon de modérer le contenu dépend également de la sophistication technique avec laquelle il est fait. Un volume important de modération de contenu a été relevé sur le cap à l'aide d'ordinateurs et d'intelligence artificielle. En raison de ses imperfections, une plateforme peut censurer un contenu inoffensif et autoriser un contenu inapproprié. Par conséquent, on ne peut pas juger si une plateforme est plus ou moins polarisante dans sa politique de modération de contenu. Les conclusions de l'étude laissent planer un doute sur la capacité des plateformes à remédier seules aux lacunes technologiques.

Facebook est la plateforme qui s'inquiète le plus de l'impact de son contenu. Avant qu'il ne soit plus âgé que ses dirigeants ne connaissaient les dégâts causés par certains messages, Zuckerberg avait promis d'embaucher 10.000 5 modérateurs puis de consacrer XNUMX % de son chiffre d'affaires à cette tâche. Le gros problème est que l'intellect artificiel, pour l'instant, s'est montré insuffisant pour développer cette fonction avec des garanties et le coût de la modération est extrêmement élevé.