Sansi nan yon rezo sosyal depann sou revni

La censura o moderación de los contenidos es uno de los aspectos más complejos de las redes sociales. En las grandes plataformas como Facebook y Twitter, los resultados inicialmente serán cómodos y baratos para pensar que serán como las compañías telefónicas o el correo postal. Su misión, en este caso, será simplemente trasladar un contenido generado por el usuario de un sitio a otro y no enterometerse. De hecho, la intervención sin autorización judicial, en el caso de las telefónicas y el correo, es una vulneración de derechos. En las redes sociales, el contenido también lo genera el usuario, pero no es un mensaje privado. Esto planteó un dilema: ¿las redes sociales tienen qu’garantizar la libertad de expresión irrestricta de los

usuarios (que además pueden proceder amparados en el anonimato) o deben actuar como los ángeles custodios de internet?

Según los datos publicados por este suplemento, hay 4.620 millones de personas en el mundo que utilizan las redes para publicar sus opiniones y algunos de estos mensajes pueden ser considerados ofensivos o dañinos para otras personas. Desde hace mucho tiempo que Mark Zuckerberg, fundador y dueño de Facebook, ha dicho que la moderación de contenidos es una de sus prioridades. En 2019, prometió destinar el 5% de sus ingresos (unos 3.700 millones de dólares) a esta tarea. En un artículo de 2020 se confirmó que “plataformas como Facebook tienen que asumir ‘trade-offs’ (soluciones de compromiso)… entre la libertad de expresión y la seguridad” y que raras veces hay una sola respuesta “correcta”.

EL dilema, de hecho, nace con cada individuo. Estos, por un lado, quieren poder expresar sus opiniones sin filtro alguno, pero, por otro lado, desean que se supriman los contenidos que les parecen inapropiados o perjudiciales. Los sondeos demuestran que hay un amplio espectro de tolerancia hacia los contenidos juzgados como dañinos. Una encuesta de Morningconsult realizada en 2019 indicaba que el 80% de los consultados negaba la eliminación de los mensajes de odio de corte racial, religioso o de género, un 73% apostaba por la supresión de vídeos que mostraban delitos violentos y un 66% se mostraba contrario a las imágenes de contenido sexual.

Esta heterogeneidad permite un amplio campo de arbitrariedad a la censura. Los estudios más recientes indican que la estrategia moderadora de una red social está condicionada a su modelo de ingresos, según tres investigadores de la escuela de negocios Wharton de la Universidad de Pennsylvania que publicaron en diciembre un estudio titulado ‘Implicaciones del Modelo de Ingresos y de la Tecnología para las Estrategias de Moderación de Contenidos’.

EL trabajo señaló que es más probable que las redes sociales que se financian con ingresos por publicidad tiendan a moderar contenidos que aquellos que reciben sus ingresos por suscripción, donde el pago ya constituye un filtro. Pero cuando las plataformas actúan, las que se financian con publicidad moderan de una manera menos agresiva que las de pago porque su interés radica en retener al mayor número de personas para exponerlas a los avisadores. En este caso, la censura o moderación de contenidos es también una norma de derecho forma al producto y cumple una doble función: ampliar la base de usuarios o conseguir que se suscriban más de ellos, incrementando su utilidad y satisfacción (eliminando aquello que le molesta en casa del alcalde).

Esta doble función, dicen los autores, “está enraizada en la naturaleza de las redes sociales donde los usuarios disfrutan tanto de leer como de publicar, pero también son sensibles al contenido que estiman dañino. Para un planificador social (un gobierno o un organismo que fije reglas en nombre de la sociedad) que se preocupa por el bienestar de los usuarios, la moderación es una herramienta para eliminar mensajes contribuciones negativas. Desde este punto de vista, demostramos que las plataformas con fines de lucro tienen más posibilidades de utilizar esta dualidad y moderar el contenido que el planificador social. En otras palabras, las plataformas tienen más incentivos a la moderación por el interés de los planificadores sociales”.

Pero, más incentivos no siempre supone incentivos correctos. Al censurar los contenidos, una plataforma con publicidad será menos estricta que un planificador social, mientras que una plataforma con suscripción será más estricta. En términos generales, las autoridades defienden que hay espacio para una regulación gubernamental de las redes sociales y, cuando ésta esté justificada, debería diferenciarse por el modelo de ingresos que tiene cada plataforma.

La forma de moderar los contenidos también depende de la sofisticación técnica con que se realice. Se ha elevado un volumen importante de moderación de contenidos en el cabo con la ayuda de ordenadores e inteligencia artificial. Debido a sus imperfecciones, una plataforma puede censurar el contenido inofensivo y admitir el inapropiado. Por lo tanto, no se puede juzgar si una plataforma es más o menos polarizadora de su política de moderación de contenidos. Los hallazgos del estudio arrojan dudas sobre si las plataformas podrán remediar las deficiencias tecnológicas por sí mismas.

Facebook es la plataforma que más preocupa por el impacto de sus contenidos. Antes de que sea mayor que sus ejecutivos conocían el daño que causaban ciertos mensajes, Zuckerberg se comprometió a contratar 10.000 moderadores y, después, dedicar el 5% de su facturación a esta tarea. El gran problema es que la intellect artificial, de momento, se ha mostrado insuficiente de déarrollar esta función con garantías y el coste de la moderation resulta elevadísimo.