Цензура в соцсети зависит от дохода

Цензура или модерация контента — один из самых сложных аспектов социальных сетей. На больших платформах, таких как Facebook и Twitter, результаты сначала будут удобными и дешевыми, если подумать, что они будут как у телефонных компаний или почтовых служб. Ваша миссия в этом случае будет заключаться в том, чтобы просто перемещать пользовательский контент с одного сайта на другой и не вмешиваться. По сути, вмешательство без судебной санкции в случае с телефоном и почтой является нарушением прав. В социальных сетях контент тоже генерируется пользователем, но это не личное сообщение. Возникла дилемма: должны ли социальные сети гарантировать неограниченную свободу выражения

пользователи (которые также могут оставаться анонимными) или они должны действовать как ангелы-хранители Интернета?

Согласно данным, опубликованным этим приложением, в мире насчитывается 4.620 2019 миллионов человек, которые используют сети для публикации своего мнения, и некоторые из этих сообщений могут быть сочтены оскорбительными или вредными для других людей. Марк Цукерберг, основатель и владелец Facebook, давно говорит, что модерация контента является одним из его приоритетов. В 5 году он пообещал направить на это задание 3.700% своего дохода (около 2020 млрд долларов). Статья XNUMX года подтвердила, что «таким платформам, как Facebook, приходится идти на компромисс… между свободой выражения мнений и безопасностью» и что редко существует единственный «правильный» ответ.

Дилемма, на самом деле, рождается с каждым человеком. Они, с одной стороны, хотят иметь возможность выражать свое мнение без каких-либо фильтров, но, с другой стороны, они хотят, чтобы контент, который кажется неуместным или вредным, удалялся. Опросы показывают, что существует широкий спектр терпимости к контенту, который считается вредным. Опрос Morningconsult, проведенный в 2019 году, показал, что 80% опрошенных отрицали удаление сообщений ненависти расового, религиозного или гендерного характера, 73% были привержены подавлению видео, демонстрирующих насильственные преступления, а 66% были против изображений сексуальное содержание.

Эта неоднородность допускает широкое поле произвольной цензуры. Самые последние исследования показывают, что модерирующая стратегия социальной сети зависит от ее модели доходов, согласно трем исследователям из Уортонской школы бизнеса Пенсильванского университета, опубликовавшим в декабре исследование под названием «Влияние модели доходов и технологии для контента». Стратегии модерации».

В работе указано, что более вероятно, что социальные сети, финансируемые за счет доходов от рекламы, склонны модерировать контент, чем те, которые получают доход от подписки, где платеж уже представляет собой фильтр. Но когда платформы действуют, те, которые финансируются за счет рекламы, умеряют менее агрессивно, чем платные, потому что их интерес заключается в том, чтобы удержать как можно больше людей, чтобы представить их рекламодателям. В этом случае цензура или модерация контента также является нормой закона для продукта и выполняет двойную функцию: расширяет базу пользователей или привлекает больше их к подписке, повышая его полезность и удовлетворенность (устраняя то, что вас беспокоит). дом мэра).

Эта двойная роль, говорят авторы, «коренится в природе социальных сетей, где пользователям нравится и читать, и публиковать, но они также чувствительны к контенту, который они считают вредным. Для специалиста по социальному планированию (правительство или орган, устанавливающий правила от имени общества), который заботится о благополучии пользователей, модерация является инструментом устранения негативных сообщений. С этой точки зрения мы показываем, что коммерческие платформы чаще используют эту двойственность и модерируют контент, чем социальные планировщики. Другими словами, у платформ больше стимулов для модерации в интересах специалистов по социальному планированию».

Но большее количество стимулов не всегда означает правильные стимулы. Цензурируя контент, платформа с рекламой будет менее строгой, чем социальная планировщик, в то время как платформа на основе подписки будет более строгой. В целом власти утверждают, что существует возможность государственного регулирования социальных сетей, и, когда это оправдано, оно должно быть дифференцировано в зависимости от модели доходов, которую имеет каждая платформа.

Способ модерации контента также зависит от технической сложности, с которой это делается. Значительный объем модерации контента поднят на мыс с помощью компьютеров и искусственного интеллекта. Из-за своего несовершенства платформа может подвергать цензуре безобидный контент и разрешать неприемлемый контент. Следовательно, нельзя судить о том, является ли платформа более или менее поляризованной в своей политике модерации контента. Выводы исследования ставят под сомнение способность платформ самостоятельно устранять технологические недостатки.

Facebook — это платформа, которая больше всего беспокоится о влиянии своего контента. Прежде чем его руководители узнали об ущербе, причиняемом определенными сообщениями, Цукерберг пообещал нанять 10.000 5 модераторов, а затем посвятить этой задаче XNUMX% своего оборота. Большая проблема в том, что искусственный интеллект на данный момент показал себя недостаточным для развития этой функции с гарантиями, а стоимость модерации крайне высока.