Цензура в соцмережі залежить від доходу

Цензура або модерація контенту є одним із найскладніших аспектів соціальних мереж. На таких великих платформах, як Facebook і Twitter, результати спочатку будуть зручними і дешевими, якщо думати, що вони будуть схожі на телефонні компанії або поштову службу. Ваша місія в цьому випадку полягатиме просто в тому, щоб перемістити створений користувачами вміст з одного сайту на інший і не втручатися. Насправді втручання без судового дозволу, у випадку телефону та пошти, є порушенням прав. У соціальних мережах контент також генерується користувачем, але це не приватне повідомлення. Це породило дилему: чи повинні соціальні мережі гарантувати необмежену свободу вираження поглядів

користувачі (які також можуть залишатися анонімними) чи вони повинні виступати як янголи-охоронці Інтернету?

Згідно з даними, опублікованими цим додатком, у світі налічується 4.620 мільйонів людей, які використовують мережі для публікації своїх думок, і деякі з цих повідомлень можуть вважатися образливими або шкідливими для інших людей. Марк Цукерберг, засновник і власник Facebook, вже давно говорить, що модерація контенту є одним із його пріоритетів. У 2019 році він пообіцяв спрямувати на це завдання 5% свого доходу (близько 3.700 млрд доларів). Стаття 2020 року підтвердила, що «платформи, такі як Facebook, повинні йти на компроміс... між свободою вираження поглядів і безпекою» і що рідко існує єдина «правильна» відповідь.

Дилема, по суті, народжується в кожній людині. Вони, з одного боку, хочуть мати можливість висловлювати свою думку без будь-якого фільтра, але, з іншого боку, вони хочуть, щоб вміст, який здається невідповідним або шкідливим, був видалений. Опитування показують, що існує широкий спектр терпимості до вмісту, який вважається шкідливим. Опитування Morningconsult, проведене у 2019 році, показало, що 80% опитаних заперечували усунення ненависті расового, релігійного чи гендерного характеру, 73% були віддані придушенню відео, що показують насильницькі злочини, а 66% суперечили зображенням сексуальний вміст.

Ця неоднорідність забезпечує широке поле довільної цензури. Найновіші дослідження показують, що стратегія модерації соціальної мережі залежить від моделі доходу, згідно з трьома дослідниками з Wharton School of Business при Університеті Пенсільванії, які опублікували дослідження в грудні під назвою «Наслідки моделі доходу та технології для контенту». Стратегії модерації».

У роботі зазначено, що більш імовірно, що соціальні мережі, які фінансуються за рахунок рекламних доходів, мають тенденцію до модерації контенту, ніж ті, які отримують свій дохід за підпискою, де оплата вже є фільтром. Але коли діють платформи, ті, які фінансуються за рахунок реклами, пом’якшуються менш агресивно, ніж платні, тому що їх інтерес полягає в тому, щоб утримати найбільшу кількість людей, щоб показати їх рекламодавцям. У цьому випадку цензура або модерація вмісту також є нормою права для продукту і виконує подвійну функцію: розширює базу користувачів або залучає більше з них для підписки, підвищуючи його корисність і задоволення (усуваючи те, що вас турбує). будинок мера).

Ця подвійна роль, кажуть автори, «закорінена в природі соціальних медіа, де користувачі люблять читати й публікувати, але також чутливі до вмісту, який вони вважають шкідливим. Для соціального планувальника (уряду або органу, який встановлює правила від імені суспільства), який піклується про добробут користувачів, модерація є інструментом для усунення негативних повідомлень. З цієї точки зору ми показуємо, що комерційні платформи частіше використовують цю подвійність і помірний вміст, ніж соціальний планувальник. Іншими словами, платформи мають більше стимулів до модерації в інтересах соціальних планувальників».

Але більше стимулів не завжди означає правильні стимули. Через цензуру вмісту рекламна платформа буде менш суворою, ніж соціальний планувальник, тоді як платформа на основі підписки буде більш суворою. Загалом, влада захищає, що є місце для державного регулювання соціальних мереж, і, коли це виправдано, його слід диференціювати за моделлю доходів, яку має кожна платформа.

Спосіб модерації вмісту також залежить від технічної складності, з якою це робиться. За допомогою комп’ютерів та штучного інтелекту на мисі підняли значний обсяг модерації контенту. Через свою недосконалість платформа може цензурувати нешкідливий вміст і дозволяти невідповідний вміст. Тому не можна судити про те, чи є платформа більшою чи меншою поляризацією у своїй політиці модерації вмісту. Результати дослідження ставлять під сумнів, чи зможуть платформи самостійно усунути технологічні недоліки.

Facebook – це платформа, яка найбільше турбується про вплив свого вмісту. До того, як він був старшим за своїх керівників, Цукерберг пообіцяв найняти 10.000 5 модераторів, а потім присвятити цьому завдання XNUMX% свого обороту. Велика проблема в тому, що штучний інтелект поки що виявився недостатнім для розвитку цієї функції з гарантіями, а вартість модерації надзвичайно висока.