Sensor di jejaring sosial tergantung pada pendapatan

Sensor atau moderasi konten adalah salah satu aspek yang paling kompleks dari jaringan sosial. Pada platform besar seperti Facebook dan Twitter, hasilnya awalnya akan nyaman dan murah untuk berpikir bahwa mereka akan menjadi seperti perusahaan telepon atau layanan pos. Misi Anda, dalam hal ini, hanyalah memindahkan konten yang dibuat pengguna dari satu situs ke situs lain dan tidak terlibat. Padahal, intervensi tanpa izin pengadilan, dalam hal telepon dan surat, merupakan pelanggaran hak. Di jejaring sosial, konten juga dibuat oleh pengguna, tetapi itu bukan pesan pribadi. Hal ini menimbulkan dilema: apakah jejaring sosial harus menjamin kebebasan berekspresi tanpa batas?

pengguna (yang juga dapat tetap anonim) atau haruskah mereka bertindak sebagai malaikat pelindung internet?

Menurut data yang diterbitkan oleh suplemen ini, ada 4.620 juta orang di dunia yang menggunakan jaringan untuk mempublikasikan pendapat mereka dan beberapa dari pesan ini mungkin dianggap menyinggung atau berbahaya bagi orang lain. Mark Zuckerberg, pendiri dan pemilik Facebook, telah lama mengatakan bahwa moderasi konten adalah salah satu prioritasnya. Pada 2019, ia berjanji untuk mengalokasikan 5% dari pendapatannya (sekitar 3.700 miliar dolar) untuk tugas ini. Sebuah artikel tahun 2020 menegaskan bahwa “platform seperti Facebook harus melakukan pertukaran… antara kebebasan berekspresi dan keamanan” dan jarang ada satu jawaban yang “benar”.

Dilema itu sebenarnya lahir dari diri masing-masing individu. Ini, di satu sisi, ingin dapat mengekspresikan pendapat mereka tanpa filter apa pun, tetapi, di sisi lain, mereka ingin konten yang tampaknya tidak pantas atau berbahaya dihapus. Survei menunjukkan bahwa ada spektrum toleransi yang luas terhadap konten yang dinilai berbahaya. Survei Morningconsult yang dilakukan pada tahun 2019 menunjukkan bahwa 80% dari mereka yang dikonsultasikan menyangkal penghapusan pesan kebencian yang bersifat rasial, agama atau gender, 73% berkomitmen untuk menekan video yang menunjukkan kejahatan kekerasan dan 66% bertentangan dengan gambar konten seksual.

Heterogenitas ini memungkinkan bidang sensor sewenang-wenang yang luas. Studi terbaru menunjukkan bahwa strategi moderasi jaringan sosial dikondisikan oleh model pendapatannya, menurut tiga peneliti dari Wharton School of Business di University of Pennsylvania yang menerbitkan sebuah studi pada bulan Desember berjudul 'Implikasi Model Pendapatan dan Teknologi untuk Konten Strategi Moderasi'.

Pekerjaan tersebut menunjukkan bahwa kemungkinan besar jaringan sosial yang dibiayai dengan pendapatan iklan cenderung memoderasi konten daripada yang menerima pendapatan mereka dengan berlangganan, di mana pembayaran sudah merupakan filter. Tetapi ketika platform bertindak, mereka yang dibiayai dengan iklan moderat dengan cara yang kurang agresif daripada yang dibayar karena minat mereka terletak pada mempertahankan jumlah terbesar orang untuk mengekspos mereka kepada pengiklan. Dalam hal ini, sensor atau moderasi konten juga merupakan aturan hukum untuk produk dan memenuhi fungsi ganda: memperluas basis pengguna atau mendapatkan lebih banyak dari mereka untuk berlangganan, meningkatkan kegunaan dan kepuasan (menghilangkan apa yang mengganggu Anda). rumah walikota).

Peran ganda ini, kata penulis, “berakar pada sifat media sosial di mana pengguna menikmati membaca dan memposting, tetapi juga sensitif terhadap konten yang mereka anggap berbahaya. Untuk perencana sosial (pemerintah atau badan yang menetapkan aturan atas nama masyarakat) yang peduli dengan kesejahteraan pengguna, moderasi adalah alat untuk menghilangkan pesan kontribusi negatif. Dari sudut pandang ini, kami menunjukkan bahwa platform nirlaba lebih cenderung menggunakan dualitas dan konten moderat ini daripada perencana sosial. Dengan kata lain, platform memiliki lebih banyak insentif untuk moderasi demi kepentingan perencana sosial.”

Namun, lebih banyak insentif tidak selalu berarti insentif yang tepat. Dengan menyensor konten, platform yang didukung iklan akan lebih ketat daripada perencana sosial, sementara platform berbasis langganan akan lebih ketat. Secara umum, pihak berwenang membela bahwa ada ruang untuk peraturan pemerintah tentang jejaring sosial dan, jika ini dibenarkan, harus dibedakan dengan model pendapatan yang dimiliki setiap platform.

Cara memoderasi konten juga bergantung pada kecanggihan teknis yang digunakan. Volume moderasi konten yang signifikan telah ditingkatkan dengan bantuan komputer dan kecerdasan buatan. Karena ketidaksempurnaannya, platform dapat menyensor konten yang tidak berbahaya dan mengizinkan konten yang tidak pantas. Oleh karena itu, tidak dapat dinilai apakah suatu platform kurang lebih terpolarisasi dalam kebijakan moderasi kontennya. Temuan penelitian ini menimbulkan keraguan apakah platform tersebut akan mampu memperbaiki kekurangan teknologinya sendiri.

Facebook adalah platform yang paling mengkhawatirkan dampak kontennya. Sebelum dia lebih tua dari para eksekutifnya mengetahui kerusakan yang disebabkan oleh pesan tertentu, Zuckerberg berjanji untuk mempekerjakan 10.000 moderator dan kemudian mendedikasikan 5% dari omsetnya untuk tugas ini. Masalah besar adalah bahwa kecerdasan buatan, untuk saat ini, telah menunjukkan dirinya tidak cukup untuk mengembangkan fungsi ini dengan jaminan dan biaya moderasi sangat tinggi.