सामाजिक नेटवर्क में सेंसरशिप आय पर निर्भर करती है

सामग्री की सेंसरशिप या मॉडरेशन सामाजिक नेटवर्क के सबसे जटिल पहलुओं में से एक है। फेसबुक और ट्विटर जैसे बड़े प्लेटफार्मों पर, परिणाम शुरू में सुविधाजनक और सस्ते होंगे, यह सोचकर कि वे टेलीफोन कंपनियों या डाक मेल की तरह होंगे। इस मामले में, आपका मिशन केवल उपयोगकर्ता-जनित सामग्री को एक साइट से दूसरी साइट पर ले जाना होगा और इसमें शामिल नहीं होना होगा। वास्तव में, टेलीफोन कंपनियों और मेल के मामले में न्यायिक प्राधिकरण के बिना हस्तक्षेप अधिकारों का उल्लंघन है। सोशल नेटवर्क पर सामग्री भी उपयोगकर्ता द्वारा तैयार की जाती है, लेकिन यह कोई निजी संदेश नहीं है। इससे एक दुविधा उत्पन्न हुई: क्या सामाजिक नेटवर्क को अभिव्यक्ति की अप्रतिबंधित स्वतंत्रता की गारंटी देनी होगी

उपयोगकर्ता (जो गुमनाम रहकर भी आगे बढ़ सकते हैं) या क्या उन्हें इंटरनेट के संरक्षक देवदूत के रूप में कार्य करना चाहिए?

इस पूरक द्वारा प्रकाशित आंकड़ों के अनुसार, दुनिया में 4.620 अरब लोग हैं जो अपनी राय प्रकाशित करने के लिए नेटवर्क का उपयोग करते हैं और इनमें से कुछ संदेशों को अन्य लोगों के लिए आक्रामक या हानिकारक माना जा सकता है। फेसबुक के संस्थापक और मालिक मार्क जुकरबर्ग ने लंबे समय से कहा है कि सामग्री मॉडरेशन उनकी प्राथमिकताओं में से एक है। 2019 में, इसने इस कार्य के लिए अपनी आय का 5% (लगभग $3.700 बिलियन) आवंटित करने का वादा किया। 2020 के एक लेख ने पुष्टि की कि "फेसबुक जैसे प्लेटफार्मों को अभिव्यक्ति की स्वतंत्रता और सुरक्षा के बीच व्यापार-बंद करना पड़ता है" और इसका शायद ही कोई "सही" उत्तर हो।

वास्तव में, दुविधा प्रत्येक व्यक्ति के साथ पैदा होती है। ये, एक ओर, बिना किसी फ़िल्टर के अपनी राय व्यक्त करने में सक्षम होना चाहते हैं, लेकिन दूसरी ओर, वे चाहते हैं कि जिस सामग्री को वे अनुचित या हानिकारक मानते हैं उसे दबा दिया जाए। सर्वेक्षणों से पता चलता है कि हानिकारक मानी जाने वाली सामग्री के प्रति सहिष्णुता का दायरा व्यापक है। 2019 में किए गए मॉर्निंगकंसल्ट सर्वेक्षण से संकेत मिलता है कि जिन लोगों से सलाह ली गई उनमें से 80% ने नस्लीय, धार्मिक या लैंगिक प्रकृति के नफरत भरे संदेशों को हटाने से इनकार किया, 73% ने हिंसक अपराध दिखाने वाले वीडियो को हटाने का समर्थन किया और 66% सहमत हुए। की छवियों का विरोध दिखाया। यौन सामग्री.

यह विविधता सेंसरशिप के लिए मनमानी के व्यापक क्षेत्र की अनुमति देती है। पेंसिल्वेनिया विश्वविद्यालय के व्हार्टन बिजनेस स्कूल के तीन शोधकर्ताओं के अनुसार, हाल के अध्ययनों से संकेत मिलता है कि सोशल नेटवर्क की मॉडरेशन रणनीति उसके राजस्व मॉडल द्वारा निर्धारित होती है, जिन्होंने दिसंबर में 'राजस्व और विपणन मॉडल के निहितार्थ' शीर्षक से एक अध्ययन प्रकाशित किया था। सामग्री मॉडरेशन रणनीतियों के लिए प्रौद्योगिकी'।

कार्य में बताया गया है कि यह अधिक संभावना है कि जिन सामाजिक नेटवर्कों को विज्ञापन राजस्व से वित्तपोषित किया जाता है, वे उन लोगों की तुलना में सामग्री को मॉडरेट करते हैं जो सदस्यता द्वारा अपनी आय प्राप्त करते हैं, जहां भुगतान पहले से ही एक फिल्टर का गठन करता है। लेकिन जब प्लेटफ़ॉर्म कार्य करते हैं, तो विज्ञापन द्वारा वित्तपोषित प्लेटफ़ॉर्म भुगतान वाले प्लेटफ़ॉर्म की तुलना में कम आक्रामक तरीके से मॉडरेट करते हैं क्योंकि उनकी रुचि विज्ञापनदाताओं के सामने उन्हें उजागर करने के लिए सबसे बड़ी संख्या में लोगों को बनाए रखने में होती है। इस मामले में, सेंसरशिप या सामग्री मॉडरेशन भी कानून का एक नियम है जो उत्पाद बनाता है और एक दोहरे कार्य को पूरा करता है: उपयोगकर्ता आधार का विस्तार करना या उनमें से अधिक को सदस्यता दिलाना, उनकी उपयोगिता और संतुष्टि को बढ़ाना (जो उन्हें परेशान करता है उसे खत्म करना)। मेयर का घर)।

लेखकों का कहना है कि यह दोहरा कार्य, “सामाजिक नेटवर्क की प्रकृति में निहित है जहां उपयोगकर्ता पढ़ने और प्रकाशित करने दोनों का आनंद लेते हैं, लेकिन उस सामग्री के प्रति भी संवेदनशील होते हैं जिसे वे हानिकारक मानते हैं। एक सामाजिक योजनाकार (एक सरकार या एक निकाय जो समाज की ओर से नियम निर्धारित करता है) के लिए जो उपयोगकर्ताओं की भलाई की परवाह करता है, संदेशों से नकारात्मक योगदान को हटाने के लिए मॉडरेशन एक उपकरण है। इस दृष्टिकोण से, हम दिखाते हैं कि लाभ के लिए प्लेटफ़ॉर्म सामाजिक योजनाकार की तुलना में इस द्वंद्व और मध्यम सामग्री का उपयोग करने की अधिक संभावना रखते हैं। दूसरे शब्दों में, सामाजिक योजनाकारों की रुचि के कारण प्लेटफार्मों के पास संयम के लिए अधिक प्रोत्साहन हैं।

लेकिन, अधिक प्रोत्साहन का मतलब हमेशा सही प्रोत्साहन नहीं होता है। सामग्री को सेंसर करते समय, एक विज्ञापन-समर्थित प्लेटफ़ॉर्म एक सामाजिक योजनाकार की तुलना में कम सख्त होगा, जबकि एक सदस्यता-आधारित प्लेटफ़ॉर्म अधिक सख्त होगा। सामान्य शब्दों में, अधिकारी इस बात का बचाव करते हैं कि सामाजिक नेटवर्क के सरकारी विनियमन के लिए जगह है और, जब उचित हो, तो इसे प्रत्येक प्लेटफ़ॉर्म के राजस्व मॉडल से अलग किया जाना चाहिए।

सामग्री को जिस तरह से संचालित किया जाता है वह उस तकनीकी परिष्कार पर भी निर्भर करता है जिसके साथ इसे किया जाता है। कंप्यूटर और कृत्रिम बुद्धिमत्ता की मदद से केप पर सामग्री मॉडरेशन की एक महत्वपूर्ण मात्रा में वृद्धि हुई है। अपनी खामियों के कारण, एक मंच हानिरहित सामग्री को सेंसर कर सकता है और अनुचित सामग्री को स्वीकार कर सकता है। इसलिए, कोई यह तय नहीं कर सकता कि कोई प्लेटफ़ॉर्म अपनी सामग्री मॉडरेशन नीति से कमोबेश ध्रुवीकरण कर रहा है या नहीं। अध्ययन के निष्कर्षों से इस बात पर संदेह पैदा होता है कि क्या प्लेटफ़ॉर्म अपने दम पर तकनीकी कमियों को दूर करने में सक्षम होंगे।

फेसबुक वह प्लेटफॉर्म है जो अपने कंटेंट के प्रभाव को लेकर सबसे ज्यादा चिंतित है। इससे पहले कि उनके अधिकारियों को कुछ संदेशों से होने वाले नुकसान का पता चले, जुकरबर्ग ने 10.000 मध्यस्थों को नियुक्त करने और फिर अपने राजस्व का 5% इस कार्य के लिए समर्पित करने का वादा किया। बड़ी समस्या यह है कि कृत्रिम बुद्धिमत्ता, फिलहाल, इस फ़ंक्शन को गारंटी के साथ विकसित करने के लिए अपर्याप्त साबित हुई है और मॉडरेशन की लागत बहुत अधिक है।