ऐसा लगता है कि बहुत बार हम समाचार देखते हैं कि अवैध पोस्ट या हिंसक सामग्री की लाइव स्ट्रीमिंग सहित एक या अन्य सोशल मीडिया साइट पर कुछ गंभीर अपराध या कोई अन्य किया गया था। यह आश्चर्य करना आसान हो सकता है कि इस तकनीकी रूप से उन्नत युग में, ऐसी चीजें दरारों से कैसे निकल सकती हैं।

लेकिन, तथ्य यह है कि सोशल मीडिया साइटों को प्रभावी ढंग से मॉडरेट करना लगभग असंभव है। क्यों? कुछ कारण हैं।

कुछ सोशल मीडिया साइट्स अभी भी नई हैं या अधिक आला हैं। हालाँकि, प्रमुख सोशल मीडिया साइटों के पास विशाल उपयोगकर्ता आधार हैं। सबसे बड़ी साइटों के करोड़ों से लेकर अरबों उपयोगकर्ता हैं। स्वाभाविक रूप से, कोई भी प्लेटफ़ॉर्म जो इतना बड़ा है, उसकी निगरानी करना कठिन है।

अधिकांश प्रमुख सामाजिक नेटवर्क समुदाय रिपोर्टिंग, हानिकारक सामग्री की पहचान करने के लिए प्रशिक्षित एल्गोरिदम (अपूर्ण रूप से) और कुछ मानव मध्यस्थों के संयोजन के माध्यम से इसका प्रबंधन करते हैं। जबकि एक समुदाय का सदस्य या एआई हानिकारक जानकारी की पहचान कर सकता है और रिपोर्ट कर सकता है, यह एक मानव (या मनुष्यों का समूह) है जिसका अंतिम कहना है। और, कई साइटें अपील प्रक्रिया की पेशकश करती हैं।

instagram viewer

सोशल मीडिया साइटें केवल अपने उपयोगकर्ता आधार के मामले में ही विशाल नहीं हैं। अलग-अलग राज्यों और अलग-अलग देशों में इस बारे में अलग-अलग कानून हैं कि किस तरह की सामग्री की रिपोर्ट की जानी चाहिए और कैसे।

इसलिए, विभिन्न भौगोलिक क्षेत्रों में सक्रिय सोशल मीडिया कंपनियों को अक्सर अलग-अलग उपयोगकर्ताओं के लिए अलग-अलग नीतियां रखनी पड़ती हैं। इसमें गलत सूचना और गोपनीयता के लिए अलग-अलग नीतियां शामिल हैं। वास्तव में, नाइजीरिया में प्रतिबंध हटाने के लिए ट्विटर को विशिष्ट शर्तों पर सहमत होना पड़ा.

इससे भी ज्यादा, सोशल मीडिया एक वैश्विक घटना है लेकिन यह हमेशा "वैश्विक" भाषाओं में नहीं होता है। यह सोशल मीडिया कंपनियों को सामग्री मध्यस्थों को खोजने के लिए पांव मार सकता है जो खराब अभिनेताओं के प्रति संवेदनशील उपयोगकर्ताओं को छोड़े बिना विश्व स्तर पर सेवाएं प्रदान करने के लिए क्षेत्रीय भाषाएं बोलते हैं।

एक अच्छा उदाहरण फेसबुक के मालिक मेटा का है। कंपनी हाल ही में थी नैरोबी में एक पूर्व सामग्री मॉडरेटर द्वारा मुकदमा दायर किया गया जो दावा करते हैं कि क्षेत्र में सामग्री मध्यस्थों को भूमिका लेने के लिए गुमराह किया जाता है।

3. मॉडरेटर एक कसौटी पर चल रहे हैं

अधिकांश सोशल मीडिया उपयोगकर्ता दो चीजें चाहते हैं: वे सुरक्षित महसूस करना चाहते हैं और वे स्वतंत्र महसूस करना चाहते हैं। इन दोनों इच्छाओं के बीच संतुलन बनाना सामग्री मॉडरेटर का मुश्किल काम है।

एक तरफ बहुत दूर भटकें, और उपयोगकर्ता पुलिस महसूस करेंगे। दूसरी तरफ बहुत दूर भटकें और उपयोगकर्ता परित्यक्त महसूस करेंगे। कुछ सोशल मीडिया साइटों को इससे बचने का एक तरीका समुदाय मॉडरेटर के माध्यम से है।

सामुदायिक मॉडरेटर यह व्यक्त करने में मदद करते हैं कि मॉडरेशन को बढ़ावा देने के जुनून से कुछ किया जाता है नियंत्रण या दमन करने की इच्छा के बजाय हानिकारक सामग्री की अनुमति के बिना रचनात्मक प्रवचन उपयोगकर्ता। यह मॉडल बड़े पैमाने पर चुनौतीपूर्ण है, हालांकि अलग-अलग प्लेटफॉर्म इसे अलग-अलग तरीकों से काम करते हैं।

पार्लर ऑनलाइन वापस आ गया तीसरे पक्ष की नीतियों का अनुपालन करने के लिए अपनी मॉडरेशन नीति को समायोजित करने के बाद। उनके पास एक सामुदायिक जूरी प्रणाली है जो संभावित रूप से समस्याग्रस्त पोस्ट के पहले ही रिपोर्ट किए जाने के बाद कम या ज्यादा खेल में आती है। उपयोगकर्ता रिपोर्टों को प्राथमिकता देना एक और तरीका है जिससे Parler अपने मॉडरेटर्स पर भार को हल्का करने में मदद करता है।

4. मॉडरेटर्स को एक गतिशील रेखा का पालन करना पड़ता है

सामग्री मॉडरेटर भी नैतिक ग्रे क्षेत्र की तरह महसूस कर सकते हैं। यहां तक ​​कि बोलने की आज़ादी को नियंत्रित करने वाले प्लेटफ़ॉर्म में भी संभावित रूप से हानिकारक या हिंसक सामग्री के खिलाफ नियम हैं। कुछ पोस्ट स्पष्ट रूप से हानिकारक या हिंसक हैं, जबकि अन्य कुछ उपयोगकर्ताओं (या मॉडरेटर्स) के लिए हानिकारक या खतरनाक लग सकते हैं, लेकिन दूसरों के लिए नहीं।

कई प्लेटफार्मों में उत्पादों या सेवाओं को बेचने जैसी अन्य गतिविधियों के खिलाफ भी नियम होते हैं। यह नेविगेट करने के लिए और भी पेचीदा क्षेत्र हो सकता है, विशेष रूप से कुछ साइटों के आकार और दायरे को देखते हुए।

विचार करना Reddit समुदाय मॉडरेटर क्या करते हैं. जब भी उपयोगकर्ता किसी नए समुदाय में शामिल होते हैं, तो उन्हें तुरंत उस समुदाय के नियम भेज दिए जाते हैं। उन नियमों को प्रत्येक समुदाय पेज के किनारे भी पोस्ट किया जाता है। यह प्रत्येक समुदाय को पूरी साइट के लिए कंबल नियमों के बजाय उसके अनुरूप बनाए गए नियमों का एक सबसेट रखने की अनुमति देता है।

सबरेडिट्स का विचार रेडिट को बड़े पैमाने पर सामुदायिक मध्यस्थों का उपयोग करने में भी मदद करता है। मॉडरेटर्स को पूरी साइट पर गश्त करने की कोशिश करने के बजाय अपने सब्रेडिट को मॉडरेट करने का काम सौंपा गया है।

अंत में, सोशल मीडिया वास्तव में तेजी से आगे बढ़ता है। जब आप किसी समस्याग्रस्त पोस्ट के बारे में सुनते हैं, तो हो सकता है कि मूल पोस्टर द्वारा उसे हटा दिए जाने के बाद ही यह सही हो। इस घटना में कि लाइव होने के दौरान पोस्ट की रिपोर्ट नहीं की गई थी, तथ्य के बाद इसका जवाब देना मुश्किल हो सकता है।

2015 में एक मामले में, सोशल मीडिया साइट यिकयाक पर एक पोस्ट को मूल पोस्ट के बदले हुए संस्करण का उपयोग करते हुए पुलिस को सूचित किया गया था, जिसे पहले ही हटा दिया गया था। ऑनलाइन सामग्री मध्यस्थों द्वारा आंतरिक रूप से जो हल किया जा सकता था, वह एक लंबा कानूनी नाटक बन गया जिसने पूरे समुदाय को परेशान कर दिया।

फेसबुक समेत कई सोशल मीडिया साइट्स के पास है संदिग्ध पोस्ट को संरक्षित करने के लिए नीतियां घटना में कि उन्हें कानून प्रवर्तन सहित विकासशील स्थितियों में संदर्भित करने की आवश्यकता है।

लेकिन लाइवस्ट्रीमिंग जैसी सुविधाओं का मतलब है कि सामग्री जैसे-जैसे घटित होती है, ऊपर जाती है, जो एल्गोरिदम बहुत देर होने तक चूक सकते हैं।

अपने मॉडरेटर को एक सिक्का उछालें

यदि आप कुछ ऐसा ऑनलाइन देखते हैं जो आपको चिंतित करता है, तो इसकी रिपोर्ट करने के लिए दिए गए चैनलों पर जाएं। परेशान या संदेहास्पद होने से बचने की कोशिश करें क्योंकि सोशल मीडिया को मॉडरेट करना कठिन है। यदि आपकी या किसी पोस्ट की रिपोर्ट की जाती है तो भी ऐसा ही होता है। सोशल मीडिया उपयोगकर्ताओं को सुरक्षित रखने के लिए यह शायद एक सुविचारित कदम है।