अगस्त 2021 में, Apple ने बाल यौन शोषण की छवियों के लिए iPhones को स्कैन करने की अपनी योजना का खुलासा किया। इस कदम ने बाल संरक्षण समूहों से तालियां बटोरीं लेकिन गोपनीयता और सुरक्षा विशेषज्ञों के बीच चिंता जताई कि इस सुविधा का दुरुपयोग किया जा सकता है।
ऐप्पल ने शुरू में आईओएस 15 में बाल यौन शोषण सामग्री (सीएसएएम) स्कैनिंग तकनीक को शामिल करने की योजना बनाई थी; इसके बजाय इसने फीचर के पूर्ण रिलीज से पहले फीडबैक मांगने के लिए इसके रोलआउट में अनिश्चित काल के लिए देरी कर दी है।
तो सीएसएएम डिटेक्शन फीचर गर्म बहस का विषय क्यों बन गया, और ऐप्पल ने अपना रोलआउट क्यों स्थगित कर दिया?
Apple का फोटो-स्कैनिंग फीचर क्या करता है?
Apple ने बाल यौन शोषण से निपटने की उम्मीद में फोटो-स्कैनिंग सुविधा को लागू करने की घोषणा की। ऐप्पल द्वारा बनाए गए "न्यूरलहैश" एल्गोरिथम का उपयोग करके पीडोफिलियाक सामग्री के लिए ऐप्पल उपयोगकर्ताओं के उपकरणों में सभी तस्वीरें स्कैन की जाएंगी।
इसके अलावा, बच्चों द्वारा उपयोग किए जाने वाले किसी भी Apple डिवाइस में एक सुरक्षा सुविधा होगी जो स्वचालित रूप से होगी यदि किसी बच्चे द्वारा प्राप्त वयस्क चित्रों को धुंधला कर दिया जाता है, और उपयोगकर्ता को खोलने की कोशिश करने पर दो बार चेतावनी दी जाएगी उन्हें।
वयस्क सामग्री के जोखिम को कम करने के अलावा, यदि माता-पिता अपने बच्चों के स्वामित्व वाले उपकरणों को पंजीकृत करते हैं अतिरिक्त सुरक्षा, यदि बच्चे को किसी से स्पष्ट सामग्री प्राप्त होती है तो माता-पिता को सूचित किया जाएगा ऑनलाइन।
अधिक पढ़ें: Apple के बाल सुरक्षा सुरक्षा के बारे में आपको क्या जानना चाहिए
जहां तक बच्चों का यौन शोषण करने वाली किसी भी चीज की तलाश के लिए सिरी का उपयोग करने वाले वयस्कों के लिए, सिरी वह खोज नहीं करेगा और इसके बजाय अन्य विकल्प सुझाएगा।
एल्गोरिदम द्वारा संदिग्ध समझे जाने वाले 10 या अधिक फ़ोटो वाले किसी भी उपकरण के डेटा को डिक्रिप्ट किया जाएगा और मानव समीक्षा के अधीन किया जाएगा।
यदि वे तस्वीरें या डिवाइस में कोई अन्य द्वारा प्रदान किए गए डेटाबेस से किसी भी चीज़ से मेल खाता है गुमशुदा और शोषित बच्चों के लिए राष्ट्रीय केंद्र, इसकी सूचना अधिकारियों को दी जाएगी और उपयोगकर्ता का खाता निलंबित कर दिया जाएगा।
फोटो-स्कैनिंग सुविधा के संबंध में मुख्य चिंताएं
सीएसएएम डिटेक्शन फीचर सितंबर 2021 में आईओएस 15 के लॉन्च के साथ लाइव हो गया होगा, लेकिन चेहरे पर व्यापक आक्रोश के कारण, Apple ने प्रतिक्रिया एकत्र करने और इसमें सुधार करने के लिए अधिक समय लेने का निर्णय लिया विशेषता। यहाँ है एपल का पूरा बयान देरी पर:
"पिछले महीने हमने बच्चों को शिकारियों से बचाने में मदद करने के उद्देश्य से सुविधाओं के लिए योजनाओं की घोषणा की थी भर्ती करने और उनका शोषण करने के लिए संचार साधनों का उपयोग करें, और बाल यौन शोषण के प्रसार को सीमित करें सामग्री।
ग्राहकों, वकालत समूहों, शोधकर्ताओं और अन्य लोगों के फीडबैक के आधार पर, हमने अतिरिक्त समय लेने का फैसला किया है आने वाले महीनों में इन महत्वपूर्ण बाल सुरक्षा को जारी करने से पहले इनपुट एकत्र करने और सुधार करने के लिए विशेषताएं"।
Apple की फोटो-स्कैनिंग सुविधा से संबंधित लगभग आधी चिंताएँ गोपनीयता के इर्द-गिर्द घूमती हैं; बाकी तर्कों में एल्गोरिदम की संभावित अशुद्धि और सिस्टम या इसकी खामियों के संभावित दुरुपयोग शामिल हैं।
आइए इसे चार भागों में तोड़ दें।
संभावित दुरुपयोग
यह जानते हुए कि बाल अश्लीलता या बाल यौन शोषण की ज्ञात छवियों से मेल खाने वाली कोई भी सामग्री "संदिग्ध" सूची में एक उपकरण प्राप्त करेगी, साइबर अपराधियों को गति प्रदान कर सकती है।
वे जानबूझकर किसी व्यक्ति पर iMessage, WhatsApp, या किसी अन्य माध्यम से अनुचित सामग्री के साथ बमबारी कर सकते हैं और उस व्यक्ति के खाते को निलंबित करवा सकते हैं।
ऐप्पल ने आश्वासन दिया है कि अगर किसी गलतफहमी के कारण उनके खातों को निलंबित कर दिया गया है तो उपयोगकर्ता अपील दायर कर सकते हैं।
अंदरूनी दुर्व्यवहार
हालांकि एक परोपकारी कारण के लिए डिज़ाइन किया गया है, यह सुविधा कुछ लोगों के लिए कुल आपदा में बदल सकती है यदि उनके उपकरण उनके संचार की निगरानी में रुचि रखने वाले रिश्तेदारों द्वारा, उनकी जानकारी के साथ या उनके बिना सिस्टम में पंजीकृत हैं।
अगर ऐसा नहीं भी होता है, तो Apple ने उपयोगकर्ताओं के डेटा को दिन के अंत में सुलभ बनाने के लिए एक पिछले दरवाजे का निर्माण किया है। अब यह लोगों के लिए अन्य लोगों की व्यक्तिगत जानकारी तक पहुँचने के लिए प्रेरणा और दृढ़ संकल्प की बात है।
सम्बंधित: एक पिछले दरवाजे क्या है और यह क्या करता है?
यह न केवल गोपनीयता के एक बड़े उल्लंघन की सुविधा प्रदान करता है, बल्कि अपमानजनक, विषाक्त या नियंत्रित करने का मार्ग भी प्रशस्त करता है रिश्तेदारों, अभिभावकों, दोस्तों, प्रेमियों, देखभाल करने वालों, और पूर्व किसी के व्यक्तिगत स्थान पर आगे आक्रमण करने या उन्हें प्रतिबंधित करने के लिए स्वतंत्रता।
एक ओर, यह बाल यौन शोषण का मुकाबला करने के लिए है; दूसरी ओर, इसका उपयोग अन्य प्रकार के दुर्व्यवहारों को और अधिक बनाए रखने के लिए किया जा सकता है।
सरकारी निगरानी
ऐप्पल ने हमेशा अपने प्रतिस्पर्धियों की तुलना में खुद को अधिक गोपनीयता-जागरूक ब्रांड के रूप में बताया है। लेकिन अब, यह पारदर्शिता की कभी न खत्म होने वाली मांगों को पूरा करने की फिसलन भरी ढलान में प्रवेश कर सकता है सरकारों द्वारा उपयोगकर्ता डेटा.
पीडोफिलिक सामग्री का पता लगाने के लिए उसने जो सिस्टम बनाया है, उसका इस्तेमाल फोन पर किसी भी तरह की सामग्री का पता लगाने के लिए किया जा सकता है। इसका मतलब है कि एक पंथ मानसिकता वाली सरकारें उपयोगकर्ताओं को अधिक व्यक्तिगत स्तर पर निगरानी कर सकती हैं यदि वे इस पर अपना हाथ रखते हैं।
दमनकारी हो या न हो, आपके दैनिक और व्यक्तिगत जीवन में सरकार की भागीदारी परेशान करने वाली हो सकती है, और यह आपकी निजता का हनन है। यह विचार कि आपको केवल ऐसे आक्रमणों के बारे में चिंतित होने की आवश्यकता है यदि आपने कुछ गलत किया है तो यह त्रुटिपूर्ण सोच है, और उपरोक्त फिसलन ढलान को देखने में विफल रहता है।
झूठे अलार्म
डेटाबेस के साथ चित्रों का मिलान करने के लिए एल्गोरिदम का उपयोग करने की सबसे बड़ी चिंताओं में से एक गलत अलार्म है। हैशिंग एल्गोरिदम गलती से दो तस्वीरों को मैच के रूप में पहचान सकता है, भले ही वे समान न हों। ये त्रुटियां, जिन्हें "टकराव" कहा जाता है, बाल यौन शोषण सामग्री के संदर्भ में विशेष रूप से खतरनाक हैं।
ऐप्पल द्वारा छवियों को स्कैन करने के लिए एल्गोरिदम का उपयोग करने की घोषणा के बाद शोधकर्ताओं ने "न्यूरलहैश" में कई टकराव पाए। Apple ने झूठे अलार्म के बारे में सवालों के जवाब देते हुए कहा कि परिणाम की समीक्षा अंत में एक मानव द्वारा की जाएगी, इसलिए लोगों को इसके बारे में चिंता करने की आवश्यकता नहीं है।
क्या Apple का CSAM पॉज़ स्थायी है?
Apple के प्रस्तावित फीचर के कई फायदे और नुकसान हैं। उनमें से हर एक असली है और वजन रखता है। यह अभी भी स्पष्ट नहीं है कि Apple अपने आलोचकों को संतुष्ट करने के लिए CSAM-स्कैनिंग सुविधा में कौन से विशिष्ट परिवर्तन पेश कर सकता है।
यह उपयोगकर्ताओं के उपकरणों को शामिल करने के बजाय स्कैनिंग को साझा iCloud एल्बम तक सीमित कर सकता है। Apple के लिए इन योजनाओं को पूरी तरह से छोड़ने की संभावना बहुत कम है क्योंकि कंपनी आमतौर पर अपनी योजनाओं को देने के लिए इच्छुक नहीं है।
हालाँकि, व्यापक प्रतिक्रिया और Apple की अपनी योजनाओं पर रोक से यह स्पष्ट है, कि कंपनियों को शुरू से ही अनुसंधान समुदाय को शामिल करना चाहिए, विशेष रूप से एक परीक्षण न किए गए के लिए प्रौद्योगिकी।
ऑनलाइन शिकारियों और साइबरबुलियों के लिए बच्चे प्रमुख लक्ष्य हैं। ये आसान टिप्स माता-पिता को सिखा सकते हैं कि उन्हें ऑनलाइन कैसे सुरक्षित रखा जाए।
आगे पढ़िए
- सुरक्षा
- आई - फ़ोन
- स्मार्टफोन गोपनीयता
- सेब
- ऑनलाइन गोपनीयता
- निगरानी
फवाद एक आईटी और संचार इंजीनियर, महत्वाकांक्षी उद्यमी और एक लेखक हैं। उन्होंने 2017 में सामग्री लेखन के क्षेत्र में प्रवेश किया और तब से दो डिजिटल मार्केटिंग एजेंसियों और कई बी 2 बी और बी 2 सी ग्राहकों के साथ काम किया है। वह दर्शकों को शिक्षित करने, मनोरंजन करने और संलग्न करने के उद्देश्य से MUO में सुरक्षा और तकनीक के बारे में लिखते हैं।
हमारे न्यूज़लेटर की सदस्यता लें
तकनीकी युक्तियों, समीक्षाओं, निःशुल्क ई-पुस्तकों और अनन्य सौदों के लिए हमारे न्यूज़लेटर से जुड़ें!
सब्सक्राइब करने के लिए यहां क्लिक करें