आप जैसे पाठक MUO का समर्थन करने में मदद करते हैं। जब आप हमारी साइट पर लिंक का उपयोग करके खरीदारी करते हैं, तो हम संबद्ध कमीशन अर्जित कर सकते हैं। और पढ़ें।

Apple ने बच्चों को शिकारियों द्वारा दुर्व्यवहार से बचाने के लिए अगस्त 2021 में बाल यौन शोषण सामग्री (CSAM) के लिए आपकी iCloud सामग्री को स्कैन करने की योजना की घोषणा की।

कंपनी ने आईक्लाउड फोटोज में एक नया सीएसएएम डिटेक्शन फीचर लॉन्च करने की योजना बनाई है जो ऐसी सामग्री के लिए स्कैन करेगा और उपयोगकर्ता की गोपनीयता बनाए रखते हुए मेल खाने वाली छवियों को ऐप्पल को रिपोर्ट करेगा।

हालाँकि, नई सुविधा को मिश्रित प्रतिक्रियाओं के साथ मिला। प्रारंभिक घोषणा के एक साल से अधिक समय बाद, Apple आधिकारिक तौर पर CSAM के लिए iCloud फ़ोटो स्कैन करने की अपनी योजना छोड़ रहा है।

Apple ने चाइल्ड एब्यूज मटेरियल के लिए iCloud को स्कैन करने की अपनी योजना को छोड़ दिया

की एक रिपोर्ट के अनुसार वायर्ड, Apple बाल दुर्व्यवहार सामग्री के लिए आपके iCloud को स्कैन करने की अपनी योजना से दूर जा रहा है। यह टूल आईक्लाउड पर स्टोर की गई उन तस्वीरों को स्कैन करेगा, जो बच्चों के सुरक्षा संगठनों द्वारा पहचानी गई ज्ञात सीएसएएम छवियों से मेल खाती हैं। यह तब उन छवियों की रिपोर्ट कर सकता है क्योंकि CSAM छवियों को रखना अमेरिका सहित अधिकांश न्यायालयों में अवैध है।

instagram viewer

क्यों Apple ने iCloud तस्वीरें स्कैन करने की अपनी योजना को रद्द कर दिया

2021 में प्रारंभिक घोषणा के बाद, Apple को दुनिया भर में डिजिटल गोपनीयता और सुरक्षा की वकालत करने वाले ग्राहकों, समूहों और व्यक्तियों से प्रतिक्रिया का सामना करना पड़ा। iPhones आमतौर पर Android उपकरणों की तुलना में अधिक सुरक्षा प्रदान करते हैं, और कई लोगों ने इसे एक कदम पीछे जाने के रूप में देखा। जबकि यह बाल सुरक्षा संगठनों के लिए एक जीत थी, 90 से अधिक नीति समूहों ने उसी महीने बाद में Apple को एक खुला पत्र लिखा, जिसमें कंपनी को योजना रद्द करने के लिए कहा।

पत्र ने तर्क दिया कि जबकि उपकरण का इरादा है बच्चों को शोषण से बचाएं, इसका लाभ मुक्त भाषण को सेंसर करने और उपयोगकर्ता की गोपनीयता और सुरक्षा को खतरे में डालने के लिए लिया जा सकता है। बढ़ते दबाव के कारण, Apple ने प्रतिक्रिया एकत्र करने और फीचर में आवश्यक समायोजन करने के लिए अपनी लॉन्च योजनाओं को रोक दिया। हालाँकि, फीडबैक ने Apple की iCloud फ़ोटो को स्कैन करने की योजना का समर्थन नहीं किया, इसलिए कंपनी आधिकारिक तौर पर अच्छे के लिए योजना छोड़ रही है।

WIRED को दिए एक बयान में कंपनी ने कहा:

"अपने पास... आईक्लाउड फोटोज के लिए हमारे पहले प्रस्तावित सीएसएएम डिटेक्शन टूल के साथ आगे नहीं बढ़ने का फैसला किया। निजी डेटा की छानबीन किए बिना बच्चों की सुरक्षा की जा सकती है, और हम सरकारों, बाल अधिवक्ताओं और के साथ काम करना जारी रखेंगे अन्य कंपनियों को युवाओं की सुरक्षा में मदद करने, उनके निजता के अधिकार को सुरक्षित रखने और इंटरनेट को बच्चों और हमारे लिए एक सुरक्षित स्थान बनाने में मदद करने के लिए सभी।"

बच्चों की सुरक्षा के लिए एप्पल का नया प्लान

Apple अगस्त 2021 में घोषित संचार सुरक्षा सुविधाओं को बेहतर बनाने के अपने प्रयासों को पुनर्निर्देशित कर रहा है और उसी वर्ष दिसंबर में लॉन्च किया गया।

संचार सुरक्षा वैकल्पिक है और इसका उपयोग माता-पिता और अभिभावकों द्वारा बच्चों को iMessage में यौन रूप से स्पष्ट चित्र भेजने और प्राप्त करने दोनों से बचाने के लिए किया जा सकता है। फीचर स्वचालित रूप से ऐसी तस्वीरों को धुंधला कर देता है और बच्चे को इसमें शामिल खतरों के बारे में चेतावनी दी जाएगी। यह किसी को भी चेतावनी देता है अगर वे Apple उपकरणों पर CSAM खोजने की कोशिश करते हैं।

सीएसएएम-डिटेक्शन टूल को रद्द करने की योजना के साथ, कंपनी सुविधा को और बेहतर बनाने और इसे और अधिक संचार ऐप में विस्तारित करने की उम्मीद कर रही है।