आर्टिफिशियल इंटेलिजेंस (एआई) जितना प्रभावशाली है उतना ही विवादास्पद भी है। यह काम के कई हिस्सों और रोजमर्रा की जिंदगी को आसान बना सकता है, लेकिन यह कुछ नैतिक प्रश्न भी उठाता है। अमेरिकी सरकार द्वारा AI का उपयोग, विशेष रूप से, कुछ लोगों को असहज महसूस कराता है।
आज उपयोग में या विकास में कई सरकारी एआई परियोजनाएं हैं, और कुछ ने बहुत अच्छा किया है। साथ ही, वे कृत्रिम बुद्धिमत्ता गोपनीयता संबंधी बहुत सारी चिंताएँ उठाते हैं। यहां इन परियोजनाओं पर करीब से नज़र डालें और सार्वजनिक गोपनीयता के लिए इनका क्या अर्थ है।
सरकारी एआई और स्वचालन परियोजनाओं के उदाहरण
अमेरिकी सरकार द्वारा उपयोग किए जाने वाले कृत्रिम बुद्धिमत्ता के सबसे बुनियादी उदाहरणों में नियमित कार्यालय कार्य को स्वचालित करना शामिल है। 2019 में, सिएटल ने इस्तेमाल किया रोबोटिक प्रोसेस ऑटोमेशन (RPA) डेटा प्रविष्टि और प्रसंस्करण अनुप्रयोगों की देखभाल करने के लिए। तब से, शहर को 6,000 से अधिक बैकलॉग आवेदन मिले हैं और सैकड़ों काम के घंटे बचाए गए हैं।
अन्य सरकारी एआई परियोजनाएं अधिक आकर्षक हैं। न्यूयॉर्क अग्निशमन विभाग से रोबोट कुत्तों का परीक्षण कर रहा है
बोस्टन डायनेमिक्स अग्निशामकों के प्रवेश करने से पहले संरचनात्मक क्षति और जहरीले धुएं को मापने के लिए। अग्निशमन रोबोट परियोजना से पहले, न्यूयॉर्क पुलिस विभाग ने उन्हीं रोबोटों को लागू करने की योजना बनाई थी।देश भर में पुलिस विभाग और अन्य सरकारी एजेंसियां इसी तरह की तकनीकों का उपयोग करने पर विचार कर रही हैं। हालाँकि, जैसे-जैसे ये सरकारी AI प्रोजेक्ट आगे बढ़ते हैं, उनकी संभावित गोपनीयता कमियाँ स्पष्ट होती गई हैं।
क्या आर्टिफिशियल इंटेलिजेंस गोपनीयता और सुरक्षा के लिए खतरा है?
आप भविष्य में पुलिस रोबोट देखेंगे या नहीं, यह अभी भी अनिश्चित है, लेकिन चीजें उसी तरह बढ़ रही हैं। इन परियोजनाओं के बहुत सारे लाभ हैं, लेकिन सरकार के साथ व्यवहार करते समय कृत्रिम बुद्धिमत्ता गोपनीयता संबंधी चिंताएँ अधिक गंभीर हो जाती हैं। इन तकनीकों के साथ कुछ सबसे बड़ी समस्याएं यहां दी गई हैं।
आर्टिफिशियल इंटेलिजेंस डेटा एकत्र करने और विश्लेषण करने पर निर्भर करता है। नतीजतन, अधिक सरकारी एआई परियोजनाओं का मतलब है कि ये एजेंसियां अपने नागरिकों के बारे में अतिरिक्त जानकारी एकत्र और संग्रहीत करेंगी। कुछ लोगों को ऐसा लगता है कि यह सारी जानकारी इकट्ठी की जा रही है उनकी गोपनीयता भंग करता है और उनके अधिकारों का हनन करता है।
फायरफाइटिंग डॉग प्रोजेक्ट जैसी प्रौद्योगिकियां विशेष रूप से संबंधित हैं क्योंकि वे सरकारी निगरानी को भ्रामक बना सकती हैं। एजेंसियों का कहना है कि रोबोट सुरक्षा चिंताओं की जांच के लिए है, लेकिन लोगों के पास यह बताने का कोई तरीका नहीं है कि यह कौन सा डेटा एकत्र कर रहा है। इसमें कैमरे और सेंसर हो सकते हैं जो उनके चेहरे को स्कैन करते हैं या उनके सेलफोन को बिना उन्हें जाने ट्रैक करते हैं।
कुछ लोगों को चिंता है कि रोबोट का "कूल फैक्टर" उनकी निगरानी क्षमता को छिपा देगा। भविष्य में पुलिस रोबोट बिना किसी संदेह के नागरिकों की जासूसी कर सकते हैं क्योंकि लोग अपनी गोपनीयता भंग करने के बजाय नई तकनीक देखते हैं।
अस्पष्ट जिम्मेदारियां
ये एआई और ऑटोमेशन प्रोजेक्ट जवाबदेही का सवाल भी उठाते हैं। अगर कोई रोबोट ऐसी गलती करता है जिससे नुकसान होता है, तो इसके लिए कौन जिम्मेदार है? जब कोई सरकारी कर्मचारी अपनी सीमाओं को लांघता है और किसी के अधिकारों का उल्लंघन करता है, तो अदालतें उन्हें जवाबदेह ठहरा सकती हैं, लेकिन रोबोट का क्या?
आप इस समस्या को सेल्फ-ड्राइविंग कारों में देख सकते हैं। कुछ ऑटोपायलट क्रैश मामलों में लोगों ने निर्माता पर उत्पाद देयता दावे के तहत आरोप लगाया है, जबकि अन्य ड्राइवर को दोष देते हैं। एक उदाहरण में, राष्ट्रीय परिवहन सुरक्षा बोर्ड निर्माता और ड्राइवर दोनों पर जिम्मेदारी रखी गई है, लेकिन अंततः इसे मामला-दर-मामला आधार पर तय किया जाना चाहिए। पुलिस रोबोट उसी तरह पानी को मैला करते हैं। यदि वे आपकी गोपनीयता भंग करते हैं, तो यह स्पष्ट नहीं है कि निर्माता, पुलिस विभाग या मानव पर्यवेक्षकों को दोष देना है या नहीं।
यह भ्रम कानूनी कार्यवाही को धीमा और जटिल कर सकता है। निजता के उल्लंघन या उनके अधिकारों के उल्लंघन के शिकार लोगों को न्याय मिलने में कुछ समय लग सकता है। नए कानून और कानूनी मिसाल चीजों को स्पष्ट कर सकते हैं और इस मुद्दे को हल कर सकते हैं, लेकिन अभी, यह अनिश्चित है।
डेटा उल्लंघन जोखिम
अमेरिकी सरकार द्वारा उपयोग की जाने वाली कृत्रिम बुद्धिमत्ता निजी क्षेत्र में आपके द्वारा देखी जाने वाली AI गोपनीयता चिंताओं का भी विस्तार कर सकती है। कुछ डेटा एकत्र करना पूरी तरह से कानूनी हो सकता है, लेकिन जितने अधिक संगठन इकट्ठा होते हैं, उतना ही अधिक जोखिम होता है। कंपनी या सरकार जानकारी का उपयोग किसी भी अवैध चीज़ के लिए नहीं कर सकती है, लेकिन यह लोगों को साइबर अपराध के प्रति संवेदनशील बना सकती है।
वहां थे 28,000 से अधिक साइबर हमले अकेले 2019 में अमेरिकी सरकार के खिलाफ। यदि एजेंसियों के पास नागरिकों की अधिक निजी जानकारी होती है, तो ये हमले केवल सरकार से अधिक प्रभावित हो सकते हैं। एक सफल डेटा उल्लंघन कई लोगों को उनकी जानकारी के बिना खतरे में डाल सकता है। उल्लंघनों पर अक्सर किसी का ध्यान नहीं जाता है, इसलिए आपको करने की आवश्यकता है जांचें कि आपका डेटा पहले से बिक्री के लिए नहीं है.
उदाहरण के लिए, यदि भविष्य में पुलिस रोबोट वांछित अपराधियों की तलाश के लिए चेहरे की पहचान का उपयोग करता है, तो यह कई नागरिकों के बायोमेट्रिक डेटा को संग्रहीत कर सकता है। सिस्टम में घुसने वाले हैकर्स उस जानकारी को चुरा सकते हैं और इसका इस्तेमाल लोगों के बैंक खातों में सेंध लगाने के लिए कर सकते हैं। यदि वे लोगों के डेटा को खतरे में नहीं डालना चाहते हैं, तो सरकारी AI परियोजनाओं में मजबूत साइबर सुरक्षा उपाय होने चाहिए।
सरकारी एआई के लाभ हैं लेकिन चिंताएं हैं
यह अभी भी स्पष्ट नहीं है कि अमेरिकी सरकार भविष्य में कृत्रिम बुद्धिमत्ता का उपयोग कैसे करेगी। नए सुरक्षा और कानून इन मुद्दों को हल कर सकते हैं और एआई के सभी लाभों को इसके जोखिमों के बिना ला सकते हैं। हालाँकि, अभी के लिए, ये चिंताएँ कुछ खतरे पैदा करती हैं।
एआई कहीं भी काम करता है, गोपनीयता की चिंताएं बहुत अधिक हैं। ये सवाल और भी गंभीर हो जाते हैं क्योंकि यह सरकार में बड़ी भूमिका निभाते हैं। राज्य एआई परियोजनाएं बहुत अच्छा कर सकती हैं, लेकिन उनमें नुकसान की भी पर्याप्त संभावना है।
Microsoft ने चेतावनी दी है कि "1984" तीन साल में सच हो सकता है
आगे पढ़िए
संबंधित विषय
- सुरक्षा
- कृत्रिम होशियारी
- ऑनलाइन गोपनीयता
लेखक के बारे में
शैनन फिली, पीए में स्थित एक सामग्री निर्माता है। आईटी में डिग्री के साथ स्नातक होने के बाद वह लगभग 5 वर्षों से तकनीकी क्षेत्र में लिख रही हैं। शैनन रेहैक पत्रिका के प्रबंध संपादक हैं और साइबर सुरक्षा, गेमिंग और व्यावसायिक प्रौद्योगिकी जैसे विषयों को कवर करते हैं।
हमारे समाचार पत्र के सदस्य बनें
तकनीकी युक्तियों, समीक्षाओं, निःशुल्क ई-पुस्तकों और अनन्य सौदों के लिए हमारे न्यूज़लेटर से जुड़ें!
सब्सक्राइब करने के लिए यहां क्लिक करें