विशेषज्ञों का मानना है कि एआई मानवता को समाप्त कर देगा जैसा कि हम जानते हैं, तो इसे होने से रोकने के लिए क्या किया जा रहा है?
फिर भी, प्रमुख एआई शोधकर्ताओं और तकनीकी फर्मों के एक समूह ने चेतावनी दी है कि कृत्रिम बुद्धिमत्ता का वर्तमान तेजी से विकास मानव जाति के लिए आपदा का कारण बन सकता है।
जोखिमों में परमाणु संघर्ष, बीमारी, गलत सूचना, और भागे हुए एआई में निरीक्षण की कमी है, जो सभी मानव अस्तित्व के लिए एक तत्काल खतरा पेश करते हैं।
लेकिन यह खोया नहीं जाएगा कि उन चेतावनियों में से कई उन्हीं लोगों से आती हैं जो एआई विकास का नेतृत्व कर रहे हैं और कृत्रिम बुद्धिमत्ता उपकरण और कार्यक्रमों को अपनी संबंधित कंपनियों में आगे बढ़ा रहे हैं।
टेक कंपनियां और एआई वैज्ञानिक एआई जोखिम के बारे में चेतावनी क्यों दे रहे हैं?
30 मई, 2023 को एआई के 350 से अधिक शोधकर्ताओं, डेवलपर्स और इंजीनियरों ने मानवता के लिए एआई के खतरे के खिलाफ एक लिखित बयान जारी किया।
महामारी और परमाणु युद्ध जैसे अन्य सामाजिक-स्तर के जोखिमों के साथ एआई से विलुप्त होने के जोखिम को कम करना एक वैश्विक प्राथमिकता होनी चाहिए।
के हस्ताक्षरकर्ता Safe.ai बयान
ट्यूरिंग के साथ OpenAI के सैम ऑल्टमैन, Google डीपमाइंड के डेमिस हसाबिस और एंथ्रोपिक के डारियो अमोदेई शामिल थे पुरस्कार विजेता जेफ्री हिंटन और योशुआ बेंगियो (यद्यपि यान लेकन, जिन्होंने वही पुरस्कार जीता, हस्ताक्षर करने के लिए उपेक्षित)। सूची लगभग एआई विकास की दुनिया के कौन हैं - एआई के साथ आगे बढ़ने वाले लोग - फिर भी वे सभी चेतावनी दे रहे हैं कि एआई मानव जाति के लिए आपदा का कारण बन सकता है।यह एक छोटा बयान है जो खतरों को स्पष्ट करता है, विशेष रूप से दो प्रमुख क्षेत्रों का हवाला देते हुए जो दुनिया को खतरे में डाल सकता है जैसा कि हम जानते हैं: परमाणु युद्ध और वैश्विक स्वास्थ्य मुद्दे। जबकि परमाणु संघर्ष का खतरा एक चिंता का विषय है, महामारी का जोखिम अधिकांश के लिए अधिक ठोस खतरा है।
हालाँकि, यह केवल एक वैश्विक महामारी नहीं है जो AI से संबंधित स्वास्थ्य समस्याओं का कारण बन सकती है। अभिभावक कई अन्य एआई स्वास्थ्य मुद्दों की रिपोर्ट करता है जो व्यापक उपयोग से पहले जाँच न किए जाने पर मनुष्यों को प्रभावित कर सकते हैं। एआई-संचालित ऑक्सीमीटर का उपयोग करने से संबंधित एक उदाहरण है कि "गहरे रंग की त्वचा वाले रोगियों में रक्त ऑक्सीजन के स्तर को कम करके आंका गया, जिसके परिणामस्वरूप उनके हाइपोक्सिया का उपचार हुआ।"
इसके अलावा, यह पहली बार नहीं है जब तकनीकी नेताओं के एक समूह ने एआई के विकास को रोकने या गंभीर पुनर्मूल्यांकन करने का आह्वान किया है। मार्च 2023 में, एलोन मस्क और अन्य एआई शोधकर्ताओं ने एक समान कॉल-टू-एक्शन पर हस्ताक्षर किए प्रक्रिया को निर्देशित करने में मदद करने के लिए अधिक विनियमन लागू किए जाने तक एआई विकास पर रोक लगाने का अनुरोध करना।
एआई का जोखिम क्या है?
एआई से जुड़े अधिकांश जोखिम, कम से कम इस संदर्भ में, भगोड़ा एआई प्रौद्योगिकी के विकास से संबंधित हैं यह मनुष्यों की क्षमताओं से अधिक है, जिसमें यह अंततः अपने निर्माता की ओर मुड़ता है और जीवन को मिटा देता है जैसा कि हम जानते हैं यह। यह विज्ञान-कथा लेखन में अनगिनत बार शामिल की गई कहानी है, लेकिन वास्तविकता अब जितना हम सोच सकते हैं, उससे कहीं अधिक निकट है।
बड़े भाषा मॉडल (जो चैटजीपीटी जैसे उपकरणों को रेखांकित करते हैं) क्षमताओं में भारी वृद्धि कर रहे हैं। हालाँकि, चैटजीपीटी जैसे टूल में कई समस्याएं हैं, जैसे निहित पूर्वाग्रह, गोपनीयता संबंधी चिंताएं, और एआई मतिभ्रम, इसके प्रोग्राम किए गए नियमों और शर्तों की सीमाओं के बाहर कार्य करने के लिए जेलब्रेक होने की क्षमता को तो छोड़ ही दें।
जैसे-जैसे बड़े भाषा मॉडल बढ़ते हैं और कॉल करने के लिए अधिक डेटा बिंदु होते हैं, इंटरनेट एक्सेस और अधिक के साथ वर्तमान घटनाओं की समझ, एआई शोधकर्ताओं को डर है कि यह एक दिन हो सकता है, ओपनएआई के सीईओ सैम अल्टमैन के शब्दों में, "काफी जाना गलत।"
सरकारें जोखिमों को रोकने के लिए एआई विकास को कैसे नियंत्रित कर रही हैं?
एआई विनियमन जोखिमों को रोकने के लिए महत्वपूर्ण है। मई 2023 की शुरुआत में, सैम अल्टमैन ने अधिक एआई विनियमन का आह्वान किया, यह कहते हुए कि "तेजी से शक्तिशाली मॉडल के जोखिमों को कम करने के लिए सरकारों द्वारा विनियामक हस्तक्षेप महत्वपूर्ण होगा।"
फिर यूरोपीय संघ ने एआई अधिनियम की घोषणा की, पूरे यूरोपीय संघ में एआई विकास के लिए एक अधिक मजबूत ढांचा प्रदान करने के लिए बनाया गया एक विनियमन (कई नियमों के साथ अन्य न्यायालयों में फैल गया)। Altman ने शुरू में OpenAI को EU से बाहर निकालने की धमकी दी थी, लेकिन फिर अपनी धमकी वापस ले ली और सहमत हुए कि कंपनी AI विनियमन का पालन करेगी जो उसने पहले मांगा था।
भले ही, यह स्पष्ट है कि एआई के विकास और उपयोग का विनियमन महत्वपूर्ण है।
क्या एआई मानवता को खत्म कर देगा?
एआई के भविष्य के संस्करणों की शक्ति के बारे में परिकल्पनाओं पर इस विषय के आसपास बहुत सारी बहसें बनी हैं, ऐसे में दीर्घायु और शक्ति के आसपास के मुद्दे हैं जो किसी भी एआई विनियमन के हो सकते हैं। पहले से ही एक हजार मील प्रति मिनट की गति से चलने वाले उद्योग को कैसे विनियमित किया जाए और विकास में सफलताएं प्रतिदिन घटित हों?
इसके अलावा, एआई की क्षमताओं के बारे में अभी भी कुछ संदेह है और यह कहां समाप्त होगा। जबकि कृत्रिम सामान्य बुद्धि के मानव अधिपति बनने के लिए सबसे खराब बिंदु से डरने वाले, अन्य इंगित करते हैं तथ्य यह है कि एआई के वर्तमान संस्करण बुनियादी गणित के प्रश्न भी नहीं कर सकते हैं और पूर्ण-स्वचालित कार अभी भी एक तरीका है बंद।
भविष्य की ओर देखने वालों से सहमत नहीं होना मुश्किल है। एआई द्वारा पेश की जाने वाली समस्याओं के बारे में ज़ोर से चिल्लाने वाले बहुत से लोग ड्राइविंग सीट पर हैं, यह देखते हुए कि हम कहाँ जा रहे हैं। यदि वे संभावित भयावह भविष्य से हमें बचाने के लिए एआई विनियमन की मांग कर रहे हैं, तो यह सुनने का समय हो सकता है।