एआई-आधारित तकनीक के आसपास नवीनतम नवाचार उन सीमाओं को आगे बढ़ा रहे हैं जो हमने सोचा था कि एआई के साथ संभव है। हालाँकि, चैटजीपीटी और बिंग चैट जैसे चैटबॉट कई चीजों में इंसानों की तरह अच्छे हो रहे हैं, क्या यह कुछ समय के लिए ब्रेक मारने का समय है?

एलोन मस्क और कई एआई शोधकर्ता उन 1,188 लोगों में शामिल हैं (लेखन के समय) जो ऐसा सोचते हैं। गैर-लाभकारी फ्यूचर ऑफ लाइफ इंस्टीट्यूट द्वारा प्रकाशित एक पत्र जीपीटी 4 से बेहतर एआई प्रौद्योगिकियों के प्रशिक्षण पर छह महीने के विराम की मांग करता है, लेकिन क्या वास्तव में विराम की आवश्यकता है?

जीवन का भविष्य खुला पत्र क्या है?

फ्यूचर ऑफ लाइफ इंस्टीट्यूट द्वारा प्रकाशित पत्र बताते हैं कि अधिक और विकसित करने और तैनात करने के लिए एआई प्रयोगशालाओं को "एक आउट-ऑफ-कंट्रोल रेस में बंद कर दिया गया है" अधिक शक्तिशाली एआई मॉडल जिन्हें कोई भी, उनके रचनाकारों सहित, "समझ, भविष्यवाणी, या मज़बूती से नहीं कर सकता है नियंत्रण"।

यह यह भी बताता है कि समकालीन एआई सिस्टम अब सामान्य कार्यों और पूछने पर मानव-प्रतिस्पर्धी बन रहे हैं क्या हमें "अमानवीय दिमाग" विकसित करना चाहिए जो अंततः अधिक हो सकता है, आउटस्मार्ट, अप्रचलित और प्रतिस्थापित हो सकता है हम"।

instagram viewer

पत्र अंततः सभी एआई प्रयोगशालाओं को कम से कम छह महीने के लिए GPT-4 से अधिक शक्तिशाली AI सिस्टम के प्रशिक्षण को तुरंत रोकने के लिए कहता है। ठहराव सार्वजनिक होना चाहिए और सभी प्रमुख अभिनेताओं के लिए भी सत्यापन योग्य होना चाहिए। इसमें यह भी कहा गया है कि यदि इस तरह के ठहराव को जल्दी से लागू नहीं किया जा सकता है, तो सरकारों को एआई मॉडल प्रशिक्षण को अस्थायी रूप से प्रतिबंधित करने के लिए कदम उठाने चाहिए।

एक बार विराम सक्रिय होने के बाद, एआई प्रयोगशालाओं और स्वतंत्र विशेषज्ञों को इसे संयुक्त रूप से विकसित करने और लागू करने के लिए उपयोग करने के लिए कहा जाता है "सुरक्षा प्रोटोकॉल का साझा सेट" यह सुनिश्चित करने के लिए कि इन नियमों का पालन करने वाले सिस्टम "उचित से परे सुरक्षित" हैं संदेह"।

इस पत्र पर एलोन मस्क, स्टीव वोज्नियाक और एआई शोधकर्ताओं और लेखकों सहित कुछ नामित हस्तियों ने हस्ताक्षर किए हैं। वास्तव में, उच्च मांग के कारण हस्ताक्षरकर्ताओं की सूची वर्तमान में रुकी हुई है।

एडवांस्ड एआई टेक और ओपनएआई को लेकर मस्क की चिंताएं क्या हैं?

फ्यूचर ऑफ लाइफ के पत्र पर हस्ताक्षर करते समय यह संकेत हो सकता है कि मस्क सुरक्षा जोखिमों के बारे में चिंतित हैं जैसे उन्नत एआई सिस्टम मुद्रा, वास्तविक कारण कुछ और हो सकता है।

मस्क ने 2015 में गैर-लाभकारी के रूप में वर्तमान सीईओ सैम ऑल्टमैन के साथ OpenAI की सह-स्थापना की। हालाँकि, उन्होंने बाद में 2018 में ऑल्टमैन के साथ काम किया, जब उन्हें एहसास हुआ कि वह कंपनी की प्रगति से खुश नहीं हैं। कस्तूरी कथित तौर पर विकास को गति देना चाहते थे, लेकिन Altman और OpenAI बोर्ड ने इस विचार को खारिज कर दिया।

कस्तूरी जल्द ही OpenAI से दूर चले गए और अपने पैसे को अपने साथ ले गए और छोड़ने से पहले केवल 100 मिलियन देने और फंडिंग में 1 बिलियन का योगदान करने का अपना वादा तोड़ दिया। इसने OpenAI को अपने शोध को जारी रखने के लिए धन जुटाने के लिए मार्च 2019 में शीघ्र ही एक निजी कंपनी बनने के लिए मजबूर किया।

छवि क्रेडिट: हाइजेनबर्ग मीडिया /विकिमीडिया कॉमन्स

मस्क के छोड़ने का एक और कारण यह था कि टेस्ला में एआई का विकास भविष्य में हितों के टकराव का कारण बनेगा। यह स्पष्ट ज्ञान है कि टेस्ला को अपनी शक्ति के लिए उन्नत AI सिस्टम की आवश्यकता है पूर्ण स्व-ड्राइविंग सुविधाएँ. चूंकि मस्क ने ओपनएआई छोड़ दिया है, इसलिए कंपनी अपने एआई मॉडल लॉन्च करके भाग गई है GPT3.5-संचालित चैटGPT 2022 में और बाद में मार्च 2023 में GPT-4 के साथ अनुवर्ती।

तथ्य यह है कि मस्क की एआई टीम ओपनएआई के कहीं भी करीब नहीं है, हर बार जब वह कहता है कि आधुनिक एआई मॉडल जोखिम पैदा कर सकते हैं, तो इसका हिसाब देना होगा। उसे भी कोई परेशानी नहीं हुई सार्वजनिक सड़कों पर टेस्ला फुल सेल्फ-ड्राइविंग बीटा को रोल आउट करनाअनिवार्य रूप से नियमित टेस्ला ड्राइवरों को बीटा टेस्टर में बदलना।

बात यहीं खत्म नहीं होती। कस्तूरी भी ट्विटर पर OpenAI की आलोचनात्मक रही है, ऑल्टमैन ने हाल ही में "ऑन विद कारा स्विशर" पॉडकास्ट पर दिखाई देने के दौरान कहा कि वह उन पर हमला कर रहा है।

फिलहाल, ऐसा लगता है कि मस्क ओपनएआई में विकास को रोकने के लिए फ्यूचर ऑफ लाइफ लेटर का इस्तेमाल कर रहा है और किसी अन्य फर्म को पकड़ रहा है GPT-4 को अपनी कंपनियों को इन AI मॉडल के संभावित खतरों के बारे में वास्तव में चिंतित होने के बजाय पकड़ने का मौका देने के लिए खड़ा करना। ध्यान दें कि पत्र छह महीने के लिए एआई सिस्टम के "प्रशिक्षण" को रोकने के लिए भी कहता है, जिसे इस दौरान उन्हें विकसित करने के लिए अपेक्षाकृत आसानी से दरकिनार किया जा सकता है।

क्या वास्तव में विराम की आवश्यकता है?

विराम की आवश्यकता आगे बढ़ने वाले एआई मॉडल की स्थिति पर निर्भर करती है। पत्र निश्चित रूप से स्वर में थोड़ा नाटकीय है, और हम एआई के लिए अपनी सभ्यता का नियंत्रण खोने का जोखिम नहीं उठा रहे हैं, जैसा कि यह खुले तौर पर बताता है। ने कहा कि, एआई प्रौद्योगिकियां कुछ खतरे पैदा करती हैं.

यह देखते हुए कि OpenAI और अन्य AI प्रयोगशालाएँ बेहतर सुरक्षा जाँच के साथ आ सकती हैं, एक ठहराव अच्छे से अधिक नुकसान करेगा। हालाँकि, साझा सुरक्षा प्रोटोकॉल के एक सेट के पत्र का सुझाव जो "सख्ती से लेखापरीक्षित और स्वतंत्र बाहरी विशेषज्ञों द्वारा निरीक्षण किया जाता है" एक अच्छे विचार की तरह लगता है।

Google और Microsoft जैसे टेक दिग्गजों के साथ AI विकास और उनके उत्पादों में एकीकरण में अरबों डालने के साथ, यह संभावना नहीं है कि पत्र AI विकास की वर्तमान गति को प्रभावित करेगा।

एआई यहां रहने के लिए है

तकनीकी दिग्गजों के साथ अपने उत्पादों में एआई एकीकरण को आगे बढ़ाने और अनुसंधान और विकास में अरबों डॉलर लगाने के साथ, एआई यहां रहने के लिए है, चाहे विपक्ष कुछ भी कहे।

लेकिन इन तकनीकों को पटरी से उतरने से रोकने के लिए सुरक्षा उपायों को लागू करना एक बुरा विचार नहीं है और संभावित रूप से नुकसान के साधनों में बदल जाता है।