एआई की भावना के बारे में चर्चा कोई नई बात नहीं है, लेकिन Google के AI LaMDA के बारे में खबरों ने आग की लपटों को हवा दे दी है। एक इंजीनियर के दावा करने के बाद कि बॉट होश में था, यहाँ तक कि एक आत्मा होने के बावजूद, कुछ परिचित प्रश्न फिर से उठे हैं।
क्या AI जैसा LaMDA वास्तव में संवेदनशील या आत्म-जागरूक हो सकता है, और यदि हां, तो आप कैसे बता सकते हैं? फर्क पड़ता है क्या?
लैएमडीए क्या है?
संवाद अनुप्रयोगों के लिए भाषा मॉडल के लिए संक्षिप्त LaMDA, पहली बार 2021 में Google के डेवलपर सम्मेलन में दिखाई दिया। उन्नत एआई सिस्टम अन्य, छोटे चैटबॉट बनाने में मदद करने वाला है। जब Google ने पहली बार इसे पेश किया, तो उसने Google सहायक और खोज जैसी सेवाओं को अधिक मानवीय, या कम से कम प्राकृतिक महसूस करने में मदद करते हुए, इसे हर चीज में एकीकृत करने की योजना की घोषणा की।
जब Google इंजीनियर ब्लेक लेमोइन ने यह देखने के लिए LaMDA के साथ बात की कि क्या यह अभद्र भाषा का इस्तेमाल करता है, तो वह एक अलग प्रभाव के साथ आया। लेमोइन ने दावा किया कि LaMDA संवेदनशील था, और अगर उसे नहीं पता था कि यह एक बॉट है, तो वह सोचेगा कि यह आठ साल का बच्चा था।
LaMDA के साथ अपनी बातचीत के बाद, लेमोइन ने यह साबित करने की कोशिश की कि यह सचेत था और उनका मानना था कि उनके कानूनी अधिकार थे। जवाब में, Google ने गोपनीयता अनुबंधों को तोड़ने के लिए लेमोइन को भुगतान किए गए प्रशासनिक अवकाश पर रखा।
क्या LaMDA वास्तव में संवेदनशील है?
तो, क्या LaMDA वास्तव में संवेदनशील है? इस मुद्दे पर वजन करने वाले अधिकांश विशेषज्ञ संदेहजनक हैं। LaMDA इंटरनेट से अरबों शब्दों का विश्लेषण करने वाला एक अत्यधिक उन्नत AI चैट प्लेटफ़ॉर्म है, इसलिए यह एक वास्तविक व्यक्ति की तरह लगने में कुशल है।
यह पहली बार नहीं है जब Google के AI में से किसी ने लोगों को यह समझने के लिए मूर्ख बनाया है कि यह मानव है। 2018 में, Google ने एक टेबल आरक्षित करने के लिए एक रेस्तरां को कॉल करके अपने डुप्लेक्स एआई का प्रदर्शन किया। दूसरे छोर पर मौजूद कर्मचारी को किसी भी समय संदेह नहीं हुआ कि वे किसी व्यक्ति से बात कर रहे हैं।
भावना को परिभाषित करना मुश्किल है, हालांकि अधिकांश लोग संदेह एआई उस बिंदु पर पहुंच गया है अभी तक। हालाँकि, महत्वपूर्ण प्रश्न यह नहीं हो सकता है कि क्या LaMDA वास्तव में संवेदनशील है, लेकिन इससे क्या फर्क पड़ता है अगर यह लोगों को यह सोचने में मूर्ख बना सकता है कि यह है।
LaMDA के संभावित कानूनी निहितार्थ
LaMDA की स्थिति बहुत सारे कानूनी और नैतिक प्रश्न उठाती है। सबसे पहले, कुछ लोग सवाल कर सकते हैं कि क्या Google लेमोइन को इसके बारे में बोलने के लिए छुट्टी पर रखने के लिए सही था।
न्यूयॉर्क के श्रम कानून की धारा 740 के अनुसार, व्हिसलब्लोअर सुरक्षा कर्मचारियों को इस तरह से बचाती है परिणाम अगर उन्हें लगता है कि उनके नियोक्ता के व्यवहार कानून तोड़ते हैं या जनता के लिए एक महत्वपूर्ण जोखिम पैदा करते हैं सुरक्षा। LaMDA की कथित भावना उस कानूनी आवश्यकता को पूरा नहीं करती है, लेकिन क्या यह होना चाहिए?
एआई अधिकार देना एक मुश्किल विषय है। जबकि एआई कर सकता है चीजें बनाएं और मानवीय दिखें, यदि इन मशीनों के पास कानूनी सुरक्षा है, तो आप कुछ जटिल स्थितियों में भाग सकते हैं। कानूनी अधिकार पुरस्कारों और दंडों के इर्द-गिर्द काम करते हैं जो एआई को प्रभावित नहीं करते, न्याय को जटिल बनाते हैं।
यदि एक सेल्फ-ड्राइविंग कार एक पैदल यात्री से टकराती है, तो क्या एआई दोषी है यदि कानून इसे मानव के रूप में मानता है? और यदि ऐसा है, तो यह पीड़ित को सख्ती से न्याय नहीं देता है क्योंकि आप तकनीकी रूप से एआई को उसी तरह से दंडित नहीं कर सकते जैसे आप एक इंसान को करते हैं।
एक और सवाल जो LaMDA और इसी तरह के AI चैटबॉट्स के साथ उठता है, वह है उनकी सुरक्षा। अगर ये बॉट पूरी तरह से वास्तविक लगते हैं, तो लोग उन पर अधिक भरोसा कर सकते हैं और उन्हें देने के लिए तैयार हो सकते हैं अधिक संवेदनशील जानकारी. अगर यह तकनीक गलत हाथों में पड़ जाती है तो इससे गोपनीयता और सुरक्षा संबंधी चिंताओं का द्वार खुल जाता है।
एआई जटिल नैतिक प्रश्न प्रस्तुत करता है
LaMDA जैसे AI अधिक परिष्कृत और सजीव होते रहते हैं। जैसे-जैसे यह प्रवृत्ति बढ़ती है, कंपनियों और सांसदों को पुनर्मूल्यांकन करना चाहिए कि वे एआई के साथ कैसे व्यवहार करते हैं और ये निर्णय न्याय और सुरक्षा को कैसे प्रभावित कर सकते हैं।
जैसा कि यह खड़ा है, Google का LaMDA AI संवेदनशील नहीं हो सकता है, लेकिन यह लोगों को यह सोचने के लिए चकमा देने के लिए काफी अच्छा है, जिससे कुछ अलार्म बजने चाहिए।