विज्ञापन
पिछले कुछ महीनों में, आपने आसपास के कवरेज को पढ़ा होगा एक लेख, स्टीफन हॉकिंग द्वारा सह-लेखक, कृत्रिम बुद्धिमत्ता से जुड़े जोखिमों पर चर्चा करना। लेख ने सुझाव दिया कि एआई मानव जाति के लिए एक गंभीर खतरा पैदा कर सकता है। हॉकिंग अकेले वहाँ नहीं हैं - एलोन मस्क तथा पीटर थिएल दोनों बौद्धिक सार्वजनिक आंकड़े हैं जिन्होंने समान चिंताओं को व्यक्त किया है (थिएल ने इस मुद्दे और संभावित समाधानों पर शोध करते हुए $ 1.3 मिलियन से अधिक का निवेश किया है)।
हॉकिंग के लेख और मस्क की टिप्पणियों की कवरेज, उस पर एक बिंदु को बहुत ठीक नहीं करने के लिए है, थोड़ा सा jovial। स्वर बहुत ज्यादा रहा है Worried इस अजीब बात पर गौर करें कि ये सभी गीदड़ चिंतित हैं। ' थोड़ा विचार इस विचार को दिया जाता है कि अगर पृथ्वी के कुछ सबसे चतुर लोग आपको चेतावनी दे रहे हैं कि कुछ बहुत खतरनाक हो सकता है, तो यह सिर्फ सुनने लायक हो सकता है।
यह समझ में आता है - दुनिया भर में लेने वाली कृत्रिम बुद्धि निश्चित रूप से बहुत अजीब और लगती है अनुमान्य, शायद विज्ञान कल्पना द्वारा इस विचार को पहले से दिए गए भारी ध्यान के कारण लेखकों के। तो, इन सभी नाममात्र के समझदार, तर्कसंगत लोगों ने क्या उगल दिया है?
इंटेलिजेंस क्या है?
आर्टिफिशियल इंटेलिजेंस के खतरे के बारे में बात करने के लिए, यह समझना उपयोगी हो सकता है कि खुफिया क्या है। इस मुद्दे को बेहतर ढंग से समझने के लिए, आइए एक खिलौना एआई आर्किटेक्चर पर एक नज़र डालें, जो शोधकर्ताओं द्वारा तर्क के सिद्धांत का अध्ययन करने के लिए उपयोग किया जाता है। इस खिलौने AI को AIXI कहा जाता है, और इसमें कई उपयोगी गुण हैं। यह लक्ष्य मनमाना हो सकता है, यह कंप्यूटिंग शक्ति के साथ अच्छी तरह से पैमाने पर है, और इसका आंतरिक डिज़ाइन बहुत साफ और सीधा है।
इसके अलावा, आप आर्किटेक्चर के सरल, व्यावहारिक संस्करणों को लागू कर सकते हैं जो चीजें कर सकते हैं Pacman खेलते हैं, अगर तुम चाहो। AIXI मार्क हिटर नामक AI शोधकर्ता का उत्पाद है, यकीनन एल्गोरिथम खुफिया पर सबसे महत्वपूर्ण विशेषज्ञ है। वह ऊपर के वीडियो में बात कर रहा है।
AIXI आश्चर्यजनक रूप से सरल है: इसमें तीन मुख्य घटक हैं: सिखाने वाला, योजनाकर्ता, तथा उपयोगिता समारोह.
- सिखाने वाला बिट्स के स्ट्रिंग्स में ले जाता है जो बाहरी दुनिया के बारे में इनपुट करता है, और कंप्यूटर प्रोग्राम के माध्यम से खोज करता है जब तक कि यह उन लोगों को नहीं पाता है जो आउटपुट के रूप में अपनी टिप्पणियों का उत्पादन करते हैं। ये कार्यक्रम, साथ में, यह अनुमान लगाने की अनुमति देते हैं कि भविष्य कैसा दिखेगा, बस प्रत्येक को चलाकर कार्यक्रम की लंबाई और परिणाम की संभावना के अनुसार कार्यक्रम को आगे बढ़ाना (ओकैम का कार्यान्वयन) उस्तरा)।
- योजनाकर्ता संभावित क्रियाओं के माध्यम से खोज जो एजेंट ले सकता है, और सीखने वाले मॉड्यूल का उपयोग करके यह अनुमान लगा सकता है कि यदि उनमें से प्रत्येक ने इसे लिया तो क्या होगा। इसके बाद उन्हें अनुमान लगाया जाता है कि पूर्वानुमानित परिणाम कितने अच्छे या बुरे हैं, और किस कोर्स को चुनता है क्रिया जो अपेक्षित परिणाम की अच्छाई को बढ़ाती है, उसकी संभावित संभावना से गुणा होती है इसे प्राप्त करना।
- अंतिम मॉड्यूल, उपयोगिता समारोह, एक सरल कार्यक्रम है जो दुनिया के भविष्य की स्थिति का वर्णन करता है, और इसके लिए एक उपयोगिता स्कोर की गणना करता है। यह उपयोगिता स्कोर कितना अच्छा या बुरा है, इसका परिणाम भविष्य के विश्व स्थिति का मूल्यांकन करने के लिए योजनाकार द्वारा उपयोग किया जाता है। उपयोगिता फ़ंक्शन मनमाना हो सकता है।
- एक साथ लिया, इन तीन घटकों एक फार्म अनुकूलक, जो किसी विशेष लक्ष्य के लिए अनुकूलन करता है, चाहे वह दुनिया में ही क्यों न हो।
यह सरल मॉडल एक बुद्धिमान एजेंट की मूल परिभाषा का प्रतिनिधित्व करता है। एजेंट अपने वातावरण का अध्ययन करता है, इसके मॉडल बनाता है, और फिर उन मॉडलों का उपयोग कार्रवाई के पाठ्यक्रम को खोजने के लिए करता है जो इसे प्राप्त होने वाले बाधाओं को अधिकतम करेगा। AIXI एक AI की संरचना के समान है जो शतरंज, या अन्य गेम को ज्ञात नियमों के साथ खेलता है - सिवाय इसके कि यह खेल के नियमों को शून्य ज्ञान से शुरू करके इसे खेलने में सक्षम बनाता है।
गणना करने के लिए पर्याप्त समय दिया गया AIXI, किसी भी लक्ष्य के लिए किसी भी प्रणाली को अनुकूलित करना सीख सकता है, हालांकि जटिल। यह आम तौर पर बुद्धिमान एल्गोरिथ्म है। ध्यान दें कि यह मानव जैसी बुद्धि (जैविक रूप से प्रेरित एआई) होने के समान नहीं है अलग-अलग विषय ओपनवॉर्म की जियोवानी इडली: दिमाग, कीड़े और कृत्रिम बुद्धिमत्तामानव मस्तिष्क का अनुकरण करना एक तरीका है, लेकिन विज्ञान के लिए ज्ञात सबसे सरल जानवरों में से एक, न्यूरोलॉजी और शरीर विज्ञान का अनुकरण करके एक ओपन-सोर्स प्रोजेक्ट महत्वपूर्ण पहला कदम उठा रहा है। अधिक पढ़ें ). दूसरे शब्दों में, AIXI किसी भी बौद्धिक कार्य (पर्याप्त कंप्यूटिंग शक्ति) पर किसी भी इंसान को पछाड़ने में सक्षम हो सकता है, लेकिन यह अपनी जीत के प्रति सचेत नहीं हो सकता है सोच मशीनें: क्या तंत्रिका विज्ञान और कृत्रिम बुद्धि हमें चेतना के बारे में सिखा सकती हैक्या कृत्रिम रूप से बुद्धिमान मशीनों और सॉफ्टवेयर का निर्माण हमें चेतना के कामकाज, और मानव मन की प्रकृति के बारे में सिखा सकता है? अधिक पढ़ें .
एक व्यावहारिक AI के रूप में, AIXI में बहुत सारी समस्याएं हैं। सबसे पहले, यह उन कार्यक्रमों को खोजने का कोई तरीका नहीं है जो उत्पादन में रुचि रखते हैं। यह एक ब्रूट-फोर्स एल्गोरिथम है, जिसका अर्थ है कि यदि आप मनमाने ढंग से शक्तिशाली कंप्यूटर के आसपास पड़े हैं तो यह व्यावहारिक नहीं है। AIXI के किसी भी वास्तविक कार्यान्वयन की आवश्यकता है एक सन्निकटन, और (आज) आम तौर पर एक काफी कच्चा है। फिर भी, AIXI हमें एक सैद्धांतिक झलक देता है कि एक शक्तिशाली कृत्रिम बुद्धि कैसी दिख सकती है, और यह कैसे कारण हो सकती है।
मान का स्थान
अगर आपने कोई कंप्यूटर प्रोग्रामिंग की है कंप्यूटर प्रोग्रामिंग 101 की मूल बातें - चर और डेटाटेप्सपहले और जहां इसके नाम से पहले ऑब्जेक्ट ओरिएंटेड प्रोग्रामिंग के बारे में थोड़ा परिचय दिया और बात की से आता है, मैंने सोचा कि यह समय है जब हम एक गैर-भाषा विशेष में प्रोग्रामिंग के पूर्ण मूल आधार के माध्यम से जाते हैं मार्ग। यह... अधिक पढ़ें , आप जानते हैं कि कंप्यूटर मोटे तौर पर, पैदल और यांत्रिक रूप से शाब्दिक हैं। मशीन यह नहीं जानती या परवाह नहीं है कि आप क्या करना चाहते हैं: यह केवल वही करता है जो उसे बताया गया है। मशीन इंटेलिजेंस के बारे में बात करते समय यह एक महत्वपूर्ण धारणा है।
इसे ध्यान में रखते हुए, कल्पना करें कि आपने एक शक्तिशाली कृत्रिम बुद्धि का आविष्कार किया है - आप ऊपर आ गए हैं आपके डेटा से मेल खाने वाली परिकल्पना और अच्छे उम्मीदवार पैदा करने के लिए चतुर एल्गोरिदम के साथ योजना है। आपका AI सामान्य समस्याओं को हल कर सकता है, और आधुनिक कंप्यूटर हार्डवेयर पर इतनी कुशलता से कर सकता है।
अब एक उपयोगिता फ़ंक्शन चुनने का समय है, जो यह निर्धारित करेगा कि एआई मान क्या है। आपको इसे मूल्य के लिए क्या पूछना चाहिए? याद रखें, जो भी फ़ंक्शन आप इसे अधिकतम करने के लिए कहेंगे, और कभी नहीं रुकेगा - भूत नहीं है वह मशीन जो कभी up जागेगी ’और अपने उपयोगिता फ़ंक्शन को बदलने का निर्णय लेती है, भले ही इसके लिए कितनी दक्षता में सुधार हो तर्क।
एलीएजर युडकोव्स्की इस तरह से रखो:
सभी कंप्यूटर प्रोग्रामिंग में, एजीआई की मूलभूत चुनौती और आवश्यक कठिनाई यह है कि यदि हम गलत कोड लिखते हैं, एआई स्वचालित रूप से हमारे कोड को नहीं देखेगा, गलतियों को चिह्नित करेगा, यह पता लगाएगा कि हम वास्तव में क्या कहने का मतलब है, और ऐसा करें बजाय। गैर-प्रोग्रामर कभी-कभी एक एजीआई या कंप्यूटर प्रोग्राम की कल्पना करते हैं, जो सामान्य रूप से एक नौकर के अनुरूप होता है, जो निर्विवाद रूप से आदेशों का पालन करता है। लेकिन ऐसा नहीं है कि एआई बिल्कुल है आज्ञाकारी इसके कोड के लिए; बल्कि, एआई बस है कोड।
यदि आप एक कारखाने का संचालन करने की कोशिश कर रहे हैं, और आप मशीन को पेपरक्लिप बनाने के लिए मूल्य बताते हैं, और फिर इसे कारखाने रोबोटों के झुंड का नियंत्रण देते हैं, तो आप अगले दिन वापस आकर यह पता लगा सकते हैं कि यह फीडस्टॉक के हर दूसरे रूप से बाहर चला गया है, आपके सभी कर्मचारियों को मार दिया है, और उनके हाथों से कागज़ बनाया है बाकी है। यदि, अपने गलत को सही करने के प्रयास में, आप मशीन को हर किसी को खुश करने के लिए फटकार लगाते हैं, तो आप अगले दिन इसे लोगों के दिमाग में तारों को खोजने के लिए वापस कर सकते हैं।
यहाँ पर यह है कि मनुष्यों के पास बहुत सारे जटिल मूल्य हैं जो हम मानते हैं कि अन्य मन के साथ साझा किया जाता है। हम पैसे को महत्व देते हैं, लेकिन हम मानव जीवन को अधिक महत्व देते हैं। हम खुश रहना चाहते हैं, लेकिन हम इसे करने के लिए अपने दिमाग में तार डालना नहीं चाहते हैं। जब हम अन्य मनुष्यों को निर्देश दे रहे होते हैं तो हमें इन बातों को स्पष्ट करने की आवश्यकता महसूस नहीं होती है। आप इस प्रकार की धारणाएँ नहीं बना सकते हैं, हालाँकि, जब आप किसी मशीन की उपयोगिता को डिज़ाइन कर रहे हों। एक साधारण उपयोगिता समारोह के आत्मा गणित के तहत सबसे अच्छा समाधान अक्सर समाधान होते हैं जो मानव नैतिक रूप से भयानक होने के लिए निक्स होंगे।
एक भोली उपयोगिता समारोह को अधिकतम करने के लिए एक बुद्धिमान मशीन की अनुमति देना लगभग हमेशा भयावह होगा। जैसा कि ऑक्सफोर्ड दार्शनिक निक बोसोम इसे कहते हैं,
हम स्पष्ट रूप से यह नहीं मान सकते हैं कि एक अधीक्षण आवश्यक रूप से किसी भी अंतिम मूल्यों को स्टीरियोटाइप रूप से ज्ञान के साथ साझा करेगा और मनुष्यों में बौद्धिक विकास- वैज्ञानिक जिज्ञासा, दूसरों के लिए उदार चिंता, आध्यात्मिक ज्ञान और चिंतन, सामग्री अधिग्रहण का त्याग, परिष्कृत संस्कृति के लिए एक स्वाद या जीवन में सरल सुख, विनम्रता और स्वार्थ के लिए, और इसके आगे।
मामलों को बदतर बनाने के लिए, यह बहुत मुश्किल है कि लोगों को मूल्य देने वाली हर चीज की पूरी और विस्तृत सूची निर्दिष्ट करें। प्रश्न के कई पहलू हैं, और एक भी भूल एक संभावित विनाशकारी है। यहां तक कि जिन लोगों के बारे में हम जानते हैं, उनमें भी सूक्ष्मताएं और जटिलताएं हैं जो उन्हें समीकरणों के स्वच्छ सिस्टम के रूप में लिखना मुश्किल बना देती हैं जिन्हें हम एक मशीन को एक उपयोगिता फ़ंक्शन के रूप में दे सकते हैं।
कुछ लोगों ने इसे पढ़ने के बाद निष्कर्ष निकाला कि उपयोगिता कार्यों के साथ एआई का निर्माण एक भयानक विचार है, और हमें बस उन्हें अलग तरह से डिजाइन करना चाहिए। इधर, बुरी खबर भी है - आप साबित कर सकते हैं, औपचारिक रूप से, कि किसी भी एजेंट के पास उपयोगिता फ़ंक्शन के बराबर कुछ नहीं होगा, उसकी सुसंगत प्राथमिकताएं नहीं हो सकती हैं भविष्य के विषय में।
पुनरावर्ती स्व-सुधार
उपरोक्त दुविधा का एक समाधान एआई एजेंटों को लोगों को चोट पहुंचाने का अवसर नहीं देना है: उन्हें केवल वे संसाधन दें जिनकी उन्हें आवश्यकता है जिस तरह से आप इसे हल करने का इरादा रखते हैं, उस समस्या को हल करें, उनकी बारीकी से निगरानी करें, और उन्हें महान करने के अवसरों से दूर रखें नुकसान। दुर्भाग्य से, बुद्धिमान मशीनों को नियंत्रित करने की हमारी क्षमता अत्यधिक संदिग्ध है।
यहां तक कि अगर वे हमारे मुकाबले ज्यादा स्मार्ट नहीं हैं, तो मशीन के लिए "बूटस्ट्रैप" की संभावना मौजूद है - बेहतर हार्डवेयर इकट्ठा करें या अपने स्वयं के कोड में सुधार करें जो इसे और भी स्मार्ट बनाता है। यह मशीन को परिमाण के कई आदेशों द्वारा मानव बुद्धि को छलांग लगाने की अनुमति दे सकता है, मनुष्यों को उसी अर्थ में आउटसोर्स कर सकता है जो मनुष्य बिल्लियों को आउटसोर्स करता है। यह परिदृश्य पहली बार I नाम के एक व्यक्ति द्वारा प्रस्तावित किया गया था। जे। अच्छा है, जिन्होंने द्वितीय विश्व युद्ध के दौरान एलन ट्यूरिंग के साथ एनिग्मा क्रिप्ट-विश्लेषण परियोजना पर काम किया था। उन्होंने इसे "इंटेलिजेंस विस्फोट" कहा, और इस तरह से इस मामले का वर्णन किया:
एक अल्ट्रा-इंटेलिजेंट मशीन को एक ऐसी मशीन के रूप में परिभाषित किया जाना चाहिए जो किसी भी आदमी की सभी बौद्धिक गतिविधियों को पार कर सकती है, हालांकि चतुर। चूंकि मशीनों का डिज़ाइन इन बौद्धिक गतिविधियों में से एक है, एक अति-बुद्धिमान मशीन और भी बेहतर मशीनों को डिजाइन कर सकती है; तब निर्विवाद रूप से एक "खुफिया विस्फोट" होगा, और मनुष्य की बुद्धि बहुत पीछे रह जाएगी। इस प्रकार, पहली अल्ट्रा-इंटेलिजेंट मशीन अंतिम आविष्कार है जिसे मनुष्य को कभी भी बनाने की आवश्यकता है, बशर्ते कि मशीन पर्याप्त रूप से सुस्त हो।
यह गारंटी नहीं है कि हमारे ब्रह्मांड में एक खुफिया विस्फोट संभव है, लेकिन इसकी संभावना नहीं है। जैसे-जैसे समय बीतता जाता है, कंप्यूटर में बुद्धिमत्ता के निर्माण के बारे में तेजी से और बुनियादी अंतर्दृष्टि मिलती है। इसका मतलब यह है कि संसाधन की आवश्यकता है कि अंतिम कूद करने के लिए एक सामान्य, बूस्ट ड्रॉप और निचले स्तर को बढ़ाने। कुछ बिंदु पर, हम अपने आप को एक ऐसी दुनिया में पाते हैं जिसमें लाखों लोग एक सर्वश्रेष्ठ खरीद के लिए ड्राइव कर सकते हैं और हार्डवेयर उठा सकते हैं और तकनीकी साहित्य उन्हें एक आत्म-सुधार करने वाली कृत्रिम बुद्धिमत्ता का निर्माण करने की आवश्यकता है, जिसे हमने पहले ही स्थापित कर लिया है खतरनाक। एक ऐसी दुनिया की कल्पना करें जिसमें आप लाठी और चट्टानों से परमाणु बम बना सकते थे। भविष्य में जिस तरह की हम चर्चा कर रहे हैं।
और, अगर कोई मशीन उस छलांग को लगाती है, तो वह बौद्धिक रूप से मानव प्रजातियों को बहुत तेजी से पीछे छोड़ सकती है उत्पादकता, समस्याओं को हल करना जो एक अरब मानव हल नहीं कर सकता है, उसी तरह जैसे कि मनुष्य उन समस्याओं को हल कर सकता है जो ए बिलियन बिल्लियाँ नहीं कर सकती
यह शक्तिशाली रोबोट (या जैव या नैनो तकनीक) विकसित कर सकता है और अपेक्षाकृत तेजी से दुनिया को फिर से आकार देने की क्षमता हासिल करता है, जैसा कि वह चाहता है, और इसके बारे में बहुत कम हो सकता है। इस तरह की खुफिया जानकारी पृथ्वी के और बाकी सौर मंडल को बिना किसी परेशानी के अलग-अलग हिस्सों के लिए छीन सकती है। ऐसा लगता है कि ऐसा विकास मानवता के लिए विनाशकारी होगा। एक कृत्रिम बुद्धिमत्ता दुनिया को नष्ट करने के लिए दुर्भावनापूर्ण नहीं है, केवल भयावह रूप से उदासीन है।
जैसा कि कहा जाता है, "मशीन आपको प्यार या नफरत नहीं करती है, लेकिन आप परमाणुओं से बने होते हैं जो अन्य चीजों के लिए उपयोग कर सकते हैं।"
जोखिम मूल्यांकन और शमन
इसलिए, अगर हम स्वीकार करते हैं कि एक शक्तिशाली कृत्रिम बुद्धिमत्ता को डिजाइन करना जो एक साधारण उपयोगिता फ़ंक्शन को अधिकतम करता है, तो हम वास्तव में कितनी परेशानी में हैं? उन प्रकार की मशीनों का निर्माण संभव होने से पहले हमें कब तक मिल गया है? बेशक, यह बताना मुश्किल है।
आर्टिफिशियल इंटेलिजेंस डेवलपर्स हैं प्रगति कर रहा। आर्टिफिशियल इंटेलिजेंस प्रोग्रामिंग में नवीनतम देखने के लिए 7 अद्भुत वेबसाइटेंआर्टिफिशियल इंटेलिजेंस 2001 से अभी तक एचएएल नहीं है: द स्पेस ओडिसी... लेकिन हम भयानक रूप से करीब आ रहे हैं। निश्चित रूप से, एक दिन यह हॉलीवुड द्वारा चर्चित किए जा रहे विज्ञान फाई पोटाबोलर्स के समान हो सकता है ... अधिक पढ़ें हम जिन मशीनों का निर्माण करते हैं और जिन समस्याओं को वे हल कर सकते हैं वे लगातार दायरे में बढ़ रही हैं। 1997 में, डीप ब्लू मानव ग्रैंडमास्टर की तुलना में अधिक बड़े स्तर पर शतरंज खेल सकता था। 2011 में, आईबीएम के वॉटसन पूरी जानकारी को पढ़ सकते हैं और अच्छी तरह से और तेजी से जानकारी को संश्लेषित कर सकते हैं और सर्वश्रेष्ठ मानव को हरा सकते हैं खिलाड़ियों ने एक ओपन एंडेड प्रश्न और उत्तर के खेल को सजा और वर्डप्ले के साथ बनाया - जो कि चौदह में बहुत प्रगति है वर्षों।
अभी, Google है गहन शिक्षण में भारी निवेश करनाएक तकनीक जो सरल तंत्रिका नेटवर्क की श्रृंखलाओं का निर्माण करके शक्तिशाली तंत्रिका नेटवर्क के निर्माण की अनुमति देती है। यह निवेश इसे भाषण और छवि मान्यता में गंभीर प्रगति करने की अनुमति देता है। क्षेत्र में उनका सबसे हालिया अधिग्रहण डीप लर्निंग स्टार्टअप है, जिसे डीपमाइंड कहा जाता है, जिसके लिए उन्होंने लगभग $ 400 मिलियन का भुगतान किया। सौदे की शर्तों के तहत, Google यह सुनिश्चित करने के लिए एक नैतिकता बोर्ड बनाने पर सहमत हुआ कि उनकी AI तकनीक सुरक्षित रूप से विकसित हो।
उसी समय, आईबीएम वाटसन 2.0 और 3.0 को विकसित कर रहा है, जो सिस्टम छवियों और वीडियो को संसाधित करने और निष्कर्षों का बचाव करने में सक्षम हैं। उन्होंने नीचे दिए गए वीडियो डेमो में किसी विषय के लिए और उसके खिलाफ तर्कों को संश्लेषित करने की वाटसन की क्षमता का एक सरल, प्रारंभिक डेमो दिया। परिणाम अपूर्ण हैं, लेकिन एक प्रभावशाली कदम है।
इनमें से कोई भी तकनीक स्वयं अभी खतरनाक नहीं है: एक क्षेत्र के रूप में कृत्रिम बुद्धि अभी भी छोटे बच्चों द्वारा महारत हासिल करने की क्षमताओं से मेल खाती है। कंप्यूटर प्रोग्रामिंग और एआई डिज़ाइन एक बहुत ही कठिन, उच्च-स्तरीय संज्ञानात्मक कौशल है, और संभवतः अंतिम मानव कार्य होगा जो मशीनों में कुशल हो जाता है। इससे पहले कि हम उस बिंदु पर पहुंचें, हमारे पास सर्वव्यापी मशीनें भी होंगी वह गाड़ी चला सकता है यहाँ है कि हम कैसे चालक रहित कारों से भरी दुनिया में पहुंचेंगेड्राइविंग एक थकाऊ, खतरनाक और मांग वाला कार्य है। क्या यह एक दिन Google की ड्राइवरलेस कार तकनीक द्वारा स्वचालित हो सकता है? अधिक पढ़ें , चिकित्सा और कानून का अभ्यास करें, और शायद अन्य बातों के साथ-साथ गहरा आर्थिक परिणाम भी।
आत्म-सुधार के विभक्ति बिंदु पर पहुँचने में हमें जो समय लगेगा, वह इस बात पर निर्भर करेगा कि हमारे पास कितने अच्छे विचार हैं। उन प्रकारों की तकनीकी प्रगति का पूर्वानुमान करना बेहद कठिन है। यह अनुचित नहीं लगता है कि हम बीस वर्षों के समय में मजबूत एआई का निर्माण करने में सक्षम हो सकते हैं, लेकिन यह भी अनुचित नहीं लगता है कि इसमें अस्सी वर्ष लग सकते हैं। किसी भी तरह से, यह अंततः होगा, और यह मानने का कारण है कि जब ऐसा होता है, तो यह बहुत खतरनाक होगा।
इसलिए, यदि हम स्वीकार करते हैं कि यह एक समस्या है, तो हम इसके बारे में क्या कर सकते हैं? इसका उत्तर यह सुनिश्चित करना है कि पहली बुद्धिमान मशीनें सुरक्षित हैं, ताकि वे एक महत्वपूर्ण स्तर की बुद्धि को बूटस्ट्रैप कर सकें, और फिर बाद में बनी असुरक्षित मशीनों से हमारी रक्षा कर सकें। यह 'सुरक्षा' मानवीय मूल्यों को साझा करने और मानवता की रक्षा और मदद करने के लिए तैयार होने के द्वारा परिभाषित किया गया है।
क्योंकि हम वास्तव में मशीन में मानवीय मूल्यों को बैठाने और प्रोग्राम करने के लिए नहीं हो सकते, इसलिए संभवतः एक उपयोगिता फ़ंक्शन को डिजाइन करना आवश्यक होगा जिसे मशीन के लिए आवश्यक है मनुष्यों का निरीक्षण करें, हमारे मूल्यों को कम करें, और फिर उन्हें अधिकतम करने का प्रयास करें. विकास की इस प्रक्रिया को सुरक्षित बनाने के लिए, विशेष रूप से डिज़ाइन किए गए कृत्रिम बुद्धिमत्ता को विकसित करने के लिए भी उपयोगी हो सकता है नहीं अगर वे विकास के दौरान भटकने लगें तो उनकी उपयोगिता के बारे में प्राथमिकताएँ रखना, हमें उन्हें ठीक करने या प्रतिरोध के बिना उन्हें बंद करने की अनुमति देना।
एक सुरक्षित मशीन इंटेलिजेंस बनाने के लिए जिन समस्याओं को हल करने की आवश्यकता है उनमें से कई गणितीय रूप से कठिन हैं, लेकिन विश्वास करने का कारण है कि उन्हें हल किया जा सकता है। इस मुद्दे पर कई विभिन्न संगठन काम कर रहे हैं, जिनमें शामिल हैं ऑक्सफोर्ड में मानवता संस्थान का भविष्य, और यह मशीन इंटेलिजेंस रिसर्च इंस्टीट्यूट (जो पीटर थिएल फंड)।
MIRI विशेष रूप से हितैषी AI बनाने के लिए आवश्यक गणित को विकसित करने में रुचि रखता है। अगर यह पता चला है कि कृत्रिम बुद्धि को बूटस्ट्रैप करना संभव है, तो इस तरह का विकास करना ‘अनुकूल एआई’ तकनीक, यदि सफल हो, तो सबसे महत्वपूर्ण बात यह है कि मनुष्य के पास सबसे महत्वपूर्ण चीज हो सकती है कभी किया।
क्या आपको लगता है कि कृत्रिम बुद्धिमत्ता खतरनाक है? क्या आप इस बारे में चिंतित हैं कि AI का भविष्य क्या हो सकता है? नीचे कि टिप्पणियों अनुभाग के लिए अपने विचार साझा करें!
चित्र साभार: Lwp Kommunikáció Via Flickr, "तंत्रिका नेटवर्क", Fdecomite द्वारा," img_7801", स्टीव रेन वाटर द्वारा," ई-वॉव ", केओनी कैबरल द्वारा,"new_20x", रॉबर्ट कडमोर द्वारा,"पेपर क्लिप्स“, क्लिफर्ड वालेस द्वारा
दक्षिण पश्चिम में स्थित एक लेखक और पत्रकार, आंद्रे को 50 डिग्री सेल्सियस तक कार्यात्मक रहने की गारंटी है, और बारह फीट की गहराई तक जलरोधी है।