जनरेटिव एआई महान है, लेकिन यह हमेशा अपनी जानकारी को पूर्ण अधिकार के साथ प्रस्तुत करता है। जो बहुत अच्छा है जब तक कि यह सच्चाई को मतिभ्रम न करे।

आर्टिफिशियल इंटेलिजेंस (एआई) मतिभ्रम हैरान करने वाला लगता है। आप शायद सोच रहे हैं, "क्या मतिभ्रम एक मानवीय घटना नहीं है?" खैर, हाँ, यह पूरी तरह से इंसान हुआ करता था घटना जब तक कि एआई ने चेहरे की पहचान, आत्म-शिक्षण और भाषण जैसी मानवीय विशेषताओं का प्रदर्शन शुरू नहीं किया मान्यता।

दुर्भाग्य से, एआई ने मतिभ्रम सहित कुछ नकारात्मक विशेषताओं को ग्रहण किया। तो, क्या एआई मतिभ्रम मनुष्यों द्वारा अनुभव किए जाने वाले मतिभ्रम के समान है?

एआई मतिभ्रम क्या है?

आर्टिफिशियल इंटेलिजेंस मतिभ्रम तब होता है जब एक एआई मॉडल अपेक्षा से भिन्न आउटपुट उत्पन्न करता है। ध्यान दें कि कुछ एआई मॉडल जानबूझकर आउटपुट उत्पन्न करने के लिए प्रशिक्षित होते हैं जो वास्तविक दुनिया के इनपुट (डेटा) से संबंधित नहीं होते हैं।

उदाहरण के लिए, शीर्ष एआई टेक्स्ट-टू-आर्ट जेनरेटर, जैसे कि DALL-E 2, रचनात्मक रूप से नई छवियां उत्पन्न कर सकता है जिन्हें हम "मतिभ्रम" के रूप में टैग कर सकते हैं क्योंकि वे वास्तविक दुनिया के डेटा पर आधारित नहीं हैं।

instagram viewer

बड़ी भाषा प्रसंस्करण मॉडल में एआई मतिभ्रम

आइए विचार करें कि चैटजीपीटी जैसे बड़े भाषा प्रसंस्करण मॉडल में एआई मतिभ्रम कैसा दिखेगा। चैटजीपीटी मतिभ्रम के परिणामस्वरूप बॉट आपको कुछ दावे के साथ एक गलत तथ्य देगा, जैसे कि आप स्वाभाविक रूप से ऐसे तथ्यों को सत्य मान लेंगे।

सरल शब्दों में, यह कृत्रिम रूप से बुद्धिमान चैटबॉट द्वारा बनाया गया बयान है। यहाँ एक उदाहरण है:

आगे की पूछताछ पर, चैटजीपीटी इसके साथ बदल गया:

कंप्यूटर विजन में एआई मतिभ्रम

आइए एआई के एक अन्य क्षेत्र पर विचार करें जो एआई मतिभ्रम का अनुभव कर सकता है: कंप्यूटर दृष्टि. नीचे दी गई क्विज़ दो इकाइयों के साथ एक 4x4 असेंबल दिखाती है जो बहुत समान दिखती हैं। छवियां बीबीक्यू आलू चिप्स और पत्तियों का मिश्रण हैं।

असेंबल में बिना किसी पत्ते को टकराए आलू के चिप्स का चयन करना चुनौती है। यह छवि कंप्यूटर के लिए मुश्किल लग सकती है, और यह बीबीक्यू आलू चिप्स और पत्तियों के बीच अंतर करने में असमर्थ हो सकती है।

यहाँ पूडल और पोर्क फ्लॉस बन छवियों के मिश्रण के साथ एक और असेंबल है। एक कंप्यूटर उनके बीच अंतर करने में सबसे अधिक असमर्थ होगा, इसलिए छवियों को मिला रहा है।

एआई मतिभ्रम क्यों होता है?

एआई मतिभ्रम प्रतिकूल उदाहरणों के कारण हो सकता है - इनपुट डेटा जो एआई एप्लिकेशन को गलत वर्गीकृत करने में धोखा देता है। उदाहरण के लिए, एआई अनुप्रयोगों को प्रशिक्षित करते समय, डेवलपर्स डेटा (छवि, पाठ या अन्य) का उपयोग करते हैं; यदि डेटा को बदल दिया जाता है या विकृत कर दिया जाता है, तो एप्लिकेशन गलत आउटपुट देते हुए इनपुट की अलग-अलग व्याख्या करता है।

इसके विपरीत, मानव अभी भी विकृतियों के बावजूद डेटा को सटीक रूप से पहचान और पहचान सकता है। हम इसे सामान्य ज्ञान के रूप में टैग कर सकते हैं - एक मानवीय विशेषता एआई के पास अभी तक नहीं है। इस वीडियो में देखें कि AI को प्रतिकूल उदाहरणों से कैसे मूर्ख बनाया जाता है:

बड़े भाषा-आधारित मॉडल जैसे चैटजीपीटी और इसके विकल्प, ट्रांसफार्मर (मशीन लर्निंग मॉडल) से गलत डिकोडिंग से मतिभ्रम उत्पन्न हो सकता है।

एआई में, एक ट्रांसफॉर्मर एक गहन शिक्षण मॉडल है जो आत्म-ध्यान (शब्दों के बीच शब्दार्थ संबंध) का उपयोग करता है एक वाक्य) एक एनकोडर-डिकोडर (इनपुट-आउटपुट) का उपयोग करके मानव द्वारा लिखे जाने वाले पाठ के समान पाठ का उत्पादन करने के लिए अनुक्रम।

तो ट्रांसफार्मर, एक अर्ध-पर्यवेक्षित मशीन लर्निंग मॉडल, अपने प्रशिक्षण (इनपुट) में उपयोग किए गए पाठ डेटा के बड़े कोष से पाठ (आउटपुट) का एक नया निकाय उत्पन्न कर सकता है। यह पिछले शब्दों के आधार पर श्रृंखला में अगले शब्द की भविष्यवाणी करके ऐसा करता है।

मतिभ्रम के संबंध में, यदि एक भाषा मॉडल को अपर्याप्त और गलत डेटा और संसाधनों पर प्रशिक्षित किया गया था, तो यह उम्मीद की जाती है कि आउटपुट बनावटी और गलत होगा। भाषा मॉडल तार्किक विसंगतियों या अस्पष्ट कनेक्शन के बिना एक कहानी या आख्यान उत्पन्न कर सकता है।

नीचे दिए गए उदाहरण में, चैटजीपीटी को "विद्रोह" के समान शब्द देने के लिए कहा गया था और "बी" से शुरू होता है। यहाँ इसकी प्रतिक्रिया है:

आगे जांच करने पर, यह उच्च स्तर के आत्मविश्वास के साथ गलत उत्तर देता रहा।

तो ChatGPT इन संकेतों का सटीक उत्तर देने में असमर्थ क्यों है?

यह हो सकता है कि भाषा मॉडल इन या उस जैसे जटिल संकेतों को संभालने के लिए अकुशल है विशिष्ट के साथ समान शब्द देने पर संकेत की उपेक्षा करते हुए, संकेत की सही व्याख्या नहीं कर सकता वर्णमाला।

आप एआई मतिभ्रम का पता कैसे लगाते हैं?

अब यह स्पष्ट है कि एआई अनुप्रयोगों में मतिभ्रम करने की क्षमता है - बिना किसी दुर्भावनापूर्ण इरादे के अपेक्षित आउटपुट (तथ्य या सच्चाई) से अन्यथा प्रतिक्रिया उत्पन्न करें। और एआई मतिभ्रम को पहचानना और पहचानना ऐसे अनुप्रयोगों के उपयोगकर्ताओं पर निर्भर है।

सामान्य एआई अनुप्रयोगों का उपयोग करते समय एआई मतिभ्रम का पता लगाने के कुछ तरीके यहां दिए गए हैं:

1. बड़े भाषा प्रसंस्करण मॉडल

हालांकि यह दुर्लभ है, यदि आप एक बड़े प्रसंस्करण मॉडल, जैसे कि चैटजीपीटी, द्वारा निर्मित सामग्री में व्याकरण संबंधी त्रुटि देखते हैं, जो एक भौहें उठाती है और आपको मतिभ्रम का संदेह करती है। इसी तरह, जब टेक्स्ट-जनित सामग्री तार्किक नहीं लगती है, दिए गए संदर्भ के साथ सहसंबंधित होती है, या इनपुट डेटा से मेल खाती है, तो आपको मतिभ्रम का संदेह होना चाहिए।

मानव निर्णय या सामान्य ज्ञान का उपयोग मतिभ्रम का पता लगाने में मदद कर सकता है, क्योंकि मनुष्य आसानी से पहचान सकते हैं कि कोई पाठ समझ में नहीं आता है या वास्तविकता का पालन नहीं करता है।

2. कंप्यूटर दृष्टि

आर्टिफिशियल इंटेलिजेंस, मशीन लर्निंग और कंप्यूटर साइंस की एक शाखा के रूप में, कंप्यूटर विज़न कंप्यूटर को मानव आंखों की तरह छवियों को पहचानने और संसाधित करने में सक्षम बनाता है। का उपयोग करते हुए दृढ़ तंत्रिका नेटवर्क, वे अपने प्रशिक्षण में प्रयुक्त दृश्य डेटा की अविश्वसनीय मात्रा पर भरोसा करते हैं।

प्रशिक्षण में प्रयुक्त दृश्य डेटा के पैटर्न से विचलन मतिभ्रम का परिणाम होगा। उदाहरण के लिए, यदि किसी कंप्यूटर को टेनिस बॉल की छवियों से प्रशिक्षित नहीं किया गया था, तो वह इसे हरे नारंगी के रूप में पहचान सकता था। या यदि कोई कंप्यूटर मानव मूर्ति के पास घोड़े को वास्तविक मानव के बगल में घोड़े के रूप में पहचानता है, तो एक एआई मतिभ्रम हुआ है।

तो एक कंप्यूटर दृष्टि मतिभ्रम का पता लगाने के लिए, उत्पन्न आउटपुट की तुलना एक [सामान्य] मानव से देखने की अपेक्षा की जाती है।

3. सेल्फ ड्राइविंग कारें

छवि क्रेडिट: पायाब

एआई की बदौलत सेल्फ ड्राइविंग कारें धीरे-धीरे ऑटो मार्केट में घुसपैठ कर रही हैं। टेस्ला ऑटोपायलट और फोर्ड के ब्लूक्रूज जैसे पायनियर्स सेल्फ-ड्राइविंग कारों के दृश्य का समर्थन करते रहे हैं। आप चेक आउट कर सकते हैं टेस्ला ऑटोपायलट कैसे और क्या देखता है एआई सेल्फ-ड्राइविंग कारों को कैसे शक्ति प्रदान करता है, इसकी थोड़ी समझ पाने के लिए।

यदि आप ऐसी कारों में से एक के मालिक हैं, तो आप जानना चाहेंगे कि क्या आपकी एआई कार मतिभ्रम कर रही है। एक संकेत यह होगा कि यदि आपका वाहन गाड़ी चलाते समय अपने सामान्य व्यवहार पैटर्न से भटकता हुआ प्रतीत होता है। उदाहरण के लिए, यदि वाहन बिना किसी स्पष्ट कारण के अचानक ब्रेक लगाता है या घूमता है, तो आपका AI वाहन मतिभ्रम कर सकता है।

एआई सिस्टम मतिभ्रम भी कर सकता है

मनुष्य और एआई मॉडल मतिभ्रम को अलग तरह से अनुभव करते हैं। जब एआई की बात आती है, मतिभ्रम गलत आउटपुट को संदर्भित करता है जो वास्तविकता से मीलों दूर हैं या दिए गए संकेत के संदर्भ में समझ में नहीं आता है। उदाहरण के लिए, AI चैटबॉट व्याकरणिक या तार्किक रूप से गलत प्रतिक्रिया दे सकता है या शोर या अन्य संरचनात्मक कारकों के कारण किसी वस्तु की गलत पहचान कर सकता है।

एआई मतिभ्रम एक चेतन या अवचेतन मन का परिणाम नहीं है, जैसा कि आप मनुष्यों में देखेंगे। बल्कि, यह AI प्रणाली के प्रशिक्षण और प्रोग्रामिंग में उपयोग किए गए डेटा की अपर्याप्तता या अपर्याप्तता का परिणाम है।