एआई चैटबॉट मतिभ्रम कर सकते हैं, आत्मविश्वास से गलत उत्तर दे सकते हैं - जिसका हैकर्स फायदा उठा सकते हैं। यहां बताया गया है कि कैसे हैकर्स मतिभ्रम को हथियार बनाते हैं।

बड़े भाषा मॉडल एआई अपूर्ण हैं और कभी-कभी गलत जानकारी उत्पन्न करते हैं। ये उदाहरण, जिन्हें मतिभ्रम कहा जाता है, व्यवसायों और व्यक्तिगत एआई उत्साही लोगों के लिए साइबर खतरा पैदा कर सकते हैं।

सौभाग्य से, आप बढ़ती जागरूकता और स्वस्थ दूसरे अनुमान के साथ एआई मतिभ्रम के खिलाफ सुरक्षा बढ़ा सकते हैं।

एआई मतिभ्रम क्यों करता है?

इस बात पर कोई सहमति नहीं है कि एआई मॉडल मतिभ्रम क्यों करते हैं, हालांकि कुछ संभावित अनुमान हैं।

एआई को बड़े पैमाने पर डेटा सेट से प्रशिक्षित किया जाता है, जिसमें अक्सर विचार अंतराल, सामग्री सामर्थ्य भिन्नता या हानिकारक पूर्वाग्रह जैसी खामियां होती हैं। इन अपूर्ण या अपर्याप्त डेटा सेटों से कोई भी प्रशिक्षण मतिभ्रम की जड़ हो सकता है, भले ही डेटा सेट के बाद के पुनरावृत्तियों को डेटा वैज्ञानिकों से क्यूरेशन प्राप्त हुआ हो।

समय के साथ, डेटा वैज्ञानिक जानकारी को अधिक सटीक बना सकते हैं और रिक्तियों को भरने और मतिभ्रम की क्षमता को कम करने के लिए अतिरिक्त ज्ञान इनपुट कर सकते हैं। ओवरसियर डेटा को गलत लेबल कर सकते हैं। प्रोग्रामिंग कोड में त्रुटियाँ हो सकती हैं. इन वस्तुओं को ठीक करना आवश्यक है क्योंकि एआई मॉडल मशीन लर्निंग एल्गोरिदम के आधार पर आगे बढ़ते हैं।

instagram viewer

ये एल्गोरिदम निर्धारण करने के लिए डेटा का उपयोग करते हैं। इसका एक विस्तार एआई का तंत्रिका नेटवर्क है, जो मशीन सीखने के अनुभव से लेकर नए निर्णय लेता है मानव मन की मौलिकता से मिलते जुलते हैं अधिक सटीकता से। इन नेटवर्कों में ट्रांसफार्मर होते हैं, जो दूर के डेटा बिंदुओं के बीच संबंधों को पार्स करते हैं। जब ट्रांसफार्मर खराब हो जाते हैं, तो मतिभ्रम हो सकता है।

कैसे AI मतिभ्रम हैकर्स के लिए अवसर प्रदान करता है

दुर्भाग्य से, यह सामान्य ज्ञान नहीं है कि एआई मतिभ्रम करता है, और एआई पूरी तरह से गलत होने पर भी आश्वस्त लगेगा। यह सब उपयोगकर्ताओं को एआई के प्रति अधिक आत्मसंतुष्ट और भरोसेमंद बनाने में योगदान देता है, और खतरे वाले कलाकार उन्हें डाउनलोड करने या अपने हमलों को ट्रिगर करने के लिए इस उपयोगकर्ता व्यवहार पर भरोसा करते हैं।

उदाहरण के लिए, एक एआई मॉडल एक नकली कोड लाइब्रेरी को भ्रमित कर सकता है और अनुशंसा कर सकता है कि उपयोगकर्ता उस लाइब्रेरी को डाउनलोड करें। यह संभावना है कि मॉडल समान प्रश्न पूछने वाले कई उपयोगकर्ताओं को इसी मतिभ्रम पुस्तकालय की अनुशंसा करना जारी रखेगा। यदि हैकर्स को इस मतिभ्रम का पता चलता है, तो वे कल्पित लाइब्रेरी का एक वास्तविक संस्करण बना सकते हैं - लेकिन खतरनाक कोड और मैलवेयर से भरा हुआ। अब, जब AI कोड लाइब्रेरी की अनुशंसा करना जारी रखता है, तो अनजाने उपयोगकर्ता हैकर्स का कोड डाउनलोड कर लेंगे।

एआई मतिभ्रम का लाभ उठाकर हानिकारक कोड और कार्यक्रमों को प्रसारित करना खतरे वाले अभिनेताओं के लिए एक आश्चर्यजनक अगला कदम है। जरूरी नहीं कि हैकर्स अनगिनत नए साइबर खतरे पैदा कर रहे हों - वे केवल उन्हें बिना किसी संदेह के पहुंचाने के नए तरीके खोज रहे हैं। एआई मतिभ्रम उसी मानवीय भोलेपन का शिकार होता है जिस पर ईमेल लिंक पर क्लिक करना निर्भर करता है (यही कारण है कि आपको ऐसा करना चाहिए)। यूआरएल को सत्यापित करने के लिए लिंक-चेकिंग टूल का उपयोग करें).

हैकर्स इसे अगले स्तर पर भी ले जा सकते हैं. यदि आप कोडिंग सहायता की तलाश कर रहे हैं और नकली, दुर्भावनापूर्ण कोड डाउनलोड कर रहे हैं, तो पृष्ठभूमि में चल रहे हानिकारक प्रोग्राम के साथ, धमकी देने वाला अभिनेता कोड को वास्तव में कार्यात्मक भी बना सकता है। सिर्फ इसलिए कि यह आपके अनुमान के अनुसार काम करता है इसका मतलब यह नहीं है कि यह खतरनाक नहीं है।

ऑनलाइन ऑटोपायलट व्यवहार के कारण शिक्षा की कमी आपको एआई-जनित अनुशंसाओं को डाउनलोड करने के लिए प्रोत्साहित कर सकती है। हर क्षेत्र पर अपनी व्यावसायिक प्रथाओं में एआई को अपनाने का सांस्कृतिक दबाव है। तकनीक से दूर अनगिनत संगठन और उद्योग प्रतिस्पर्धी बने रहने के लिए कम अनुभव और यहां तक ​​कि अधिक विरल साइबर सुरक्षा वाले एआई टूल के साथ खेल रहे हैं।

हथियारयुक्त एआई मतिभ्रम से कैसे सुरक्षित रहें

प्रगति क्षितिज पर है. अनैतिक पीढ़ियों को रोकने के लिए कंपनियों द्वारा डेटा सेट और नियम व शर्तों को समायोजित करने से पहले जेनरेटिव एआई के साथ मैलवेयर बनाना आसान था। खतरनाक एआई मतिभ्रम के खिलाफ आपकी सामाजिक, तकनीकी और व्यक्तिगत कमजोरियों को जानते हुए, सुरक्षित रहने के कुछ तरीके क्या हैं?

उद्योग में कोई भी व्यक्ति तंत्रिका नेटवर्क प्रौद्योगिकी और पुस्तकालय सत्यापन को परिष्कृत करने पर काम कर सकता है। प्रतिक्रियाएँ अंतिम उपयोगकर्ताओं तक पहुँचने से पहले जाँच और संतुलन होना चाहिए। यह एक आवश्यक उद्योग प्रगति होने के बावजूद, आपको खुद को और दूसरों को जेनरेटिव एआई खतरों से बचाने में भी भूमिका निभानी है।

औसत उपयोगकर्ता एआई मतिभ्रम को पहचानने का अभ्यास कर सकते हैं इन रणनीतियों के साथ:

  • वर्तनी और व्याकरण संबंधी त्रुटियाँ ढूँढना।
  • यह देखना कि कब क्वेरी का संदर्भ प्रतिक्रिया के संदर्भ के साथ संरेखित नहीं होता है।
  • यह स्वीकार करते हुए कि जब कंप्यूटर-दृष्टि-आधारित छवियां इस अवधारणा से मेल नहीं खातीं कि मानव आंखें इस अवधारणा को कैसे देखेंगी।

इंटरनेट से सामग्री डाउनलोड करते समय हमेशा सावधान रहें, भले ही AI द्वारा अनुशंसित हो। यदि AI कोड डाउनलोड करने की अनुशंसा करता है, तो आँख बंद करके ऐसा न करें; यह सुनिश्चित करने के लिए कि कोड वैध है, किसी भी समीक्षा की जाँच करें और देखें कि क्या आपको निर्माता के बारे में जानकारी मिल सकती है।

एआई मतिभ्रम-आधारित हमलों के खिलाफ सबसे अच्छा प्रतिरोध शिक्षा है। अपने अनुभवों के बारे में बोलना और पढ़ना कि कैसे दूसरों ने दुर्भावनापूर्ण मतिभ्रम को प्रेरित किया, चाहे दुर्घटना से या जानबूझकर परीक्षण से, भविष्य में एआई को नेविगेट करने में अमूल्य है।

एआई साइबर सुरक्षा को बढ़ाना

एआई से बात करते समय आपको सावधान रहना चाहिए कि आप क्या मांग रहे हैं। यथासंभव विशिष्ट बनकर और स्क्रीन पर आने वाली किसी भी चीज़ पर सवाल उठाकर खतरनाक परिणामों की संभावना को सीमित करें। सुरक्षित वातावरण में कोड का परीक्षण करें और अन्य भरोसेमंद जानकारी की तथ्य-जांच करें। इसके अतिरिक्त, दूसरों के साथ सहयोग करना, अपने अनुभवों पर चर्चा करना और एआई के बारे में शब्दजाल को सरल बनाना मतिभ्रम और साइबर सुरक्षा खतरे जनता को अधिक सतर्क और लचीला होने में मदद कर सकते हैं हैकर्स