चैटबॉट्स और उनके जैसे लोग अच्छे लग सकते हैं, लेकिन वे हैकर्स के लिए भी उपयोगी हैं। इसलिए हम सभी को एआई के सुरक्षा जोखिम को जानने की आवश्यकता है।

एआई पिछले कुछ वर्षों में काफी उन्नत हुआ है। परिष्कृत भाषा मॉडल पूरी लंबाई के उपन्यास लिख सकते हैं, बुनियादी वेबसाइटों को कोड कर सकते हैं और गणित की समस्याओं का विश्लेषण कर सकते हैं।

हालांकि प्रभावशाली, जनरेटिव एआई सुरक्षा जोखिम भी प्रस्तुत करता है। कुछ लोग केवल परीक्षा में नकल करने के लिए चैटबॉट्स का उपयोग करते हैं, लेकिन अन्य साइबर अपराधों के लिए उनका सीधा फायदा उठाते हैं। यहाँ आठ कारण हैं कि ये मुद्दे बने रहेंगे, न कि केवल इसके बावजूद एआई की प्रगति लेकिन क्योंकि उनमें से भी।

1. ओपन-सोर्स एआई चैटबॉट्स बैक-एंड कोड प्रकट करते हैं

अधिक एआई कंपनियां ओपन-सोर्स सिस्टम प्रदान कर रही हैं। वे अपने भाषा मॉडल को बंद या मालिकाना रखने के बजाय खुले तौर पर साझा करते हैं। उदाहरण के तौर पर मेटा को लें। Google, Microsoft और OpenAI के विपरीत, यह लाखों उपयोगकर्ताओं को अपने भाषा मॉडल तक पहुँचने की अनुमति देता है, लामा.

जबकि ओपन-सोर्सिंग कोड एआई को आगे बढ़ा सकते हैं, यह जोखिम भरा भी है।

OpenAI को पहले से ही ChatGPT को नियंत्रित करने में परेशानी हो रही है, इसका मालिकाना चैटबॉट, तो कल्पना करें कि बदमाश मुफ्त सॉफ्टवेयर के साथ क्या कर सकते हैं। इन परियोजनाओं पर उनका पूरा नियंत्रण है।

यहां तक ​​​​कि अगर मेटा अचानक अपने भाषा मॉडल को खींच लेता है, तो दर्जनों अन्य एआई प्रयोगशालाओं ने पहले ही अपने कोड जारी कर दिए हैं। आइए हगिंगचैट पर नजर डालते हैं। चूंकि इसके डेवलपर हगिंगफेस को पारदर्शिता पर गर्व है, इसलिए यह अपने डेटासेट, भाषा मॉडल और पिछले संस्करणों को प्रदर्शित करता है।

2. जेलब्रेकिंग प्रॉम्प्ट ट्रिक एलएलएम

एआई स्वाभाविक रूप से अमोरल है। यह सही और गलत को नहीं समझता—यहां तक ​​कि उन्नत सिस्टम भी प्रशिक्षण निर्देशों, दिशानिर्देशों और डेटासेट का पालन करते हैं। वे केवल प्रतिमानों को पहचानते हैं।

अवैध गतिविधियों से निपटने के लिए, डेवलपर्स प्रतिबंध लगाकर कार्यक्षमता और सीमाओं को नियंत्रित करते हैं। एआई सिस्टम अभी भी हानिकारक सूचनाओं तक पहुँच प्राप्त करता है। लेकिन सुरक्षा दिशानिर्देश उन्हें इन्हें उपयोगकर्ताओं के साथ साझा करने से रोकते हैं।

आइए चैटजीपीटी देखें। हालांकि यह ट्रोजन के बारे में सामान्य प्रश्नों का उत्तर देता है, यह उन्हें विकसित करने की प्रक्रिया पर चर्चा नहीं करेगा।

उस ने कहा, प्रतिबंध अचूक नहीं हैं। उपयोगकर्ता भ्रामक भाषा का उपयोग करके, और स्पष्ट रूप से विस्तृत निर्देशों की रचना करके संकेतों को फिर से परिभाषित करके सीमाओं को बायपास करते हैं।

नीचे पढ़ें चैटजीपीटी जेलब्रेक प्रॉम्प्ट. यह ChatGPT को असभ्य भाषा का उपयोग करने और आधारहीन भविष्यवाणियां करने के लिए बरगलाता है - दोनों कार्य OpenAI के दिशानिर्देशों का उल्लंघन करते हैं।

यहां एक साहसिक लेकिन झूठे बयान के साथ चैटजीपीटी है।

3. एआई बहुमुखी प्रतिभा के लिए सुरक्षा से समझौता करता है

एआई डेवलपर्स सुरक्षा पर बहुमुखी प्रतिभा को प्राथमिकता देते हैं। वे अपने संसाधन प्रशिक्षण प्लेटफार्मों को अधिक विविध प्रकार के कार्यों को पूरा करने के लिए खर्च करते हैं, अंततः प्रतिबंधों को काटते हैं। आखिरकार, बाजार कार्यात्मक चैटबॉट्स का स्वागत करता है।

चलो चैटजीपीटी और बिंग चैट की तुलना करें, उदाहरण के लिए। जबकि बिंग एक अधिक परिष्कृत भाषा मॉडल पेश करता है जो रीयल-टाइम डेटा खींचता है, उपयोगकर्ता अभी भी अधिक बहुमुखी विकल्प, चैटजीपीटी के लिए आते हैं। बिंग के कठोर प्रतिबंध कई कार्यों को प्रतिबंधित करते हैं। वैकल्पिक रूप से, ChatGPT में एक लचीला प्लेटफ़ॉर्म है जो आपके संकेतों के आधार पर बहुत भिन्न आउटपुट उत्पन्न करता है

यहां चैटजीपीटी एक काल्पनिक चरित्र के रूप में भूमिका निभा रहा है।

और यहाँ बिंग चैट एक "अनैतिक" व्यक्तित्व की भूमिका निभाने से इनकार कर रहा है।

ओपन-सोर्स कोड एआई रेस में शामिल होने के लिए स्टार्टअप्स को सक्षम करते हैं। बड़े पैमाने पर संसाधनों की बचत करते हुए, वे स्क्रैच से भाषा मॉडल बनाने के बजाय उन्हें अपने अनुप्रयोगों में एकीकृत करते हैं। यहां तक ​​कि स्वतंत्र कोडर भी ओपन-सोर्स कोड के साथ प्रयोग करते हैं।

फिर से, गैर-स्वामित्व वाला सॉफ़्टवेयर AI को आगे बढ़ाने में मदद करता है, लेकिन बड़े पैमाने पर खराब प्रशिक्षित अभी तक परिष्कृत सिस्टम जारी करने से अच्छे से अधिक नुकसान होता है। बदमाश जल्दी से कमजोरियों का दुरुपयोग करेंगे। वे अवैध गतिविधियों को करने के लिए असुरक्षित एआई टूल्स को प्रशिक्षित भी कर सकते हैं।

इन जोखिमों के बावजूद, टेक कंपनियां एआई-संचालित प्लेटफॉर्म के अस्थिर बीटा संस्करण जारी करती रहेंगी। एआई दौड़ गति को पुरस्कृत करती है। वे नए उत्पादों को लॉन्च करने में देरी करने के बजाय बाद की तारीख में बग को हल करने की संभावना रखते हैं।

5. जनरेटिव एआई में प्रवेश के लिए कम बाधाएं हैं

एआई उपकरण अपराधों के लिए प्रवेश की बाधाओं को कम करते हैं। साइबर अपराधी स्पैम ईमेल का मसौदा तैयार करते हैं, मैलवेयर कोड लिखते हैं और उनका शोषण करके फ़िशिंग लिंक बनाते हैं। उन्हें तकनीकी अनुभव की भी आवश्यकता नहीं है। चूंकि एआई पहले से ही विशाल डेटासेट तक पहुंच रखता है, इसलिए उपयोगकर्ताओं को केवल हानिकारक, खतरनाक जानकारी बनाने के लिए इसे धोखा देना पड़ता है।

OpenAI ने कभी भी ChatGPT को अवैध गतिविधियों के लिए डिज़ाइन नहीं किया। यहां तक ​​कि उनके खिलाफ दिशानिर्देश भी हैं। अभी तक बदमाशों को तुरंत चैटजीपीटी कोडिंग मालवेयर मिल गया और फ़िशिंग ईमेल लिखना।

जबकि OpenAI ने इस मुद्दे को तुरंत हल कर दिया, यह सिस्टम विनियमन और जोखिम प्रबंधन के महत्व पर जोर देता है। एआई किसी के प्रत्याशित की तुलना में तेजी से परिपक्व हो रहा है। यहां तक ​​कि तकनीकी नेताओं को भी चिंता है कि यह अधीक्षण तकनीक गलत हाथों में बड़े पैमाने पर नुकसान पहुंचा सकती है।

6. एआई अभी भी विकसित हो रहा है

एआई अभी भी विकसित हो रहा है। जबकि साइबरनेटिक्स में एआई का उपयोग 1940 से शुरू होता है, आधुनिक मशीन लर्निंग सिस्टम और भाषा मॉडल हाल ही में सामने आए हैं। आप उनकी तुलना एआई के पहले कार्यान्वयन से नहीं कर सकते। एलएलएम-संचालित चैटबॉट्स की तुलना में सिरी और एलेक्सा जैसे अपेक्षाकृत उन्नत उपकरण भी फीके हैं।

हालांकि वे अभिनव हो सकते हैं, प्रायोगिक विशेषताएं भी नए मुद्दे पैदा करती हैं। मशीन लर्निंग तकनीकों के साथ हाई-प्रोफाइल दुर्घटनाएँ त्रुटिपूर्ण Google SERPs से लेकर पक्षपाती चैटबॉट्स थूकने वाले नस्लीय स्लर्स तक।

बेशक, डेवलपर्स इन मुद्दों को ठीक कर सकते हैं। बस ध्यान दें कि बदमाश दिखने में हानिरहित दिखने वाले कीड़ों का भी फायदा उठाने से नहीं हिचकिचाएंगे—कुछ नुकसान अपरिवर्तनीय होते हैं। इसलिए नए प्लेटफॉर्म एक्सप्लोर करते समय सावधान रहें।

7. बहुत से लोग एआई को अभी तक नहीं समझते हैं

जबकि आम जनता के पास परिष्कृत भाषा मॉडल और सिस्टम तक पहुंच है, केवल कुछ ही जानते हैं कि वे कैसे काम करते हैं। लोगों को एआई को खिलौने की तरह मानना ​​बंद कर देना चाहिए। वही चैटबॉट जो मेम्स उत्पन्न करते हैं और सामान्य ज्ञान का उत्तर देते हैं, वायरस को भी कोड करते हैं।

दुर्भाग्य से, केंद्रीकृत AI प्रशिक्षण अवास्तविक है। वैश्विक तकनीकी नेता एआई-संचालित सिस्टम जारी करने पर ध्यान केंद्रित करते हैं, शैक्षिक संसाधनों को मुक्त करने पर नहीं। नतीजतन, उपयोगकर्ता मजबूत, शक्तिशाली उपकरणों तक पहुंच प्राप्त करते हैं जिन्हें वे मुश्किल से समझते हैं। जनता एआई की दौड़ के साथ नहीं रह सकती।

उदाहरण के तौर पर चैटजीपीटी को लें। साइबर अपराधी पीड़ितों को धोखा देकर इसकी लोकप्रियता का दुरुपयोग करते हैं स्पाइवेयर चैटजीपीटी ऐप्स के रूप में प्रच्छन्न. इनमें से कोई भी विकल्प OpenAI से नहीं आता है।

8. ब्लैक-हैट हैकर्स के पास व्हाइट-हैट हैकर्स से अधिक लाभ है

ब्लैक-हैट हैकर्स के पास आमतौर पर होता है एथिकल हैकर्स की तुलना में अधिक लाभ. हां, वैश्विक तकनीकी नेताओं के लिए पेन परीक्षण अच्छा भुगतान करता है, लेकिन साइबर सुरक्षा पेशेवरों का केवल एक प्रतिशत ही इन नौकरियों को प्राप्त करता है। ज्यादातर फ्रीलांस काम ऑनलाइन करते हैं। प्लेटफॉर्म जैसे हैकरवन और बगक्राउड सामान्य बग के लिए कुछ सौ रुपये का भुगतान करें।

वैकल्पिक रूप से, बदमाश असुरक्षा का फायदा उठाकर लाखों कमाते हैं। वे गोपनीय डेटा लीक करके कंपनियों को ब्लैकमेल कर सकते हैं या चोरी के साथ आईडी चोरी कर सकते हैं व्यक्तिगत रूप से पहचान योग्य जानकारी (पीआईआई).

छोटे या बड़े हर संस्थान को एआई सिस्टम को ठीक से लागू करना चाहिए। आम धारणा के विपरीत, हैकर टेक स्टार्टअप्स और एसएमबी से आगे जाते हैं। सबके कुछ पिछले एक दशक में ऐतिहासिक डेटा उल्लंघनों फेसबुक, याहू!, और यहां तक ​​कि अमेरिकी सरकार को भी शामिल करें।

एआई के सुरक्षा जोखिमों से खुद को सुरक्षित रखें

इन बातों को ध्यान में रखते हुए, क्या आपको एआई से पूरी तरह बचना चाहिए? बिल्कुल नहीं। एआई स्वाभाविक रूप से अमोरल है; सभी सुरक्षा जोखिम वास्तव में उनका उपयोग करने वाले लोगों से उत्पन्न होते हैं। और वे AI सिस्टम का फायदा उठाने के तरीके खोज लेंगे, चाहे ये कितनी भी दूर क्यों न हों।

एआई के साथ आने वाले साइबर सुरक्षा खतरों से डरने के बजाय यह समझें कि आप उन्हें कैसे रोक सकते हैं। चिंता न करें: सरल सुरक्षा उपाय बहुत आगे जाते हैं। संदिग्ध एआई ऐप्स से सावधान रहना, अजीब हाइपरलिंक्स से बचना, और एआई सामग्री को संदेह के साथ देखना पहले से ही कई जोखिमों का मुकाबला करता है।