आपने आर्टिफिशियल इंटेलिजेंस और मशीन लर्निंग के संबंध में प्रतिकूल हमलों के बारे में सुना होगा, लेकिन वे क्या हैं? उनके उद्देश्य क्या हैं?

प्रौद्योगिकी का अक्सर मतलब होता है कि हमारा जीवन अधिक सुविधाजनक और सुरक्षित है। साथ ही, हालांकि, इस तरह की प्रगति ने साइबर अपराधियों के लिए हम पर हमला करने और हमारी सुरक्षा प्रणालियों को भ्रष्ट करने के लिए और अधिक परिष्कृत तरीके खोल दिए हैं, जिससे वे शक्तिहीन हो गए हैं।

आर्टिफिशियल इंटेलिजेंस (एआई) का उपयोग साइबर सुरक्षा पेशेवरों और साइबर अपराधियों द्वारा समान रूप से किया जा सकता है; इसी तरह, मशीन लर्निंग (एमएल) सिस्टम का इस्तेमाल अच्छाई और बुराई दोनों के लिए किया जा सकता है। नैतिक दिशा की इस कमी ने एमएल में प्रतिकूल हमलों को एक बढ़ती हुई चुनौती बना दिया है। तो वास्तव में प्रतिकूल हमले क्या हैं? उनका उद्देश्य क्या हैं? और आप उनसे कैसे बचाव कर सकते हैं?

मशीन लर्निंग में प्रतिकूल हमले क्या हैं?

प्रतिकूल एमएल या प्रतिकूल हमले साइबर हमले हैं जिनका उद्देश्य दुर्भावनापूर्ण इनपुट के साथ एक एमएल मॉडल को धोखा देना है और इस प्रकार कम सटीकता और खराब प्रदर्शन होता है। इसलिए, इसके नाम के बावजूद, प्रतिकूल एमएल एक प्रकार की मशीन लर्निंग नहीं है, बल्कि विभिन्न प्रकार की तकनीकें हैं जो साइबर अपराधी-उर्फ विरोधी- एमएल सिस्टम को लक्षित करने के लिए उपयोग करते हैं।

instagram viewer

इस तरह के हमलों का मुख्य उद्देश्य आमतौर पर संवेदनशील जानकारी देने के लिए मॉडल को धोखा देना होता है, कपटपूर्ण गतिविधियों का पता लगाने में विफल, गलत भविष्यवाणियां करना, या विश्लेषण-आधारित भ्रष्ट करना रिपोर्ट। जबकि कई प्रकार के प्रतिकूल हमले होते हैं, वे अक्सर गहरी शिक्षा-आधारित स्पैम पहचान को लक्षित करते हैं।

आपने शायद एक के बारे में सुना है विरोधी-के-बीच में हमला, जो एक नई और अधिक प्रभावी परिष्कृत फ़िशिंग तकनीक है जिसमें निजी जानकारी, सत्र कुकीज़ की चोरी और यहां तक ​​कि बहु-कारक प्रमाणीकरण (एमएफए) विधियों को दरकिनार करना शामिल है। सौभाग्य से, आप इनका मुकाबला कर सकते हैं फ़िशिंग-प्रतिरोधी MFA तकनीक.

प्रतिकूल हमलों के प्रकार

प्रतिकूल हमलों के प्रकारों को वर्गीकृत करने का सबसे सरल तरीका उन्हें दो मुख्य श्रेणियों में अलग करना है-लक्षित हमले और अलक्षित हमले. जैसा कि सुझाव दिया गया है, लक्षित हमलों का एक विशिष्ट लक्ष्य होता है (जैसे कि एक विशेष व्यक्ति) जबकि अलक्षित लोगों के मन में कोई विशिष्ट नहीं होता है: वे लगभग किसी को भी निशाना बना सकते हैं। आश्चर्य की बात नहीं है कि अलक्षित हमले कम समय लेने वाले होते हैं लेकिन अपने लक्षित समकक्षों की तुलना में कम सफल भी होते हैं।

इन दो प्रकारों को आगे उप-विभाजित किया जा सकता है सफेद बॉक्स और ब्लैक बॉक्स प्रतिकूल हमले, जहां रंग लक्षित एमएल मॉडल के ज्ञान या ज्ञान की कमी का सुझाव देता है। इससे पहले कि हम व्हाइट-बॉक्स और ब्लैक-बॉक्स हमलों में गहराई से उतरें, आइए सबसे सामान्य प्रकार के प्रतिकूल हमलों पर एक नज़र डालें।

  • टालना: ज्यादातर मैलवेयर परिदृश्यों में उपयोग किया जाता है, मैलवेयर-संक्रमित और स्पैम ईमेल की सामग्री को छुपाकर चोरी के हमलों का पता लगाने का प्रयास किया जाता है। ट्रायल-एंड-एरर पद्धति का उपयोग करके, हमलावर तैनाती के समय डेटा में हेरफेर करता है और एमएल मॉडल की गोपनीयता को दूषित करता है। बॉयोमीट्रिक स्पूफिंग चोरी के हमले के सबसे आम उदाहरणों में से एक है।
  • डेटा विषाक्तता: दूषित हमलों के रूप में भी जाना जाता है, इनका उद्देश्य प्रशिक्षण या परिनियोजन अवधि के दौरान एक एमएल मॉडल में हेरफेर करना और सटीकता और प्रदर्शन को कम करना है। दुर्भावनापूर्ण इनपुट पेश करके, हमलावर मॉडल को बाधित करते हैं और सुरक्षा पेशेवरों के लिए एमएल मॉडल को दूषित करने वाले नमूना डेटा के प्रकार का पता लगाना कठिन बनाते हैं।
  • बीजान्टिन दोष: इस प्रकार का हमला सिस्टम में एक बीजान्टिन दोष के परिणामस्वरूप सिस्टम सेवा के नुकसान का कारण बनता है जिसके लिए इसके सभी नोड्स के बीच आम सहमति की आवश्यकता होती है। एक बार जब इसका कोई विश्वसनीय नोड दुष्ट हो जाता है, तो यह सेवा से इनकार (DoS) हमले को लंच कर सकता है और अन्य नोड्स को संचार करने से रोकने वाले सिस्टम को बंद कर सकता है।
  • मॉडल निकासी: एक निष्कर्षण हमले में, विरोधी अपने प्रशिक्षण डेटा या सबसे खराब स्थिति में मॉडल को निकालने के लिए एक ब्लैक-बॉक्स एमएल सिस्टम की जांच करेगा। फिर, अपने हाथों में एक एमएल मॉडल की एक प्रति के साथ, एक विरोधी एंटीमैलेवेयर / एंटीवायरस के खिलाफ अपने मैलवेयर का परीक्षण कर सकता है और यह पता लगा सकता है कि इसे कैसे बायपास किया जाए।
  • अनुमान के हमले: निष्कर्षण हमलों की तरह, यहाँ उद्देश्य एक एमएल मॉडल को उसके प्रशिक्षण डेटा के बारे में जानकारी लीक करना है। हालाँकि, विरोधी तब यह पता लगाने की कोशिश करेगा कि सिस्टम को प्रशिक्षित करने के लिए किस डेटा सेट का उपयोग किया गया था, ताकि वे इसमें कमजोरियों या पूर्वाग्रहों का फायदा उठा सकें।

व्हाइट-बॉक्स बनाम। ब्लैक-बॉक्स बनाम। ग्रे-बॉक्स एडवरसैरियल अटैक

इन तीन प्रकार के प्रतिकूल हमलों को जो अलग करता है, वह ज्ञान की मात्रा है जो विरोधियों के पास एमएल सिस्टम के आंतरिक कामकाज के बारे में है जो वे हमला करने की योजना बना रहे हैं। जबकि व्हाइट-बॉक्स पद्धति के लिए लक्षित एमएल मॉडल के बारे में विस्तृत जानकारी की आवश्यकता होती है (इसके सहित आर्किटेक्चर और पैरामीटर), ब्लैक-बॉक्स विधि के लिए किसी जानकारी की आवश्यकता नहीं होती है और केवल इसका निरीक्षण कर सकता है आउटपुट।

ग्रे-बॉक्स मॉडल, इस बीच, इन दो चरम सीमाओं के बीच में खड़ा होता है। इसके अनुसार, विरोधियों के पास एमएल मॉडल के बारे में डेटा सेट या अन्य विवरण के बारे में कुछ जानकारी हो सकती है, लेकिन यह सब नहीं।

आप प्रतिकूल हमलों के खिलाफ मशीन लर्निंग का बचाव कैसे कर सकते हैं?

जबकि मानव अभी भी साइबर सुरक्षा को मजबूत करने में महत्वपूर्ण घटक हैं,एआई और एमएल ने दुर्भावनापूर्ण हमलों का पता लगाना और उन्हें रोकना सीख लिया है—वे दुर्भावनापूर्ण खतरों का पता लगाने, उपयोगकर्ता गतिविधि की निगरानी करने, संदिग्ध सामग्री की पहचान करने और बहुत कुछ करने की सटीकता बढ़ा सकते हैं। लेकिन क्या वे प्रतिकूल हमलों को पीछे धकेल सकते हैं और एमएल मॉडल की रक्षा कर सकते हैं?

साइबर हमले का मुकाबला करने का एक तरीका यह है कि एमएल सिस्टम को उनकी प्रशिक्षण प्रक्रिया में उदाहरण जोड़कर समय से पहले प्रतिकूल हमलों को पहचानने के लिए प्रशिक्षित किया जाए।

इस क्रूर बल दृष्टिकोण के विपरीत, रक्षात्मक आसवन विधि का प्रस्ताव है कि हम प्राथमिक, अधिक कुशल मॉडल का उपयोग करें एक द्वितीयक, कम कुशल मॉडल की महत्वपूर्ण विशेषताओं का पता लगाना और फिर प्राथमिक के साथ द्वितीयक की सटीकता में सुधार करना एक। रक्षात्मक आसवन के साथ प्रशिक्षित एमएल मॉडल प्रतिकूल नमूनों के प्रति कम संवेदनशील होते हैं, जो उन्हें शोषण के प्रति कम संवेदनशील बनाता है।

हम डेटा वर्गीकरण के लिए एमएल मॉडल द्वारा उपयोग किए जाने वाले एल्गोरिदम को भी लगातार संशोधित कर सकते हैं, जो प्रतिकूल हमलों को कम सफल बना सकता है।

एक और उल्लेखनीय तकनीक सुविधा निचोड़ना है, जो अनावश्यक इनपुट सुविधाओं को "निचोड़" कर विरोधियों के लिए उपलब्ध खोज स्थान को कम कर देगी। यहां, उद्देश्य झूठी सकारात्मकता को कम करना और प्रतिकूल उदाहरणों का पता लगाना अधिक प्रभावी बनाना है।

मशीन लर्निंग और आर्टिफिशियल इंटेलिजेंस की सुरक्षा करना

प्रतिकूल हमलों ने हमें दिखाया है कि कई एमएल मॉडल आश्चर्यजनक तरीके से बिखर सकते हैं। आखिरकार, साइबर सुरक्षा के दायरे में प्रतिकूल मशीन लर्निंग अभी भी एक नया शोध क्षेत्र है, और यह एआई और एमएल के लिए कई जटिल समस्याओं के साथ आता है।

हालांकि इन मॉडलों को सभी प्रतिकूल हमलों से बचाने के लिए कोई जादुई समाधान नहीं है, लेकिन भविष्य इस भयानक से निपटने के लिए और अधिक उन्नत तकनीकों और बेहतर रणनीतियों को लाएगा विरोधी।