चाहे वह खराब डेटा हो या खराब उपयोगकर्ता, मशीन लर्निंग के साथ बनाया गया AI गंभीर गलतियाँ कर सकता है।
मशीन लर्निंग आर्टिफिशियल इंटेलिजेंस बनाने का एक शानदार तरीका है जो शक्तिशाली है और अपने प्रशिक्षण डेटा के अनुकूल है। लेकिन कभी-कभी, वह डेटा समस्याएँ पैदा कर सकता है। दूसरी बार, जिस तरह से लोग इन एआई उपकरणों का उपयोग करते हैं वह समस्या है।
यहां कुछ हाई-प्रोफाइल घटनाओं पर एक नजर है, जहां मशीन लर्निंग के कारण समस्याजनक परिणाम सामने आए।
1. Google छवि खोज परिणाम दुर्घटनाएँ
Google खोज ने वेब पर नेविगेट करना बहुत आसान बना दिया है। परिणामों का मंथन करते समय इंजन का एल्गोरिदम कई तरह की चीजों को ध्यान में रखता है। लेकिन एल्गोरिथम उपयोगकर्ता ट्रैफ़िक से भी सीखता है, जो खोज परिणाम की गुणवत्ता के लिए समस्याएँ पैदा कर सकता है।
छवि परिणामों की तुलना में यह कहीं अधिक स्पष्ट नहीं है। चूँकि उच्च ट्रैफ़िक प्राप्त करने वाले पृष्ठों की छवियों के प्रदर्शित होने की संभावना अधिक होती है, क्लिकबेट सहित बड़ी संख्या में उपयोगकर्ताओं को आकर्षित करने वाली कहानियों को प्राथमिकता दी जा सकती है।
उदाहरण के लिए, "दक्षिण अफ्रीका में स्क्वैटर कैंप" के लिए छवि खोज परिणाम विवाद का कारण बने जब यह पता चला कि इसमें मुख्य रूप से सफेद दक्षिण अफ्रीकी शामिल थे। यह आँकड़ों के बावजूद है कि अनौपचारिक आवास में रहने वाले लोगों में से अधिकांश काले दक्षिण अफ्रीकी हैं।
Google के एल्गोरिथम में उपयोग किए जाने वाले कारकों का अर्थ यह भी है कि इंटरनेट उपयोगकर्ता परिणामों में हेरफेर कर सकते हैं। उदाहरण के लिए, उपयोगकर्ताओं के एक अभियान ने Google छवि खोज परिणामों को इस हद तक प्रभावित किया कि "इडियट" शब्द की खोज करने पर कुछ समय के लिए पूर्व अमेरिकी राष्ट्रपति डोनाल्ड ट्रम्प की छवियां दिखाई गईं।
2. Microsoft Bot Tay एक नाजी में बदल गया
एआई-संचालित चैटबॉट बेहद लोकप्रिय हैं, विशेष रूप से चैटजीपीटी जैसे बड़े भाषा मॉडल द्वारा संचालित। चैटजीपीटी में कई समस्याएं हैं, लेकिन इसके निर्माताओं ने दूसरी कंपनियों की गलतियों से भी सीखा है।
चैटबॉट्स की सबसे हाई-प्रोफाइल घटनाओं में से एक गड़बड़ा गया था, माइक्रोसॉफ्ट का चैटबॉट Tay लॉन्च करने का प्रयास था।
टे ने एक किशोर लड़की के भाषा पैटर्न की नकल की और अन्य ट्विटर उपयोगकर्ताओं के साथ बातचीत के माध्यम से सीखा। हालांकि, जब उसने नाज़ी बयानों और नस्लीय गालियों को साझा करना शुरू किया, तो वह एआई की सबसे बदनाम गलतियों में से एक बन गई। यह पता चला है कि ट्रोल्स ने इसके खिलाफ एआई की मशीन लर्निंग का इस्तेमाल किया था, इसे कट्टरता से भरी बातचीत से भर दिया था।
कुछ ही समय बाद, Microsoft ने Tay को हमेशा के लिए ऑफ़लाइन कर दिया।
3. एआई चेहरे की पहचान की समस्याएं
चेहरे की पहचान एआई अक्सर सभी गलत कारणों से सुर्खियां बटोरता है, जैसे चेहरे की पहचान और गोपनीयता की चिंताओं के बारे में कहानियां। लेकिन रंग के लोगों को पहचानने का प्रयास करते समय इस एआई का एक समस्याग्रस्त इतिहास है।
2015 में, उपयोगकर्ताओं ने पाया कि Google फ़ोटो कुछ काले लोगों को गोरिल्ला के रूप में वर्गीकृत कर रहा था। 2018 में, ACLU द्वारा किए गए शोध से पता चला कि Amazon के रिकॉग्निशन फेस आइडेंटिफिकेशन सॉफ़्टवेयर ने 28 की पहचान की अमेरिकी कांग्रेस के सदस्य पुलिस के रूप में संदिग्ध हैं, झूठी सकारात्मकता के लोगों को प्रतिकूल रूप से प्रभावित करते हैं रंग।
एक अन्य घटना में एप्पल के फेस आईडी सॉफ्टवेयर में गलत तरीके से दो अलग-अलग चीनी महिलाओं को एक ही व्यक्ति के रूप में पहचानना शामिल था। नतीजतन, iPhone X के मालिक का सहयोगी फोन को अनलॉक कर सका।
चरम परिणामों के उदाहरण में, चेहरे की पहचान एआई ने कई लोगों की गलत गिरफ्तारी की है। वायर्ड ऐसे तीन मामलों की सूचना दी।
इस बीच, कंप्यूटर वैज्ञानिक जॉय बूलमविनी ने चेहरे की पहचान तकनीक पर काम करते समय अक्सर एक सफेद मुखौटा पहनने की आवश्यकता को याद किया ताकि सॉफ़्टवेयर को उसकी पहचान करने के लिए प्राप्त किया जा सके। इस तरह के मुद्दों को हल करने के लिए, बुओलमविनी और अन्य आईटी पेशेवर एआई पूर्वाग्रह के मुद्दे और अधिक समावेशी डेटासेट की आवश्यकता पर ध्यान दे रहे हैं।
4. डीपफेक का इस्तेमाल होक्स के लिए किया जाता है
जबकि लोगों ने लंबे समय से फोटोशॉप का उपयोग नकली चित्र बनाने के लिए किया है, मशीन लर्निंग इसे एक नए स्तर पर ले जाता है। डीपफेक नकली इमेज और वीडियो बनाने के लिए डीप लर्निंग एआई का इस्तेमाल करते हैं. फेसएप जैसे सॉफ्टवेयर आपको विषयों को एक वीडियो से दूसरे वीडियो में बदलने की अनुमति देता है।
लेकिन कई लोग कई प्रकार के दुर्भावनापूर्ण उपयोगों के लिए सॉफ़्टवेयर का उपयोग करते हैं, जिसमें सेलिब्रिटी के चेहरे को वयस्क वीडियो में सुपरइम्पोज़ करना या नकली वीडियो बनाना शामिल है। इस बीच, इंटरनेट उपयोगकर्ताओं ने तकनीक को बेहतर बनाने में मदद की है ताकि असली वीडियो को नकली से अलग करना मुश्किल हो जाए। परिणामस्वरूप, यह इस प्रकार के AI को नकली समाचार और अफवाह फैलाने के मामले में बहुत शक्तिशाली बनाता है।
प्रौद्योगिकी की शक्ति दिखाने के लिए, निर्देशक जॉर्डन पील और बज़फीड के सीईओ जोना पेरेटी ने एक बनाया डीपफेक वीडियो दिखा रहा है जो पूर्व अमेरिकी राष्ट्रपति बराक ओबामा की शक्ति पर पीएसए देते हुए प्रतीत होता है डीपफेक।
एआई द्वारा संचालित छवि जनरेटर द्वारा नकली छवियों की शक्ति को तेज किया गया है। 2023 में डोनाल्ड ट्रम्प को गिरफ्तार किए जाने और एक पफर जैकेट में कैथोलिक पोप को चित्रित करने वाली वायरल पोस्ट जनरेटिव एआई का परिणाम निकला।
वहाँ हैं युक्तियाँ जिनका अनुसरण करके आप AI-जनित छवि का पता लगा सकते हैं, लेकिन तकनीक तेजी से परिष्कृत होती जा रही है।
5. कर्मचारियों का कहना है कि अमेज़ॅन एआई ने पुरुषों को बेहतर बनाने का फैसला किया है
अक्टूबर 2018 में, रॉयटर्स ने बताया कि सॉफ्टवेयर के एआई द्वारा पुरुष उम्मीदवारों को तरजीह देने के निर्णय के बाद अमेज़ॅन को नौकरी-भर्ती उपकरण को बंद करना पड़ा।
गुमनाम रहने की इच्छा रखने वाले कर्मचारी परियोजना पर अपने काम के बारे में रॉयटर्स को बताने के लिए आगे आए। डेवलपर्स चाहते थे कि एआई उनके सीवी के आधार पर नौकरी के लिए सर्वश्रेष्ठ उम्मीदवारों की पहचान करे। हालांकि, परियोजना में शामिल लोगों ने जल्द ही देखा कि एआई ने महिला उम्मीदवारों को दंडित किया। उन्होंने समझाया कि एआई ने पिछले एक दशक से सीवी का इस्तेमाल किया, जिनमें से अधिकांश पुरुष थे, इसके प्रशिक्षण डेटासेट के रूप में।
नतीजतन, एआई ने "महिला" कीवर्ड के आधार पर सीवी को फ़िल्टर करना शुरू कर दिया। सीवी में कीवर्ड "महिला शतरंज क्लब कप्तान" जैसी गतिविधियों के तहत दिखाई दिया। जबकि डेवलपर्स ने एआई को महिलाओं के सीवी के इस दंड को रोकने के लिए बदल दिया, अमेज़ॅन ने अंततः परियोजना को खत्म कर दिया।
6. जेलब्रेक चैटबॉट्स
जबकि नए चैटबॉट्स में उनकी सेवा की शर्तों के खिलाफ जाने वाले उत्तर देने से रोकने के लिए सीमाएं हैं, उपयोगकर्ता प्रतिबंधित सामग्री प्रदान करने के लिए टूल को जेलब्रेक करने के तरीके ढूंढ रहे हैं।
2023 में, एक Forcepoint सुरक्षा शोधकर्ता हारून मुल्ग्रे चैटजीपीटी संकेतों का उपयोग करके शून्य-दिन मैलवेयर बनाने में सक्षम था।
मुल्ग्रे ने एक बयान में कहा, "चैटजीपीटी संकेतों का उपयोग करके और बिना किसी कोड को लिखे हम केवल कुछ ही घंटों में एक बहुत उन्नत हमला करने में सक्षम थे।" फोर्सपॉइंट पोस्ट.
उपयोगकर्ता कथित तौर पर बम बनाने या कार चोरी करने के निर्देश देने के लिए चैटबॉट प्राप्त करने में सक्षम हैं।
7. सेल्फ ड्राइविंग कार क्रैश
स्व-ड्राइविंग एआई द्वारा की गई गलतियों के कारण स्वायत्त वाहनों के लिए उत्साह अपने प्रारंभिक प्रचार चरण से कम हो गया है। 2022 में, वाशिंगटन पोस्ट बताया गया है कि मोटे तौर पर एक वर्ष में, यूएस नेशनल हाईवे ट्रैफिक सेफ्टी एडमिनिस्ट्रेशन को उन्नत चालक-सहायता प्रणालियों से जुड़ी 392 दुर्घटनाओं की सूचना दी गई थी।
इन दुर्घटनाओं में गंभीर चोटें और छह मौतें शामिल थीं।
हालांकि इसने टेस्ला जैसी कंपनियों को पूरी तरह से स्वायत्त वाहनों का पीछा करने से नहीं रोका है, यह है दुर्घटनाओं में वृद्धि के बारे में चिंताओं को उठाया क्योंकि स्व-ड्राइविंग सॉफ़्टवेयर वाली अधिक कारें इसे चालू करती हैं सड़कें।
मशीन लर्निंग एआई फुलप्रूफ नहीं है
जबकि मशीन लर्निंग शक्तिशाली एआई उपकरण बना सकता है, वे खराब डेटा या मानव छेड़छाड़ से प्रतिरक्षित नहीं हैं। चाहे त्रुटिपूर्ण प्रशिक्षण डेटा के कारण, एआई तकनीक की सीमाओं के कारण, या खराब अभिनेताओं द्वारा उपयोग के कारण, इस प्रकार के एआई के परिणामस्वरूप कई नकारात्मक घटनाएं हुई हैं।