डीपफेक तकनीक के साथ खेलने में मज़ा आ सकता है, लेकिन इसके नुकसान की संभावना महत्वपूर्ण है। यहां बताया गया है कि डीपफेक का भविष्य क्या ला सकता है।

डीपफेक छवि के स्पष्ट संकेतों को पहचानना आसान हुआ करता था, लेकिन जनरेटिव एआई हमें अब हम जो कुछ भी देखते और सुनते हैं, उसके बारे में सवाल कर रहे हैं। जारी किए गए प्रत्येक नए एआई मॉडल के साथ, एक नकली छवि के बताने वाले संकेत कम हो रहे हैं, और इसमें जोड़ना है भ्रम की स्थिति में अब आप डीपफेक वीडियो, अपने प्रियजनों के वॉइस क्लोन बना सकते हैं और केवल नकली लेख बना सकते हैं सेकंड।

एआई डीपफेक से मूर्ख बनने से बचने के लिए यह जानना जरूरी है कि वे किस तरह के खतरे पैदा करते हैं।

डीपफेक का विकास

एक डीपफेक एक व्यक्ति को कुछ ऐसा करते हुए दिखाता है जो वास्तविक जीवन में कभी नहीं हुआ। यह पूरी तरह फर्जी है। जब डीपफेक को इंटरनेट पर मीम या जोक के रूप में शेयर किया जाता है तो हम हंसते हैं, लेकिन जब वे हमें गुमराह करने के लिए इस्तेमाल किए जाते हैं तो बहुत कम लोगों को यह अजीब लगता है।

अतीत में, डीपफेक बनाने के लिए किसी मौजूदा फोटो को फोटोशॉप जैसे इमेज एडिटिंग सॉफ्टवेयर में बदलकर बनाया जाता था। लेकिन एआई डीपफेक को जो अलग करता है वह यह है कि इसे डीप लर्निंग एल्गोरिदम का उपयोग करके स्क्रैच से उत्पन्न किया जा सकता है।

instagram viewer

मेरियम-वेबस्टर डिक्शनरी एक डीपफेक को इस प्रकार परिभाषित करता है:

एक छवि या रिकॉर्डिंग जिसे किसी को कुछ ऐसा करने या कहने के लिए गलत तरीके से प्रस्तुत करने के लिए दृढ़ता से बदल दिया गया है और हेरफेर किया गया है जो वास्तव में किया या कहा नहीं गया था।

लेकिन एआई तकनीक में प्रगति के साथ, यह परिभाषा पुरानी लगने लगी है। एआई टूल्स के इस्तेमाल से डीपफेक में अब इमेज, टेक्स्ट, वीडियो और वॉयस क्लोनिंग शामिल है। कभी-कभी एआई पीढ़ी के सभी चार तरीकों का एक साथ उपयोग किया जाता है।

क्योंकि यह एक स्वचालित प्रक्रिया है जो उपयोग करने के लिए अविश्वसनीय रूप से त्वरित और सस्ती है, यह मंथन के लिए एकदम सही उपकरण है डीपफेक एक ऐसी दर पर जो हमने पहले कभी नहीं देखी—सब कुछ फ़ोटो, वीडियो या संपादित करने के तरीके के बारे में एक भी चीज़ जानने की आवश्यकता के बिना ऑडियो।

एआई डीपफेक के बड़े खतरे

बहुत सारे ऐ वीडियो जनरेटर पहले से ही मौजूद हैं, साथ ही बहुत कुछ ऐ आवाज जनरेटर. ए में फेंको GPT-4 जैसे बड़े भाषा मॉडल और आपके पास अब तक के आधुनिक इतिहास में देखे गए सबसे विश्वसनीय डीपफेक बनाने का नुस्खा है।

विभिन्न प्रकार के एआई डीपफेक के बारे में जागरूक होना, और कैसे उनका उपयोग आपको बरगलाने के लिए किया जा सकता है, यह गुमराह होने से बचने का एक तरीका है। यहां कुछ गंभीर उदाहरण दिए गए हैं कि कैसे एआई डीपफेक तकनीक एक वास्तविक खतरा बन गई है।

1. एआई पहचान की चोरी

आपने उन्हें देखा होगा। दुनिया भर में फैलने वाले पहले सही मायने में वायरल एआई डीपफेक में डोनाल्ड ट्रम्प की गिरफ्तारी की तस्वीर थी, और सफेद पफर जैकेट में पोप फ्रांसिस की एक तस्वीर थी।

जबकि एक ऐसा प्रतीत होता है कि एक मासूम फिर से कल्पना कर रहा है कि रोम में एक सर्द दिन में एक प्रसिद्ध धार्मिक व्यक्ति क्या पहन सकता है; दूसरी छवि, एक राजनीतिक व्यक्ति को कानून के साथ एक गंभीर स्थिति में दिखाती है, अगर इसे वास्तविक मान लिया जाए तो इसके कहीं अधिक बड़े परिणाम होंगे।

अब तक, एआई डीपफेक बनाते समय लोगों ने मुख्य रूप से मशहूर हस्तियों, राजनीतिक हस्तियों और अन्य प्रसिद्ध व्यक्तियों को निशाना बनाया है। आंशिक रूप से, ऐसा इसलिए है क्योंकि प्रसिद्ध व्यक्तियों के पास इंटरनेट पर उनकी बहुत सारी तस्वीरें हैं जो संभवतः मॉडल को पहले स्थान पर प्रशिक्षित करने में मदद करती हैं।

मिडजर्नी जैसे एआई छवि जनरेटर के मामले में - ट्रम्प और पोप दोनों के डीपफेक में उपयोग किया जाता है - एक उपयोगकर्ता को केवल यह बताने के लिए इनपुट टेक्स्ट की आवश्यकता होती है कि वे क्या देखना चाहते हैं। कला शैली को निर्दिष्ट करने के लिए कीवर्ड का उपयोग किया जा सकता है, जैसे कि फोटोग्राफ या फोटोरिअलिज्म, और परिणाम रिज़ॉल्यूशन को बढ़ाकर ठीक किया जा सकता है।

आप उतनी ही आसानी से कर सकते हैं मिडजर्नी का उपयोग करना सीखें और स्वयं इसका परीक्षण करें, लेकिन स्पष्ट नैतिक और कानूनी कारणों से, आपको इन छवियों को सार्वजनिक रूप से पोस्ट करने से बचना चाहिए।

दुर्भाग्य से, एक औसत, गैर-प्रसिद्ध इंसान होने के नाते यह गारंटी नहीं होगी कि आप एआई डीपफेक से भी सुरक्षित हैं।

समस्या एआई छवि जनरेटर द्वारा पेश की जा रही एक प्रमुख विशेषता के साथ है: अपनी खुद की छवि अपलोड करने और एआई के साथ हेरफेर करने की क्षमता। और एक उपकरण जैसा DALL-E 2 में आउटपेंटिंग एक टेक्स्ट प्रांप्ट इनपुट करके और आप और क्या उत्पन्न करना चाहते हैं, इसका वर्णन करके मौजूदा छवि को उसकी सीमाओं से परे विस्तारित कर सकते हैं।

अगर कोई और आपकी तस्वीरों के साथ ऐसा करता है, तो सफेद जैकेट में पोप के डीपफेक की तुलना में खतरे काफी अधिक हो सकते हैं - वे इसे कहीं भी इस्तेमाल कर सकते हैं, आपके होने का नाटक कर सकते हैं। जबकि अधिकांश लोग आम तौर पर अच्छे इरादों के साथ एआई का उपयोग करते हैं, बहुत कम प्रतिबंध हैं जो लोगों को नुकसान पहुंचाने के लिए इसका इस्तेमाल करने से रोकते हैं, खासकर पहचान की चोरी के मामलों में।

2. डीपफेक वॉयस क्लोन स्कैम्स

एआई की मदद से, डीपफेक ने उस सीमा को पार कर लिया है जिसके लिए हम में से अधिकांश तैयार नहीं थे: नकली वॉयस क्लोन। मूल ऑडियो की केवल थोड़ी सी मात्रा के साथ—शायद आपके द्वारा एक बार पोस्ट किए गए एक टिकटॉक वीडियो से, या एक YouTube वीडियो जिसमें आप दिखाई देते हैं—एक एआई मॉडल आपकी एकमात्र आवाज को दोहरा सकता है।

परिवार के किसी सदस्य, मित्र या सहकर्मी की तरह लगने वाले फोन कॉल की कल्पना करना अलौकिक और भयावह दोनों है। डीपफेक वॉइस क्लोन एक गंभीर चिंता का विषय है संघीय व्यापार आयोग (FTC) इसे लेकर चेतावनी जारी की है।

आवाज पर भरोसा मत करो। उस व्यक्ति को कॉल करें जिसने कथित तौर पर आपसे संपर्क किया था और कहानी की पुष्टि करें। उस फ़ोन नंबर का उपयोग करें जिसे आप जानते हैं कि वह उनका है। यदि आप अपने प्रियजन तक नहीं पहुंच सकते हैं, तो परिवार के किसी अन्य सदस्य या उनके दोस्तों के माध्यम से उनसे संपर्क करने का प्रयास करें।

वाशिंगटन पोस्ट ने सूचना दी 70 के दशक में एक जोड़े का मामला, जिसे किसी ऐसे व्यक्ति का फोन आया, जो उनके पोते की तरह लग रहा था। वह जेल में था और जमानत के लिए पैसों की तत्काल जरूरत थी। वे किससे बात कर रहे थे, इस पर संदेह करने का कोई और कारण न होने पर वे आगे बढ़े और घोटालेबाज को पैसे सौंप दिए।

यह केवल पुरानी पीढ़ी ही नहीं है जो जोखिम में है, द गार्जियन ने सूचना दी एक बैंक प्रबंधक का एक और उदाहरण जिसने किसी ऐसे व्यक्ति से "डीप-फर्जी कॉल्स" की एक श्रृंखला के बाद $35 मिलियन डॉलर के लेनदेन को मंजूरी दी जिसे वे बैंक निदेशक मानते थे।

3. बड़े पैमाने पर निर्मित नकली समाचार

बड़े भाषा मॉडल, जैसे चैटजीपीटी बहुत, बहुत अच्छे ऐसे टेक्स्ट बनाने में अच्छे हैं जो बिल्कुल इंसान की तरह लगते हैं, और वर्तमान में हमारे पास अंतर को पहचानने के लिए प्रभावी उपकरण नहीं हैं। गलत हाथों में, फर्जी समाचार और साजिश के सिद्धांत बनाना सस्ता होगा और इसे खारिज करने में अधिक समय लगेगा।

गलत सूचना फैलाना बेशक कोई नई बात नहीं है, बल्कि एक शोध पत्र है arXiv पर प्रकाशित जनवरी 2023 में बताते हैं कि समस्या यह है कि एआई टूल्स के साथ आउटपुट को स्केल करना कितना आसान है। वे इसे "एआई-जनित प्रभाव अभियान" के रूप में संदर्भित करते हैं, जो वे कहते हैं, उदाहरण के लिए, राजनेताओं द्वारा अपने राजनीतिक अभियानों को आउटसोर्स करने के लिए इस्तेमाल किया जा सकता है।

एक से अधिक एआई-जनित स्रोत का संयोजन एक उच्च-स्तरीय डीपफेक बनाता है। एक उदाहरण के रूप में, एक एआई मॉडल एक अच्छी तरह से लिखित और आश्वस्त करने वाली समाचार कहानी उत्पन्न कर सकता है जो डोनाल्ड ट्रम्प की गिरफ्तार होने की नकली छवि के साथ हो। इससे छवि को अपने आप साझा किए जाने की तुलना में अधिक वैधता मिलती है।

नकली समाचार छवियों और लेखन तक ही सीमित नहीं है, एआई वीडियो जनरेशन में विकास का मतलब है कि हम और अधिक गहरे नकली वीडियो देख रहे हैं। यहाँ रॉबर्ट डाउनी जूनियर में से एक है जिसे एलोन मस्क के एक वीडियो पर ग्राफ्ट किया गया है, जिसे द्वारा पोस्ट किया गया है यूट्यूब चैनल डीपफेकरी।

डीपफेक बनाना किसी ऐप को डाउनलोड करने जितना आसान हो सकता है। जैसे ऐप का इस्तेमाल कर सकते हैं स्थिर छवियों को एनिमेटेड अवतारों में बदलने के लिए टोकिंगहेड्स, जो आपको अपनी स्वयं की छवि और ऑडियो अपलोड करने की अनुमति देता है ताकि ऐसा लगे कि वह व्यक्ति बात कर रहा है।

अधिकांश भाग के लिए, यह मनोरंजक और मजेदार है, लेकिन इसमें परेशानी की भी संभावना है। यह हमें दिखाता है कि किसी की छवि का उपयोग करना कितना आसान है, यह दिखाने के लिए कि उस व्यक्ति ने ऐसे शब्द कहे जो उसने कभी नहीं बोले।

एआई डीपफेक से मूर्ख मत बनो

डीपफेक को बहुत कम लागत पर और कम बार विशेषज्ञता या कंप्यूटिंग शक्ति के साथ तेजी से तैनात किया जा सकता है। वे एक उत्पन्न छवि, एक आवाज क्लोन, या एआई-जनित छवियों, ऑडियो और पाठ के संयोजन का आकार ले सकते हैं।

डीपफेक बनाने के लिए यह बहुत अधिक कठिन और श्रम-केंद्रित हुआ करता था, लेकिन अब, बहुत सारे एआई ऐप के साथ, डीपफेक बनाने के लिए उपयोग किए जाने वाले टूल तक लगभग किसी के पास भी पहुंच है। जैसे-जैसे एआई डीपफेक तकनीक और अधिक उन्नत होती जा रही है, वैसे-वैसे इससे होने वाले खतरों पर कड़ी नजर रखना उचित है।