हर कोई सोचता है कि वे डीपफेक वीडियो को पहचान सकते हैं, लेकिन एआई टूल सहित प्रौद्योगिकी में तेजी से सुधार होने से नकली वीडियो को पहचानना पहले से कहीं अधिक कठिन हो गया है।

चाबी छीनना

  • डीपफेक समाज के लिए महत्वपूर्ण खतरे पैदा करते हैं, जिनमें गलत सूचना फैलाना, प्रतिरूपण के माध्यम से प्रतिष्ठा को नुकसान पहुंचाना और राष्ट्रीय सुरक्षा के लिए संघर्ष भड़काना शामिल है।
  • जबकि एआई तकनीक डीपफेक का पता लगाने के लिए उपकरण प्रदान करती है, लेकिन वे सही नहीं हैं, और डीपफेक की पहचान करने में मानवीय विवेक महत्वपूर्ण रहता है।
  • डीपफेक की पहचान करने में इंसानों और एआई का पता लगाने वाले उपकरणों की ताकत और कमजोरियां अलग-अलग होती हैं, और उनकी क्षमताओं के संयोजन से डीपफेक के खतरों का पता लगाने और उन्हें कम करने में सफलता दर में सुधार हो सकता है तकनीकी।

डीपफेक से समाज के हर पहलू को खतरा है। नकली सामग्री की पहचान करने की हमारी क्षमता दुष्प्रचार को ख़त्म करने के लिए महत्वपूर्ण है, लेकिन जैसे-जैसे एआई तकनीक में सुधार होता है, हम डीपफेक का पता लगाने के लिए किस पर भरोसा कर सकते हैं: आदमी या मशीन?

डीपफेक के खतरे

जैसे-जैसे AI तकनीक आगे बढ़ती है,

instagram viewer
डीपफेक के खतरे हम सभी के लिए खतरा बढ़ता जा रहा है। यहां डीपफेक द्वारा उठाए गए कुछ सबसे गंभीर मुद्दों का त्वरित सारांश दिया गया है:

  • दुष्प्रचार: डीपफेक्ड वीडियो और वॉयस रिकॉर्डिंग फर्जी समाचार जैसी गलत सूचना फैला सकते हैं।
  • प्रतिरूपण: व्यक्तियों का प्रतिरूपण करके, डीपफेक लोगों की प्रतिष्ठा को नुकसान पहुंचा सकता है या किसी ऐसे व्यक्ति को धोखा दे सकता है जिसे वे जानते हों।
  • राष्ट्रीय सुरक्षा: डीपफेक के साथ स्पष्ट प्रलय का दिन किसी वैश्विक नेता द्वारा संघर्ष भड़काने का मनगढ़ंत फुटेज या ऑडियो है।
  • नागरिक अशांति: विशिष्ट समूहों के बीच गुस्सा और नागरिक अशांति भड़काने के लिए पार्टियों द्वारा भ्रामक फुटेज और ऑडियो का भी उपयोग किया जा सकता है।
  • साइबर सुरक्षा: साइबर अपराधी पहले से ही एआई वॉयस क्लोनिंग टूल का उपयोग उन लोगों को लक्षित करने के लिए कर रहे हैं जिन्हें वे जानते हैं।
  • गोपनीयता और सहमति: डीपफेक का दुर्भावनापूर्ण उपयोग व्यक्तियों की सहमति के बिना उनकी समानता लेता है।
  • भरोसा और विश्वास: यदि आप सत्य और धोखे के बीच अंतर नहीं कर सकते, तो सटीक जानकारी भी उतनी ही अविश्वसनीय हो जाती है।

डीपफेक और अधिक विश्वसनीय हो जाएंगे, इसलिए हमें उनका पता लगाने के लिए मजबूत उपकरणों और प्रक्रियाओं की आवश्यकता है। एआई डीपफेक डिटेक्शन मॉडल के रूप में एक ऐसा उपकरण प्रदान कर रहा है। हालाँकि, जैसे एआई-जनित लेखन की पहचान करने के लिए डिज़ाइन किए गए एल्गोरिदम, डीपफेक का पता लगाने वाले उपकरण सही नहीं हैं।

इस समय, मानवीय विवेक ही एकमात्र अन्य उपकरण है जिस पर हम भरोसा कर सकते हैं। तो, क्या हम डीपफेक की पहचान करने में एल्गोरिदम से बेहतर हैं?

क्या एल्गोरिदम इंसानों से बेहतर तरीके से डीपफेक का पता लगा सकते हैं?

डीपफेक इतना गंभीर खतरा है कि प्रौद्योगिकी दिग्गज और अनुसंधान समूह अनुसंधान और विकास के लिए विशाल संसाधन समर्पित कर रहे हैं। 2019 में, मेटा, माइक्रोसॉफ्ट और अमेज़ॅन जैसी कंपनियों ने एक पुरस्कार के दौरान $1,000,000 की पेशकश की। डीपफेक डिटेक्शन चैलेंज सबसे सटीक पहचान मॉडल के लिए।

सार्वजनिक रूप से उपलब्ध वीडियो के डेटासेट के मुकाबले शीर्ष प्रदर्शन वाला मॉडल 82.56% सटीक था। हालाँकि, जब उन्हीं मॉडलों का 10,000 अनदेखे वीडियो के "ब्लैक बॉक्स डेटासेट" के विरुद्ध परीक्षण किया गया, तो शीर्ष प्रदर्शन करने वाला मॉडल केवल 65.18% सटीक था।

हमारे पास मनुष्यों के विरुद्ध एआई डीपफेक डिटेक्शन टूल के प्रदर्शन का विश्लेषण करने वाले बहुत सारे अध्ययन हैं। बेशक, परिणाम एक अध्ययन से दूसरे अध्ययन में भिन्न होते हैं, लेकिन आम तौर पर, मानव डीपफेक का पता लगाने वाले उपकरणों की सफलता दर के बराबर या उससे बेहतर प्रदर्शन करते हैं।

एक 2021 अध्ययन प्रकाशित हुआ पीएनएएस पाया गया कि "सामान्य मानव पर्यवेक्षकों" ने अग्रणी डीपफेक डिटेक्शन टूल की तुलना में थोड़ी अधिक सटीकता दर हासिल की। हालाँकि, अध्ययन में यह भी पाया गया कि मानव प्रतिभागी और एआई मॉडल विभिन्न प्रकार की गलतियों के प्रति संवेदनशील थे।

दिलचस्प बात यह है कि शोध द्वारा किया गया सिडनी विश्वविद्यालय यह पाया गया है कि मानव मस्तिष्क, अनजाने में, हमारे सचेत प्रयासों की तुलना में डीपफेक को पहचानने में अधिक प्रभावी है।

डीपफेक में दृश्य सुराग का पता लगाना

डीपफेक का पता लगाने का विज्ञान जटिल है, और फुटेज की प्रकृति के आधार पर आवश्यक विश्लेषण भिन्न होता है। उदाहरण के लिए, 2020 का उत्तर कोरियाई नेता किम जोंग-उन का कुख्यात डीपफेक वीडियो मूल रूप से बात करने वाला वीडियो है। इस मामले में, सबसे प्रभावी डीपफेक का पता लगाने का तरीका विसंगतियों के लिए विसेम (मुंह की हरकत) और फोनेम (ध्वन्यात्मक ध्वनि) का विश्लेषण करना हो सकता है।

मानव विशेषज्ञ, आकस्मिक दर्शक और एल्गोरिदम सभी इस प्रकार का विश्लेषण कर सकते हैं, भले ही परिणाम अलग-अलग हों। एमआईटी मदद के लिए आठ प्रश्नों को परिभाषित करता है डीपफेक वीडियो की पहचान करें:

  • चेहरे पर ध्यान दें. हाई-एंड डीपफेक हेरफेर लगभग हमेशा चेहरे का परिवर्तन होता है।
  • गालों और माथे पर ध्यान दें. क्या त्वचा बहुत चिकनी या बहुत झुर्रीदार दिखाई देती है? क्या त्वचा का बूढ़ा होना बालों और आँखों के बूढ़े होने के समान है? डीपफेक कुछ आयामों में असंगत हो सकते हैं।
  • आंखों और भौहों पर ध्यान दें. क्या छायाएँ उन स्थानों पर दिखाई देती हैं जिनकी आप अपेक्षा करते हैं? डीपफेक किसी दृश्य की प्राकृतिक भौतिकी का पूरी तरह से प्रतिनिधित्व करने में विफल हो सकता है।
  • चश्मे पर ध्यान दें. क्या कोई चकाचौंध है? क्या बहुत ज़्यादा चकाचौंध है? क्या व्यक्ति के हिलने पर चकाचौंध का कोण बदल जाता है? एक बार फिर, डीपफेक प्रकाश की प्राकृतिक भौतिकी का पूरी तरह से प्रतिनिधित्व करने में विफल हो सकता है।
  • चेहरे के बालों या उनकी कमी पर ध्यान दें. क्या ये चेहरे के बाल असली दिखते हैं? डीपफेक मूंछें, साइडबर्न या दाढ़ी जोड़ या हटा सकता है। हालाँकि, डीपफेक चेहरे के बालों के बदलाव को पूरी तरह से प्राकृतिक बनाने में विफल हो सकता है।
  • चेहरे के मस्सों पर ध्यान दें. क्या तिल असली दिखता है?
  • पलक झपकने पर ध्यान दें. क्या व्यक्ति पर्याप्त या बहुत अधिक पलकें झपकता है?
  • होठों की हरकत पर ध्यान दें. कुछ डीपफेक लिप-सिंकिंग पर आधारित होते हैं। क्या होठों की हरकत स्वाभाविक लगती है?

नवीनतम एआई डीपफेक डिटेक्शन टूल अलग-अलग सफलता की डिग्री के साथ, फिर से उन्हीं कारकों का विश्लेषण कर सकते हैं। डेटा वैज्ञानिक लगातार नए तरीके भी विकसित कर रहे हैं, जैसे ऑन-स्क्रीन स्पीकर के चेहरे में प्राकृतिक रक्त प्रवाह का पता लगाना। नए दृष्टिकोण और मौजूदा तरीकों में सुधार के परिणामस्वरूप भविष्य में एआई डीपफेक डिटेक्शन टूल लगातार इंसानों से बेहतर प्रदर्शन कर सकते हैं।

डीपफेक में ऑडियो सुराग का पता लगाना

डीपफेक ऑडियो का पता लगाना पूरी तरह से एक अलग चुनौती है। वीडियो के दृश्य संकेतों और दृश्य-श्रव्य विसंगतियों की पहचान करने के अवसर के बिना, डीपफेक पता लगाना काफी हद तक ऑडियो विश्लेषण पर निर्भर करता है (कुछ मामलों में मेटाडेटा सत्यापन जैसे अन्य तरीके भी मदद कर सकते हैं मामले)।

द्वारा प्रकाशित एक अध्ययन यूनिवर्सिटी कॉलेज लंदन 2023 में पाया गया कि मनुष्य 73% समय (अंग्रेजी और मंदारिन) डीपफेक भाषण का पता लगा सकते हैं। डीपफेक वीडियो की तरह, मानव श्रोता अक्सर एआई-जनरेटेड भाषण में अप्राकृतिक भाषण पैटर्न का सहजता से पता लगा लेते हैं, भले ही वे यह निर्दिष्ट नहीं कर सकते कि क्या अजीब लगता है।

सामान्य संकेतों में शामिल हैं:

  • बड़बड़ाना
  • अभिव्यक्ति का अभाव
  • पृष्ठभूमि या हस्तक्षेप शोर
  • स्वर या वाक् असंगतता
  • आवाज़ों में "पूर्णता" का अभाव
  • अत्यधिक स्क्रिप्टेड डिलीवरी
  • खामियों का अभाव (गलत शुरुआत, सुधार, गला साफ़ करना, आदि)

एक बार फिर, एल्गोरिदम उसी डीपफेक सिग्नल के लिए भाषण का विश्लेषण भी कर सकता है, लेकिन नए तरीके टूल को और अधिक प्रभावी बना रहे हैं। द्वारा अनुसंधान यूसेनिक्स एआई वोकल ट्रैक्ट पुनर्निर्माण में पहचाने गए पैटर्न जो प्राकृतिक भाषण का अनुकरण करने में विफल होते हैं। इसका सारांश यह है कि एआई वॉयस जेनरेटर मानव भाषण की प्राकृतिक गतिविधियों के बिना संकीर्ण स्वर पथ (लगभग पीने के भूसे के आकार) से मेल खाने वाले ऑडियो का उत्पादन करते हैं।

इससे पहले का शोध होर्स्ट गोर्त्ज़ संस्थान अंग्रेजी और जापानी में वास्तविक और डीपफेक ऑडियो का विश्लेषण किया गया, जिससे वास्तविक भाषण और डीपफेक की उच्च आवृत्तियों में सूक्ष्म अंतर का पता चला।

स्वर पथ और उच्च-आवृत्ति विसंगतियाँ दोनों मानव श्रोताओं और एआई डिटेक्शन मॉडल के लिए बोधगम्य हैं। उच्च-आवृत्ति अंतर के मामले में, एआई मॉडल, सैद्धांतिक रूप से, तेजी से सटीक हो सकते हैं - हालांकि एआई डीपफेक के लिए भी यही कहा जा सकता है।

मनुष्य और एल्गोरिदम दोनों को डीपफेक द्वारा मूर्ख बनाया जाता है, लेकिन अलग-अलग तरीकों से

अध्ययनों से पता चलता है कि मनुष्य और नवीनतम एआई पहचान उपकरण डीपफेक की पहचान करने में समान रूप से सक्षम हैं। परीक्षण मापदंडों के आधार पर सफलता दर 50% और 90+% के बीच भिन्न हो सकती है।

विस्तार से, मनुष्यों और मशीनों को भी इसी हद तक डीपफेक द्वारा मूर्ख बनाया जाता है। हालाँकि, महत्वपूर्ण बात यह है कि हम अलग-अलग तरीकों से संवेदनशील हैं, और डीपफेक तकनीक के खतरों से निपटने में यह हमारी सबसे बड़ी संपत्ति हो सकती है। इंसानों की ताकत और डीपफेक का पता लगाने वाले उपकरणों का संयोजन प्रत्येक की कमजोरियों को कम करेगा और सफलता दर में सुधार करेगा।

उदाहरण के लिए, एमआईटी शोध में पाया गया कि मनुष्य एआई मॉडल की तुलना में विश्व नेताओं और प्रसिद्ध लोगों के डीपफेक की पहचान करने में बेहतर थे। इससे यह भी पता चला कि एआई मॉडल को कई लोगों के साथ फुटेज के साथ संघर्ष करना पड़ा, हालांकि यह सुझाव दिया गया कि यह एकल स्पीकर वाले फुटेज पर प्रशिक्षित एल्गोरिदम के परिणामस्वरूप हो सकता है।

इसके विपरीत, उसी अध्ययन में पाया गया कि एआई मॉडल ने निम्न-गुणवत्ता वाले फुटेज (धुंधले, दानेदार, अंधेरे, आदि) के साथ मनुष्यों से बेहतर प्रदर्शन किया, जिसका उपयोग जानबूझकर मानव दर्शकों को धोखा देने के लिए किया जा सकता है। इसी तरह, चेहरे के विशेष क्षेत्रों में रक्त के प्रवाह की निगरानी जैसी हालिया एआई पहचान विधियों में ऐसे विश्लेषण शामिल हैं जो मनुष्य करने में सक्षम नहीं हैं।

जैसे-जैसे अधिक तरीके विकसित होते हैं, एआई की उन संकेतों का पता लगाने की क्षमता जो हम नहीं कर सकते, न केवल बेहतर होगी, बल्कि उसकी धोखा देने की क्षमता भी बढ़ेगी। बड़ा सवाल यह है कि क्या डीपफेक का पता लगाने वाली तकनीक डीपफेक को पछाड़ती रहेगी।

डीपफेक के युग में चीजों को अलग तरह से देखना

एआई डीपफेक डिटेक्शन टूल में सुधार जारी रहेगा, साथ ही डीपफेक सामग्री की गुणवत्ता में भी सुधार होगा। यदि एआई की धोखा देने की क्षमता उसकी पहचान करने की क्षमता से आगे निकल जाती है (जैसा कि एआई-जनित पाठ के साथ है), तो मानव विवेक ही एकमात्र उपकरण हो सकता है जो हमारे पास डीपफेक से लड़ने के लिए बचा है।

डीपफेक के संकेतों को जानना और उन्हें कैसे पहचाना जाए, यह हर किसी की जिम्मेदारी है। घोटालों और सुरक्षा खतरों से खुद को बचाने के अलावा, अगर हम वास्तविकता की समझ खो देते हैं, तो हम जो कुछ भी चर्चा करते हैं और ऑनलाइन साझा करते हैं, वह दुष्प्रचार की चपेट में है।