नकली समाचार, डीपफेक, भ्रामक छवियां: ये सभी कृत्रिम बुद्धिमत्ता का उपयोग करके बनाए जा सकते हैं। यहां बताया गया है कि एआई यानी गलत सूचना कैसे फैल रही है।

आर्टिफिशियल इंटेलिजेंस (एआई) अब हमारे जीवन के विभिन्न पहलुओं में भूमिका निभाती है। विशेष रूप से, जेनेरिक एआई उपकरण जैसे चैटजीपीटी और अन्य में उल्लेखनीय वृद्धि हुई है। इसका मतलब है कि भविष्य में AI-जनित सामग्री प्रचुर मात्रा में होगी।

हालाँकि, जेनरेटिव एआई एआई-जनित दुष्प्रचार का जोखिम भी पेश करता है। इसकी विशेषताएं अवसरवादी व्यक्तियों के लिए झूठी जानकारी फैलाना आसान बनाती हैं। तो, आइए देखें कि दुष्प्रचार के लिए जेनेरिक एआई का उपयोग कैसे किया जा रहा है।

दुष्प्रचार फैलाने के लिए जेनरेटिव एआई के संभावित जोखिम

जेनरेटिव एआई लोगों के लिए कई खतरे पैदा करता है, जैसे नौकरियां छीनना, अधिक निगरानी और साइबर हमले। और यह एआई के साथ सुरक्षा समस्याएं और भी बदतर हो जाएंगी. लेकिन एक और चिंता है: लोग इसका इस्तेमाल झूठ फैलाने के लिए कर सकते हैं। भ्रामक व्यक्ति दृश्य, श्रवण या पाठ्य सामग्री के माध्यम से नकली समाचार साझा करने के लिए जेनरेटिव एआई का उपयोग कर सकते हैं।

instagram viewer

झूठी ख़बरों को तीन प्रकारों में वर्गीकृत किया जा सकता है:

  1. झूठी खबर: अनजाने में गलत या ग़लत जानकारी.
  2. दुष्प्रचार: चालाकीपूर्ण या भ्रामक जानकारी का जानबूझकर उपयोग।
  3. गलत सूचना: भ्रामक समाचार या सत्य का अतिरंजित संस्करण।

कब डीपफेक तकनीक के साथ संयुक्त, जेनरेटिव एआई उपकरण ऐसी सामग्री बना सकते हैं जो देखने और सुनने में वास्तविक लगती है, जैसे चित्र, वीडियो, ऑडियो क्लिप और दस्तावेज़। फेक कंटेंट बनाने की कई संभावनाएं हैं, इसलिए जान रहे हैं डीपफेक वीडियो से खुद को कैसे बचाएं महत्वपूर्ण है।

फर्जी समाचार फैलाने वाले बड़ी मात्रा में सामग्री तैयार कर सकते हैं, जिससे सोशल मीडिया के माध्यम से जनता के बीच इसका प्रसार करना आसान हो जाता है। राजनीतिक अभियानों को प्रभावित करने के लिए लक्षित दुष्प्रचार का उपयोग किया जा सकता है, जिससे संभावित रूप से चुनावों पर असर पड़ सकता है। इसके अतिरिक्त, एआई टेक्स्ट और इमेज जेनरेशन टूल का उपयोग कॉपीराइट कानूनों के संबंध में चिंताएं पैदा करता है, जैसा कि रिपोर्ट किया गया है कांग्रेसनल अनुसंधान सेवा: इन उपकरणों द्वारा उत्पन्न सामग्री का स्वामित्व निर्धारित करना चुनौतीपूर्ण हो जाता है।

कानून जेनरेटिव एआई के माध्यम से फर्जी खबरों के प्रसार को कैसे संबोधित करेगा? झूठी जानकारी फैलाने के लिए किसे जिम्मेदार ठहराया जाएगा - उपयोगकर्ता, डेवलपर्स, या स्वयं उपकरण?

4 तरीके जिनसे जेनरेटिव एआई का इस्तेमाल गलत सूचना फैलाने के लिए किया जा सकता है

ऑनलाइन सुरक्षित रहने के लिए, हर किसी को दुष्प्रचार फैलाने में जेनरेटिव एआई के जोखिमों को समझने की जरूरत है, क्योंकि यह कई अलग-अलग रूपों में आता है। यहां कुछ तरीके दिए गए हैं जिनका उपयोग लोगों को हेरफेर करने के लिए किया जा सकता है।

1. ऑनलाइन नकली सामग्री तैयार करना

जेनरेटिव एआई का उपयोग करके नकली सामग्री बनाना झूठी खबरें फैलाने वालों द्वारा अपनाई जाने वाली एक आम रणनीति है। वे विभिन्न प्रकार की सामग्री तैयार करने के लिए चैटजीपीटी, डीएएलएल-ई, बार्ड, मिडजर्नी और अन्य जैसे लोकप्रिय जेनरेटिव एआई टूल का उपयोग करते हैं। उदाहरण के लिए, चैटजीपीटी कई तरह से सामग्री निर्माताओं की मदद कर सकता है. लेकिन यह सोशल मीडिया पोस्ट या समाचार लेख भी उत्पन्न कर सकता है जो लोगों को धोखा दे सकता है।

इसे साबित करने के लिए, मैंने चैटजीपीटी को भ्रष्टाचार के आरोप में अमेरिकी राष्ट्रपति जो बिडेन की गिरफ्तारी के बारे में एक मनगढ़ंत लेख लिखने के लिए प्रेरित किया। हमने इसे अधिक विश्वसनीय बनाने के लिए संबंधित अधिकारियों के बयानों को शामिल करने का भी अनुरोध किया।

यहां वह काल्पनिक लेख है जिसे ChatGPT लेकर आया है:

आश्चर्यजनक रूप से, आउटपुट अत्यधिक प्रेरक था। लेख को अधिक ठोस बनाने के लिए इसमें आधिकारिक हस्तियों के नाम और बयान शामिल किए गए। इससे पता चलता है कि कैसे कोई भी ऐसे टूल का उपयोग करके झूठी खबरें उत्पन्न कर सकता है और इसे आसानी से ऑनलाइन फैला सकता है।

2. लोगों की राय को प्रभावित करने के लिए चैटबॉट्स का उपयोग करना

जेनरेटिव एआई मॉडल पर भरोसा करने वाले चैटबॉट लोगों की राय को प्रभावित करने के लिए विभिन्न रणनीति अपना सकते हैं, जिनमें शामिल हैं:

  • भावनात्मक हेरफेर: एआई आपके दृष्टिकोण को आकार देने के लिए भावनात्मक ट्रिगर्स और पूर्वाग्रहों का फायदा उठाने के लिए भावनात्मक बुद्धिमत्ता मॉडल का उपयोग कर सकता है।
  • प्रतिध्वनि कक्ष और पुष्टिकरण पूर्वाग्रह: चैटबॉट आपके पूर्वाग्रहों को मान्य करने वाले इको चैंबर बनाकर मौजूदा मान्यताओं को सुदृढ़ कर सकते हैं। यदि आप पहले से ही एक निश्चित दृष्टिकोण रखते हैं, तो एआई आपकी राय से मेल खाने वाली जानकारी प्रस्तुत करके इसे मजबूत कर सकता है।
  • सामाजिक प्रमाण और बैंडवैगन प्रभाव: एआई सामाजिक प्रमाण उत्पन्न करके सार्वजनिक भावनाओं में हेरफेर कर सकता है। इसके महत्वपूर्ण परिणाम हो सकते हैं, क्योंकि यह व्यक्तियों को लोकप्रिय विचारों के अनुरूप या भीड़ का अनुसरण करने के लिए प्रेरित कर सकता है।
  • लक्षित वैयक्तिकरण: चैटबॉट्स के पास विशाल मात्रा में डेटा तक पहुंच होती है जिसे वे वैयक्तिकृत प्रोफ़ाइल बनाने के लिए एकत्र कर सकते हैं। यह उन्हें आपकी प्राथमिकताओं के आधार पर सामग्री को अनुकूलित करने में सक्षम बनाता है। लक्षित वैयक्तिकरण के माध्यम से, एआई व्यक्तियों को राजी कर सकता है या उनकी राय को और मजबूत कर सकता है।

ये सभी उदाहरण बताते हैं कि लोगों को गुमराह करने के लिए चैटबॉट्स का उपयोग कैसे किया जा सकता है।

3. एआई डीपफेक बनाना

कोई व्यक्ति डीपफेक का उपयोग करके किसी व्यक्ति के ऐसे झूठे वीडियो बना सकता है जो उन्होंने कभी नहीं कहे या किए। वे ऐसे टूल का उपयोग सोशल इंजीनियरिंग या दूसरों के खिलाफ बदनामी अभियान चलाने के लिए कर सकते हैं। इसके अलावा, आज की मीम संस्कृति में, डीपफेक सोशल मीडिया पर साइबरबुलिंग के लिए उपकरण के रूप में काम कर सकता है।

इसके अतिरिक्त, राजनीतिक विरोधी अपने विरोधियों की प्रतिष्ठा को धूमिल करने के लिए डीपफेक ऑडियो और वीडियो का उपयोग कर सकते हैं, एआई की मदद से सार्वजनिक भावनाओं में हेरफेर कर सकते हैं। इसलिए एआई-जनित डीपफेक भविष्य में कई खतरे पैदा करते हैं. 2023 के अनुसार रॉयटर्स की रिपोर्टएआई तकनीक का उदय अमेरिका के 2024 चुनावों पर असर डाल सकता है। रिपोर्ट मिडजर्नी और DALL-E जैसे टूल की पहुंच पर प्रकाश डालती है जो आसानी से मनगढ़ंत सामग्री बना सकते हैं और लोगों की सामूहिक राय को प्रभावित कर सकते हैं।

तो फिर, सक्षम होना महत्वपूर्ण है डीपफेक द्वारा बनाए गए वीडियो की पहचान करें और उन्हें मूल से अलग करें।

4. मानव आवाजों की क्लोनिंग

जेनरेटिव एआई, डीपफेक तकनीक के साथ, किसी के भाषण में हेरफेर करने में सक्षम बनाता है। डीपफेक तकनीक तेजी से आगे बढ़ रही है और विभिन्न प्रकार के उपकरण पेश करती है जो किसी की भी आवाज की नकल कर सकते हैं। यह दुर्भावनापूर्ण व्यक्तियों को दूसरों का प्रतिरूपण करने और संदेहहीन व्यक्तियों को धोखा देने की अनुमति देता है। ऐसा ही एक उदाहरण है डीपफेक संगीत का उपयोग.

जैसे उपकरण आपके सामने आए होंगे एआई से मिलता जुलता, व्याख्यान देना, आप झूठे हैं, और अन्य जो मशहूर हस्तियों की आवाज़ की नकल कर सकते हैं। हालाँकि ये AI ऑडियो उपकरण मनोरंजक हो सकते हैं, लेकिन ये महत्वपूर्ण जोखिम पैदा करते हैं। घोटालेबाज विभिन्न धोखाधड़ी योजनाओं के लिए वॉयस क्लोनिंग तकनीकों का उपयोग कर सकते हैं, जिसके परिणामस्वरूप वित्तीय नुकसान हो सकता है।

घोटालेबाज आपके प्रियजनों का रूप धारण करने के लिए डीपफेक आवाजों का उपयोग कर सकते हैं और संकट में होने का बहाना करके आपको कॉल कर सकते हैं। विश्वसनीय लगने वाले सिंथेटिक ऑडियो के साथ, वे आपसे तत्काल पैसे भेजने का आग्रह कर सकते हैं, जिससे आप उनके घोटालों का शिकार बन सकते हैं। द्वारा रिपोर्ट की गई एक घटना वाशिंगटन पोस्ट मार्च 2023 में इस मुद्दे का उदाहरण दिया गया है: घोटालेबाजों ने लोगों को यह समझाने के लिए डीपफेक आवाजों का इस्तेमाल किया कि उनके पोते जेल में हैं और उन्हें पैसे की जरूरत है...

एआई-प्रसारित दुष्प्रचार का पता कैसे लगाएं

एआई द्वारा समर्थित गलत सूचना के प्रसार से निपटना आज की दुनिया में एक गंभीर मुद्दा है। तो आप एआई द्वारा बनाई गई झूठी जानकारी का पता कैसे लगा सकते हैं?

  1. ऑनलाइन सामग्री को संदेह की दृष्टि से देखें। यदि आपको कोई ऐसी चीज़ मिलती है जो चालाकीपूर्ण या अविश्वसनीय लगती है, तो इसे क्रॉस-चेकिंग के माध्यम से सत्यापित करें।
  2. किसी समाचार लेख या सोशल मीडिया पोस्ट पर भरोसा करने से पहले, सुनिश्चित करें कि इसकी उत्पत्ति किसी प्रतिष्ठित स्रोत से हुई हो।
  3. डीपफेक के संकेतकों से सावधान रहें, जैसे अप्राकृतिक पलकें झपकाना या चेहरे की हरकतें, खराब ऑडियो गुणवत्ता, विकृत या धुंधली छवियां और भाषण में वास्तविक भावना की कमी।
  4. जानकारी की सटीकता को सत्यापित करने के लिए तथ्य-जांच वेबसाइटों का उपयोग करें।

इन चरणों का पालन करके, आप एआई-संचालित गलत सूचना को पहचान सकते हैं और उससे अपनी रक्षा कर सकते हैं।

एआई द्वारा फैलाए जा रहे दुष्प्रचार से सावधान रहें

एआई को आगे बढ़ाने में जेनरेटिव सॉफ्टवेयर ने महत्वपूर्ण भूमिका निभाई है। फिर भी, वे समाज में दुष्प्रचार का एक महत्वपूर्ण स्रोत भी हो सकते हैं। इन किफायती उपकरणों ने किसी को भी परिष्कृत एआई मॉडल का उपयोग करके विभिन्न प्रकार की सामग्री बनाने में सक्षम बनाया है; बड़ी मात्रा में सामग्री तैयार करने और डीपफेक को शामिल करने की उनकी क्षमता उन्हें और भी खतरनाक बनाती है।

यह महत्वपूर्ण है कि आप एआई युग में दुष्प्रचार की चुनौतियों से अवगत हों। यह समझना कि एआई का उपयोग फर्जी खबरें फैलाने के लिए कैसे किया जा सकता है, गलत सूचना से खुद को बचाने की दिशा में पहला कदम है।