यह विचार कि एआई प्रौद्योगिकियों को विनियमित किया जाना चाहिए, एक सामान्य भावना है। अधिकांश सरकारें, एआई उत्पाद डेवलपर और एआई उत्पादों के सामान्य उपयोगकर्ता भी इस पर सहमत हैं। दुर्भाग्य से, इस तेजी से बढ़ते क्षेत्र को विनियमित करने का सबसे अच्छा तरीका एक अनसुलझी पहेली है।

यदि अनियंत्रित छोड़ दिया जाए, तो AI प्रौद्योगिकियां हमारे जीवन के तरीके को नकारात्मक रूप से बाधित कर सकती हैं और हमारे अस्तित्व को खतरे में डाल सकती हैं। लेकिन सरकारें इस तेजी से विकसित हो रहे क्षेत्र के साथ आने वाली चुनौतियों की भूलभुलैया को कैसे नेविगेट कर सकती हैं?

1. डेटा गोपनीयता और संरक्षण विनियम

एआई प्रौद्योगिकियों के साथ प्राथमिक चिंताओं में से एक डेटा गोपनीयता और सुरक्षा है। आर्टिफिशियल इंटेलिजेंस सिस्टम डेटा की भूखी मशीनें हैं। उन्हें संचालित करने के लिए डेटा की आवश्यकता होती है, कुशल होने के लिए अधिक डेटा और सुधार के लिए और भी अधिक डेटा की आवश्यकता होती है। जबकि यह कोई समस्या नहीं है, जिस तरह से यह डेटा प्राप्त किया जाता है, इसकी प्रकृति, और इसे कैसे संसाधित और संग्रहीत किया जाता है, यह AI विनियमों के आसपास के सबसे बड़े चर्चा बिंदुओं में से एक है।

इसे ध्यान में रखते हुए, डेटा को नियंत्रित करने वाले सख्त डेटा गोपनीयता नियमों को लागू करने के लिए तार्किक मार्ग है संग्रह, भंडारण और प्रसंस्करण, साथ ही व्यक्तियों के अधिकार - जिनके डेटा का उपयोग किया जा रहा है - तक पहुँचने और नियंत्रित करने के लिए उनका डेटा। इन विनियमों से सम्भावित प्रश्न हैं:

  • किस प्रकार का डेटा एकत्र किया जा सकता है?
  • क्या एआई में कुछ निजी डेटा को वर्जित माना जाना चाहिए?
  • एआई कंपनियों को संवेदनशील व्यक्तिगत डेटा, जैसे स्वास्थ्य रिकॉर्ड या बायोमेट्रिक जानकारी को कैसे संभालना चाहिए?
  • क्या एआई कंपनियों को व्यक्तियों के लिए अपने व्यक्तिगत डेटा को आसानी से हटाने या सुधार का अनुरोध करने के लिए तंत्र लागू करने की आवश्यकता है?
  • डेटा गोपनीयता नियमों का पालन करने में विफल रहने वाली एआई कंपनियों के लिए क्या परिणाम होंगे? अनुपालन की निगरानी कैसे की जानी चाहिए और प्रवर्तन कैसे सुनिश्चित किया जाना चाहिए?
  • शायद सबसे महत्वपूर्ण बात यह है कि एआई कंपनियों को उनके पास मौजूद जानकारी की संवेदनशील प्रकृति की सुरक्षा सुनिश्चित करने के लिए कौन से मानक लागू करने चाहिए?

इन सवालों और कुछ अन्य सवालों ने इसका सार बनाया क्यों ChatGPT को इटली में अस्थायी रूप से प्रतिबंधित कर दिया गया था. जब तक इन चिंताओं को संबोधित नहीं किया जाता है, तब तक डेटा गोपनीयता के लिए आर्टिफिशियल इंटेलिजेंस स्पेस वाइल्ड वेस्ट हो सकता है, और इटली का प्रतिबंध दुनिया भर के अन्य देशों द्वारा प्रतिबंध लगाने का एक खाका बन सकता है।

2. एक नैतिक एआई फ्रेमवर्क का विकास

एआई कंपनियां अक्सर एआई सिस्टम विकसित करने में नैतिक दिशानिर्देशों के प्रति अपनी वचनबद्धता के बारे में दावा करती हैं। कम से कम कागज पर, वे सभी जिम्मेदार एआई विकास के प्रस्तावक हैं। मीडिया में, Google के अधिकारियों ने जोर दिया है कि कैसे कंपनी AI सुरक्षा और नैतिकता को गंभीरता से लेती है। इसी तरह, "सेफ एंड एथिकल एआई" ओपनएआई के सीईओ सैम अल्टमैन के लिए एक मंत्र है। ये काफी प्रशंसनीय हैं।

लेकिन नियम कौन बना रहा है? कौन तय करता है कि कौन से एआई नैतिक दिशानिर्देश काफी अच्छे हैं? कौन तय करता है कि सुरक्षित एआई विकास कैसा दिखता है? अभी, प्रत्येक एआई कंपनी के पास जिम्मेदार और नैतिक एआई विकास पर अपना स्वयं का स्पिन है। ओपनएआई, एंथ्रोपिक, गूगल, मेटा, माइक्रोसॉफ्ट, हर कोई। केवल सही काम करने के लिए एआई कंपनियों पर निर्भर रहना खतरनाक है।

अनियंत्रित एआई स्पेस के परिणाम भयावह हो सकते हैं. अलग-अलग कंपनियों को यह तय करने देना कि कौन से नैतिक दिशा-निर्देशों को अपनाना है और किसे त्यागना है, एआई सर्वनाश में हमारे रास्ते में सोने के समान है। समाधान? एक स्पष्ट नैतिक एआई ढांचा जो सुनिश्चित करता है:

  • एआई सिस्टम नस्ल, लिंग या सामाजिक आर्थिक स्थिति के आधार पर व्यक्तियों या कुछ समूहों के साथ गलत तरीके से नुकसान या भेदभाव नहीं करते हैं।
  • एआई सिस्टम सुरक्षित, सुरक्षित और भरोसेमंद हैं, और अनपेक्षित परिणामों या हानिकारक व्यवहार के जोखिम को कम करते हैं।
  • एआई सिस्टम एआई प्रौद्योगिकियों के व्यापक सामाजिक प्रभाव को ध्यान में रखकर बनाए गए हैं।
  • यह कि मनुष्य एआई सिस्टम और उनके निर्णय लेने की प्रक्रिया को पारदर्शी तरीके से अंतिम रूप से नियंत्रित रखते हैं।
  • एआई सिस्टम जानबूझकर उन तरीकों से सीमित हैं जो इंसानों के लिए फायदेमंद हैं।

3. समर्पित नियामक एजेंसी

मानव सभ्यता पर इसके संभावित प्रभाव के कारण, एआई सुरक्षा के बारे में चर्चा आम तौर पर स्वास्थ्य संकट या परमाणु आपदा के जोखिम के समानांतर होती है। संभावित परमाणु घटनाओं से बचने के लिए अमेरिका की एनआरसी (परमाणु नियामक आयोग) जैसी समर्पित एजेंसी की आवश्यकता है। खतरनाक स्वास्थ्य संकटों के जोखिम से बचने के लिए FDA (खाद्य एवं औषधि प्रशासन) की स्थापना आवश्यक है

इसी तरह, यह सुनिश्चित करने के लिए कि एआई स्पेस में चीजें गलत न हों, एफडीए और एनआरसी के समान एक समर्पित एजेंसी आवश्यक है क्योंकि एआई हमारे जीवन के सभी क्षेत्रों में आक्रामक रूप से प्रवेश कर रहा है। दुर्भाग्य से, इन-कंट्री एआई विनियमन का मुद्दा पेचीदा है। किसी भी समर्पित नियामक एजेंसी का काम सीमा पार सहयोग के बिना बेहद कठिन होने की संभावना है। जैसे अमेरिका के एनआरसी (परमाणु नियामक आयोग) को अंतरराष्ट्रीय परमाणु ऊर्जा के साथ हाथ से काम करने की जरूरत है एजेंसी (आईएईए) के सर्वोत्तम होने के लिए, किसी भी देश में समर्पित एआई नियामक एजेंसी को एक अंतरराष्ट्रीय एनालॉग की भी आवश्यकता होगी।

ऐसी एजेंसी निम्नलिखित के लिए जिम्मेदार होगी:

  • एआई नियमों का विकास
  • अनुपालन और प्रवर्तन सुनिश्चित करना
  • एआई परियोजनाओं की नैतिक समीक्षा प्रक्रिया की देखरेख करना
  • एआई सुरक्षा और नैतिकता पर सहयोग और क्रॉस-कंट्री सहयोग

4. कॉपीराइट और बौद्धिक संपदा संबंधी चिंताओं को संबोधित करना

मौजूदा कॉपीराइट कानून और कानूनी ढाँचे आर्टिफिशियल इंटेलिजेंस के सामने चरमरा जाते हैं। एआई उपकरण, विशेष रूप से जनरेटिव एआई उपकरण, जिस तरह से डिज़ाइन किए गए हैं, वे सार्वजनिक रूप से समर्थित कॉपीराइट उल्लंघन मशीन की तरह लगते हैं जिसके बारे में आप कुछ नहीं कर सकते।

कैसे? खैर, आज के कई AI सिस्टम कॉपीराइट सामग्री का उपयोग करके प्रशिक्षित हैं। आप जानते हैं, कॉपीराइट किए गए लेख, कॉपीराइट किए गए गाने, कॉपीराइट की गई छवियां आदि। इस तरह उपकरण पसंद करते हैं चैटजीपीटी, बिंग एआई और गूगल बार्ड वे जो भयानक काम करते हैं वे कर सकते हैं।

जबकि ये प्रणालियाँ स्पष्ट रूप से लोगों की बौद्धिक संपदा का लाभ उठा रही हैं, जिस तरह से ये AI प्रणालियाँ करती हैं कॉपीराइट वाली किताब पढ़ने, कॉपीराइट वाले गाने सुनने या कॉपीराइट वाली चीज़ों को देखने से कोई अलग नहीं है इमेजिस।

आप कॉपीराइट वाली किताब को पढ़ सकते हैं, उससे नए तथ्य सीख सकते हैं और उन तथ्यों को अपनी किताब के आधार के रूप में इस्तेमाल कर सकते हैं। आप अपना खुद का संगीत बनाने के लिए प्रेरणा के लिए एक कॉपीराइट गीत भी सुन सकते हैं। दोनों ही मामलों में, आपने कॉपीराइट सामग्री का उपयोग किया है, लेकिन इसका मतलब यह नहीं है कि व्युत्पन्न उत्पाद मूल के कॉपीराइट का उल्लंघन करता है।

हालांकि यह एआई कॉपीराइट कानूनों की गड़बड़ी को दूर करने के लिए एक तार्किक व्याख्या है, फिर भी यह कॉपीराइट और बौद्धिक संपदा के मालिकों को नुकसान पहुंचाता है। इसे ध्यान में रखते हुए, नियमों के लिए आवश्यक हैं:

  • एआई प्रणाली के जीवनचक्र में शामिल सभी पक्षों के उत्तरदायित्व और उत्तरदायित्वों को स्पष्ट रूप से परिभाषित करें। इसमें एआई डेवलपर्स से लेकर अंतिम उपयोगकर्ताओं तक हर पार्टी की भूमिकाओं को स्पष्ट करना शामिल है, ताकि यह सुनिश्चित किया जा सके कि जिम्मेदार हैं पार्टियों को एआई द्वारा किए गए किसी भी कॉपीराइट उल्लंघन या बौद्धिक संपदा उल्लंघन के लिए जवाबदेह ठहराया जाता है सिस्टम।
  • मौजूदा कॉपीराइट ढांचे को सुदृढ़ करें और शायद एआई-विशिष्ट कॉपीराइट कानून पेश करें।
  • मूल रचनाकारों, एआई के अधिकारों की रक्षा करते हुए एआई स्पेस में नवाचार सुनिश्चित करना नियमों के संदर्भ में उचित उपयोग और परिवर्तनकारी कार्य की अवधारणाओं को फिर से परिभाषित करना चाहिए एआई-जनित सामग्री। यह सुनिश्चित करने के लिए स्पष्ट परिभाषाओं और दिशानिर्देशों की आवश्यकता है कि कॉपीराइट सीमाओं का सम्मान करते हुए एआई स्पेस में सुधार जारी रह सके। नवाचार और सामग्री निर्माताओं के अधिकारों के संरक्षण के बीच संतुलन बनाना आवश्यक है।
  • अधिकार धारकों के साथ सहयोग के लिए रास्ते साफ करें। अगर एआई सिस्टम वैसे भी लोगों की बौद्धिक संपदा का उपयोग करने जा रहे हैं, तो एआई डेवलपर्स और के लिए स्पष्ट रास्ते या रूपरेखा होनी चाहिए अधिकार-मालिक सहयोग करने के लिए, विशेष रूप से वित्तीय क्षतिपूर्ति के संदर्भ में, यदि ऐसी बौद्धिक संपत्तियों का व्युत्पन्न कार्य है व्यावसायीकरण।

एआई विनियमन एक बेहद जरूरी फिक्स है

जबकि कृत्रिम बुद्धिमत्ता हमारी कई सामाजिक समस्याओं के लिए एक आशाजनक समाधान के रूप में उभरी है, एआई स्वयं तेजी से एक समस्या बनती जा रही है जिसे तत्काल ठीक करने की आवश्यकता है। समाज पर एआई के सकारात्मक प्रभाव को सुनिश्चित करने के लिए एक कदम पीछे हटने, प्रतिबिंबित करने और आवश्यक सुधार करने का समय आ गया है। एआई सिस्टम के निर्माण और उपयोग के लिए हमें अपने दृष्टिकोण में तत्काल बदलाव की सख्त जरूरत है।