कृत्रिम बुद्धिमत्ता (AI) भारतीय अर्थव्यवस्था के लिये अपार संभावनाएँ रखती है,क्यों?

कृत्रिम बुद्धिमत्ता (AI) भारतीय अर्थव्यवस्था के लिये अपार संभावनाएँ रखती है,क्यों?

०१
WhatsApp Image 2023-11-05 at 19.07.46
previous arrow
next arrow
०१
WhatsApp Image 2023-11-05 at 19.07.46
previous arrow
next arrow

श्रीनारद मीडिया सेंट्रल डेस्क

भारत वैश्विक AI शिखर सम्मेलन की मेजबानी की तैयारी कर रहा है, जो भारतीय अर्थव्यवस्था के लिये AI के रणनीतिक महत्त्व को रेखांकित करता है। भारत वर्ष 2023 के अंतिम माहों में आर्टिफिशियल इंटेलिजेंस/कृत्रिम बुद्धिमत्ता (AI) पर केंद्रित दो महत्त्वपूर्ण बैठकों की मेजबानी करने वाला है। इनमें से पहली बैठक अक्टूबर 2023 में आयोजित होने वाली है, जो विश्व का पहला वैश्विक AI शिखर सम्मेलन होगा। इसके बाद दिसंबर 2023 में भारत ‘ग्लोबल पार्टनरशिप ऑन आर्टिफिशियल इंटेलिजेंस’ (GPAI) का नेतृत्व संभालेगा।

लेकिन इस प्रौद्योगिकीय प्रगति के साथ ही सुदृढ़ विनियमन की तत्काल आवश्यकता भी प्रकट हुई है। बच्चे और किशोर विशेष रूप से AI से जुड़े विभिन्न जोखिमों के प्रति संवेदनशील हैं तथा भारत के मौजूदा डेटा संरक्षण कानून इन चुनौतियों का समाधान करने में अक्षम सिद्ध हो सकते हैं।

AI विनियमन:

AI विनियमन (AI regulation) कृत्रिम बुद्धिमत्ता प्रौद्योगिकियों के विकास, तैनाती और उपयोग को नियंत्रित करने के लिये सरकारों और नियामक निकायों द्वारा स्थापित नियमों, कानूनों एवं दिशानिर्देशों को संदर्भित करता है।

AI विनियमन का प्राथमिक उद्देश्य यह सुनिश्चित करना है कि AI प्रणालियों को ऐसे तरीकों से विकसित और उपयोग किया जाए जो समाज के लिये सुरक्षित, नैतिक एवं लाभप्रद हो और संभावित जोखिमों एवं हानियों का शमन करता हो। AI विनियमन कई पहलुओं को कवर कर सकता है, जिनमें शामिल हैं:

  • सुरक्षा और विश्वसनीयता: विनियमनों में AI डेवलपर्स के लिये सुरक्षा मानकों के पालन को अनिवार्य बनाया जा सकता है ताकि AI प्रणालियों के कारण होने वाली दुर्घटनाओं या खराबी को रोका जा सके। यह स्वायत्त वाहनों या चिकित्सा निदान जैसे प्रमुख क्षेत्रों में विशेष रूप से महत्त्वपूर्ण है।
  • नैतिक विचार: कुछ AI अनुप्रयोग, विशेष रूप से स्वास्थ्य सेवा या वित्त जैसे महत्त्वपूर्ण क्षेत्रों में, यह सुनिश्चित करने के लिये मानवीय निरीक्षण की आवश्यकता रख सकते हैं कि AI निर्णय मानवीय मूल्यों और नैतिकता के अनुरूप हैं।
  • डेटा गोपनीयता: कई AI प्रणालियाँ डेटा की बड़ी मात्रा पर निर्भर करती हैं। यूरोपीय संघ (EU) के ‘जेनरल डेटा प्रोटेक्शन रेगुलेशन’ (GDPR) जैसे विनियमन इस बात के लिये मानक तय करते हैं कि AI अनुप्रयोगों में व्यक्तिगत डेटा को कैसे संभाला जाए और कैसे संरक्षित किया जाए।
  • पारदर्शिता और जवाबदेही: कुछ विनियमन AI डेवलपर्स के लिये अपने एल्गोरिदम में पारदर्शिता प्रदान करने की मांग कर सकते हैं, जिससे यह समझना आसान हो जाएगा कि AI प्रणालियाँ किस प्रकार निर्णय लेती हैं।
  • निर्यात नियंत्रण: संवेदनशील AI क्षमताओं को गलत हाथों में जाने से रोकने के लिये सरकारें AI प्रौद्योगिकियों के निर्यात को विनियमित कर सकती हैं।
  • अनुपालन और प्रमाणन: AI डेवलपर्स को यह सुनिश्चित करने के लिये विशिष्ट प्रमाणन आवश्यकताओं का अनुपालन करने की आवश्यकता हो सकती है कि उनकी AI प्रणालियाँ नियामक मानकों को पूरा करती हैं।
  • अंतर्राष्ट्रीय सहयोग: AI की वैश्विक प्रकृति को देखते हुए संघर्षों से बचने और सुसंगत मानकों को सुनिश्चित करने के लिये AI विनियमन पर अंतर्राष्ट्रीय सहयोग की भी आवश्यकता बढ़ रही है।

विश्व में प्रयुक्त प्रमुख AI नियामक कानून 

  • यूरोपीय संघ (EU): यूरोपीय संघ आर्टिफिशियल इंटेलिजेंस अधिनियम के मसौदे पर कार्य कर रहा है, जिसका लक्ष्य AI को व्यापक रूप से विनियमित करना है। इस विधान से AI के विभिन्न पहलुओं को संबोधित करने की उम्मीद है, जिसमें जोखिम वर्गीकरण, डेटा सब्जेक्ट अधिकार, शासन, दायित्व और प्रतिबंध शामिल हैं।
  • ब्राज़ील: ब्राज़ील अपना पहला AI विनियमन विकसित करने की प्रक्रिया में है। प्रस्तावित विनियमन AI प्रणालियों से प्रभावित व्यक्तियों के अधिकारों की गारंटी देने, जोखिम के स्तर को वर्गीकृत करने और AI ऑपरेटरों के लिये शासन उपायों को लागू करने पर केंद्रित है। यह कई बातों में यूरोपीय संघ के AI अधिनियम के मसौदे से समानताएँ रखता है।
  • चीन: चीन एल्गोरिथम अनुशंसा प्रणालियों और गहन संश्लेषण प्रौद्योगिकियों के लिये विशिष्ट प्रावधानों के साथ सक्रिय रूप से AI को विनियमित कर रहा है। चीन का साइबरस्पेस प्रशासन AI-जनित कंटेंट की सुरक्षा और परिशुद्धता सुनिश्चित करने के उपायों पर भी विचार कर रहा है।
  • जापान: जापान ने AI डेवलपर्स और कंपनियों के लिये सामाजिक सिद्धांतों और दिशानिर्देशों का एक सेट अपनाया है। हालाँकि ये उपाय कानूनी रूप से बाध्यकारी नहीं हैं, लेकिन ये उत्तरदायी AI विकास के प्रति सरकार की प्रतिबद्धता को दर्शाते हैं।
  • कनाडा: कनाडा ने डिजिटल चार्टर कार्यान्वयन अधिनियम (Digital Charter Implementation Act) 2022 पेश किया है, जिसमें आर्टिफिशियल इंटेलिजेंस और डेटा अधिनियम (AIDA) शामिल है। AIDA का लक्ष्य AI प्रणालियों में व्यापार को विनियमित करना और उच्च-प्रदर्शन AI से जुड़ी संभावित हानियों और पूर्वाग्रहों को संबोधित करना है।
  • संयुक्त राज्य अमेरिका: अमेरिका ने AI जोखिम प्रबंधन के लिये गैर-बाध्यकारी दिशानिर्देश और अनुशंसाएँ जारी की हैं। व्हाइट हाउस ने स्वचालित प्रणालियों के विकास, उपयोग और तैनाती के लिये एक ब्लूप्रिंट भी प्रकाशित किया है।
  • भारत: भारत AI विनियमन के लिये एक पर्यवेक्षी प्राधिकरण की स्थापना पर विचार कर रहा है। वर्किंग पेपर दर्शाते हैं कि सरकार विभिन्न AI क्षेत्रों में उत्तरदायी AI और समन्वयन के लिये सिद्धांतों को पेश करने की मंशा रखती है।
    • भारत द्वारा उत्पन्न किये जा सकने वाले डेटा की विशाल मात्रा को देखते हुए, उसके पास ‘ग्लोबल साउथ’ के लिये एक नीति उदाहरण स्थापित करने का अवसर है। पर्यवेक्षक और अभ्यासकर्ता विनियमन के प्रति भारत के दृष्टिकोण पर नज़र रखेंगे और देखेंगे कि वह किस प्रकार इसके संपार्श्विक जोखिमों के विरुद्ध AI की विकासात्मक क्षमता को संतुलित करता है।
    • एक क्षेत्र जहाँ भारत नेतृत्वकारी भूमिका निभा सकता है, वह यह है कि नियामक उन बच्चों और किशोरों को किस प्रकार संबोधित करते हैं जो इस संदर्भ में एक महत्त्वपूर्ण (लेकिन अभी तक कम समझे गए) जनसांख्यिकीय भागीदार हैं।

बाल सुरक्षा के लिये सुदृढ़ AI विनियमन की आवश्यकता:

  • समग्र सुरक्षा के लिये AI का विनियमन:
    • विनियमों को व्यसन, मानसिक स्वास्थ्य मुद्दों और समग्र सुरक्षा चिंताओं से निपटने के लिये प्रोत्साहनों को संरेखित करने पर ध्यान केंद्रित करना चाहिये।
    • अतिसंवेदनशील कमउम्र युवाओं का दोहन करने के लिये डेटा-हंगरी AI सेवाओं द्वारा भ्रामक अभ्यासों को नियोजित किये जाने के जोखिम मौजूद हैं।
  • शारीरिक छवि और साइबर खतरे:
    • AI-संचालित शारीरिक बनावट की विकृतियाँ बच्चों और किशोरों में शारीरिक छवि (Body Image) संबंधी समस्याएँ पैदा कर सकती हैं।
    • भ्रामक सूचना के प्रसार, कट्टरपंथ, साइबरबुलिइंग और यौन उत्पीड़न में AI की भूमिका संभावित रूप से महत्त्वपूर्ण है।
  • परिवार की ऑनलाइन गतिविधि का प्रभाव:
    • माता-पिता द्वारा अपने बच्चों की तस्वीरें ऑनलाइन साझा करने से वे जोखिमों के संपर्क में आ सकते हैं।
  • डीप फेक की भेद्यताएँ:
    • AI-संचालित डीप फेक (deep fakes) बच्चों को लक्षित कर सकते हैं, जिसमें रूपांतरित प्रकट कंटेंट वितरण (morphed explicit content distribution) शामिल हैं।
  • पहचान और पूर्वाग्रह:
    • भारत में लिंग, जाति, जनजातीय पहचान, धर्म और भाषाई विरासत का एक विविध परिदृश्य पाया जाता है।
    • वास्तविक दुनिया के पूर्वाग्रहों का संभावित रूप से डिजिटल स्थान में भी प्रवेश हो सकता है, जिससे हाशिये पर अवस्थित समुदाय प्रभावित हो सकते हैं।
  • डेटा सुरक्षा कानूनों का पुनर्मूल्यांकन:
    • भारत में वर्तमान डेटा सुरक्षा ढाँचे में बच्चों के हितों की रक्षा करने में प्रभावशीलता का अभाव है।
    • बच्चों के डेटा को ट्रैक करने पर प्रतिबंध डिफाॅल्ट रूप से वैयक्तिकरण के लाभों को सीमित कर सकता है।

AI के लाभों को संरक्षित करते हुए भारत अपने बाल नागरिकों की सुरक्षा के लिये क्या कर सकता है?

  • यूनिसेफ के मार्गदर्शन से प्रेरणा लेना:
    • बाल अधिकारों पर संयुक्त राष्ट्र कन्वेंशन पर आधारित यूनिसेफ (UNICEF) का मार्गदर्शन बाल-केंद्रित AI के लिये नौ आवश्यकताओं पर बल देता है।
    • इस मार्गदर्शन का उपयोग एक ऐसे डिजिटल वातावरण के निर्माण के लिये किया जा सकता है जो बच्चों की भलाई, निष्पक्षता, सुरक्षा, पारदर्शिता और जवाबदेही को बढ़ावा दें।
  • सर्वोत्तम अभ्यासों को अपनाना:
    • कैलिफोर्निया का अधिनियम एक टेम्पलेट के रूप में कार्य करता है, जो डिफाॅल्ट प्राइवेसी सेटिंग्स में पारदर्शिता की वकालत करता है और एल्गोरिदम एवं डेटा संग्रह से बच्चों की संभावित हानि का आकलन करता है।
    • ऑस्ट्रेलिया की ‘ऑनलाइन सेफ्टी यूथ एडवाइजरी काउंसिल’ जैसी संस्थाओं की स्थापना करने पर विचार किया जा सकता है।
  • AI के लिये आयु-उपयुक्त डिज़ाइन कोड:
    • भारतीय प्राधिकरणों को भारतीय बच्चों और किशोरों पर AI के प्रभाव के संबंध में साक्ष्य एकत्र करने के लिये अनुसंधान को प्रोत्साहित करना चाहिये।
    • एकत्रित साक्ष्यों को AI के लिये भारतीय आयु-उपयुक्त डिज़ाइन कोड विकसित करने की नींव के रूप में स्थापित किया जा सकता है।
  • डिजिटल इंडिया अधिनियम (DIA) की भूमिका:
    • आगामी डिजिटल इंडिया अधिनियम (DIA) को AI के साथ अंतःक्रिया करने वाले बच्चों के लिये सुरक्षा की वृद्धि करनी चाहिये।
    • इसे सुरक्षित प्लेटफॉर्म संचालन और उपयोगकर्ता इंटरफेस डिज़ाइन को बढ़ावा देना चाहिये।
  • बच्चों के अनुकूल AI उत्पाद और सेवाएँ:
    • AI-संचालित प्लेटफॉर्मों को आयु-उपयुक्त कंटेंट और सेवाएँ प्रदान करना सुनिश्चित करना चाहिये जो शिक्षा, मनोरंजन और समग्र कल्याण को बढ़ावा दें।
    • सुदृढ़ अभिभावकीय नियंत्रण सुविधाएँ लागू की जानी चाहिये, जो माता-पिता को अपने बच्चों की ऑनलाइन गतिविधियों पर नज़र रखने और उन्हें सीमित करने की अनुमति दें।
  • डिजिटल फीडबैक चैनल:
    • बच्चों के अनुकूल ऑनलाइन फीडबैक चैनल विकसित किये जाने चाहिये, जहाँ बच्चे AI से संबंधित अपने अनुभवों और चिंताओं को साझा कर सकें।
    • इनपुट संग्रह करने के लिये सर्वेक्षण और फ़ोरम जैसे इंटरैक्टिव टूल का उपयोग किया जाना चाहिये।
  • संदेश का प्रसार:
    • जन जागरूकता अभियानों को AI के भविष्य को आकार देने में बच्चों की भागीदारी के महत्त्व पर प्रकाश डालना चाहिये।
    • संदेश का प्रसार बढ़ाने के लिये इंफ्लुएंसर्स और रोल मॉडल को शामिल किया जा सकता है।

निष्कर्ष:

तेज़ी से आगे बढ़ रहे AI के युग में भारतीय विनियमन को अपने बाल नागरिकों के हितों और सुरक्षा को प्राथमिकता देनी चाहिये। वैश्विक सर्वोत्तम अभ्यासों को शामिल करना, बच्चों के साथ संवाद को बढ़ावा देना और अनुकूलनीय विनियमन विकसित करना भारत के युवाओं के लिये एक सुरक्षित एवं लाभकारी डिजिटल वातावरण सुनिश्चित करने की दिशा में आवश्यक कदम होंगे।

Leave a Reply

error: Content is protected !!