For this article:

13 Feb 2026·Source: The Hindu
3 min
Polity & GovernanceScience & TechnologyNEWS

एआई शासन: डिजिटल युग में बुनियादी ढांचे पर निर्णय लेने को प्राथमिकता

विशेषज्ञ एआई सिस्टम के युग में बुनियादी ढांचे पर निर्णय लेने पर जोर देते हैं।

एआई शासन: डिजिटल युग में बुनियादी ढांचे पर निर्णय लेने को प्राथमिकता

Photo by Skytech Aviation

द हिंदू टेक समिट 2026 में विशेषज्ञों ने प्रकाश डाला कि पारंपरिक शासन, जोखिम और अनुपालन (जीआरसी) मॉडल एआई सिस्टम में तेजी से हो रही प्रगति के साथ तालमेल बिठाने के लिए संघर्ष कर रहे हैं। बालकृष्ण कन्नैया ने उल्लेख किया कि जबकि प्लेटफ़ॉर्म विकसित होते हैं, जीआरसी की मूल बातें महत्वपूर्ण बनी हुई हैं। गौधमन जोथिलिंगम ने जवाबदेही की वकालत करते हुए बुनियादी ढांचे के बजाय निर्णय लेने के शासन के महत्व पर जोर दिया। उन्होंने साइबर जोखिम को मापने के लिए FAIR मॉडल की सिफारिश की। वेनिमाला सुंदरसन ने बैंकिंग जैसे विनियमित क्षेत्रों में निरंतर शासन निरीक्षण में बदलाव पर चर्चा की। शक्ति बालन मुथैया ने एआई में मानवविज्ञान के खिलाफ चेतावनी दी, यह उजागर करते हुए कि एआई और मनुष्य कैसे सीखते हैं। सत्र का संचालन कौशिक रमानी ने किया।

मुख्य तथ्य

1.

Traditional governance, risk, and compliance (GRC) models are struggling to keep pace with AI advancements.

2.

Governing decisions is more important than governing infrastructure in the context of AI.

3.

Accountability is a key differentiator in AI governance.

4.

The FAIR (Factor Analysis of Information Risk) model is recommended for quantifying cyber risk.

5.

Anthropomorphism in AI can lead to incorrect assumptions in auditing and regulation.

UPSC परीक्षा के दृष्टिकोण

1.

GS Paper II: Governance, Polity, Social Justice

2.

Ethical considerations in AI and technology governance

3.

Statement-based MCQs on AI regulations and frameworks

और जानकारी

पृष्ठभूमि

शासन, जोखिम और अनुपालन (GRC) की अवधारणा समय के साथ काफी विकसित हुई है। शुरुआत में, GRC मुख्य रूप से वित्तीय क्षेत्र में नियामक अनुपालन और आंतरिक नियंत्रणों पर केंद्रित था। उदाहरण के लिए, संयुक्त राज्य अमेरिका में Sarbanes-Oxley Act of 2002 ने सार्वजनिक रूप से कारोबार करने वाली कंपनियों के लिए सख्त वित्तीय रिपोर्टिंग और आंतरिक नियंत्रण अनिवार्य कर दिए, जिससे विश्व स्तर पर GRC प्रथाओं को प्रभावित किया। जैसे-जैसे तकनीक आगे बढ़ी, GRC में IT शासन और साइबर सुरक्षा भी शामिल हो गए। इंटरनेट और डिजिटल डेटा के उदय ने डेटा गोपनीयता, सुरक्षा उल्लंघनों और बौद्धिक संपदा की चोरी से संबंधित नए जोखिम पैदा किए। COBIT (Control Objectives for Information and Related Technologies) जैसे ढांचे IT शासन और प्रबंधन पर मार्गदर्शन प्रदान करने के लिए उभरे। हाल ही में, आर्टिफिशियल इंटेलिजेंस के आगमन ने GRC के लिए नई चुनौतियां पेश की हैं। AI सिस्टम जटिल नैतिक, कानूनी और सामाजिक प्रश्न उठाते हैं, जिनमें पूर्वाग्रह, निष्पक्षता, जवाबदेही और पारदर्शिता के मुद्दे शामिल हैं। पारंपरिक GRC मॉडल, जो अधिक अनुमानित और नियम-आधारित प्रणालियों के लिए डिज़ाइन किए गए हैं, अक्सर AI की गतिशील और अनुकूल प्रकृति को संबोधित करने के लिए संघर्ष करते हैं। इसके लिए अधिक चुस्त और निर्णय-केंद्रित शासन दृष्टिकोण की ओर बदलाव की आवश्यकता है, जैसा कि खबर में प्रकाश डाला गया है।

नवीनतम घटनाक्रम

AI शासन में हाल के घटनाक्रमों में विभिन्न संगठनों और सरकारों द्वारा नैतिक दिशानिर्देशों और ढांचे का विकास शामिल है। उदाहरण के लिए, European Union's AI Act, AI के लिए एक व्यापक कानूनी ढांचा प्रस्तावित करता है, AI सिस्टम को जोखिम के आधार पर वर्गीकृत करता है और उच्च जोखिम वाले अनुप्रयोगों के लिए विशिष्ट आवश्यकताएं लगाता है। AI ऑडिटिंग और प्रमाणन पर भी बढ़ता जोर है ताकि यह सुनिश्चित किया जा सके कि AI सिस्टम निष्पक्षता, पारदर्शिता और जवाबदेही के कुछ मानकों को पूरा करते हैं। IEEE (Institute of Electrical and Electronics Engineers) जैसे संगठन AI नैतिकता और शासन के लिए मानक और प्रमाणन विकसित कर रहे हैं। आगे देखते हुए, AI शासन के तेजी से महत्वपूर्ण होने की उम्मीद है क्योंकि AI सिस्टम अधिक व्यापक और प्रभावशाली होते जा रहे हैं। प्रमुख चुनौतियों में AI नियमों की निगरानी और प्रवर्तन के लिए प्रभावी तंत्र विकसित करना, AI एल्गोरिदम में पूर्वाग्रह और भेदभाव की संभावना को संबोधित करना और यह सुनिश्चित करना शामिल है कि AI का उपयोग इस तरह से किया जाए जिससे पूरे समाज को लाभ हो।

अक्सर पूछे जाने वाले सवाल

1. What is the main focus of current discussions on AI governance?

The current focus is shifting towards governing the decisions made by AI systems, rather than solely focusing on the infrastructure supporting them. Experts emphasize accountability in AI decision-making.

2. What are the key areas where traditional Governance, Risk, and Compliance (GRC) models are facing challenges?

Traditional GRC models are struggling to keep pace with the rapid advancements in AI systems. They need to adapt to the complexities and unique challenges presented by AI.

3. What is the FAIR model, and why is it relevant to AI governance?

The FAIR (Factor Analysis of Information Risk) model is a method for quantifying cyber risk. It is recommended for AI governance to help organizations understand and manage the risks associated with AI systems.

4. What is 'anthropomorphism' in the context of AI, and why should it be avoided?

Anthropomorphism in AI refers to attributing human-like qualities or characteristics to AI systems. It should be avoided because AI learns and operates differently than humans, and anthropomorphism can lead to incorrect assumptions in auditing and regulation.

5. What is the significance of continuous governance oversight in sectors like banking, especially with the rise of AI?

Continuous governance oversight is becoming increasingly important in regulated sectors like banking to ensure that AI systems are used responsibly and ethically. It helps in monitoring AI's impact and ensuring compliance with regulations.

6. How might prioritizing decision-making over infrastructure in AI governance affect common citizens?

Prioritizing decision-making in AI governance can lead to more accountable and transparent AI systems. This can impact common citizens by ensuring that AI-driven decisions affecting their lives are fair, ethical, and explainable.

बहुविकल्पीय प्रश्न (MCQ)

1. AI शासन के संदर्भ में FAIR मॉडल के संबंध में निम्नलिखित कथनों पर विचार करें: 1. FAIR मॉडल का उपयोग मुख्य रूप से AI निवेशों से जुड़े वित्तीय जोखिमों को मापने के लिए किया जाता है। 2. FAIR मॉडल केवल बुनियादी ढांचे पर ध्यान केंद्रित करने के बजाय AI से संबंधित निर्णयों को नियंत्रित करने पर जोर देता है। 3. FAIR मॉडल एक मालिकाना ढांचा है जिसे एक ही प्रौद्योगिकी कंपनी द्वारा विकसित किया गया है। उपरोक्त कथनों में से कौन सा/से सही है/हैं?

  • A.केवल 1
  • B.केवल 2
  • C.केवल 1 और 3
  • D.केवल 2 और 3
उत्तर देखें

सही उत्तर: B

कथन 1 गलत है: FAIR मॉडल का उपयोग साइबर जोखिम को मापने के लिए किया जाता है, न कि विशेष रूप से AI निवेशों से जुड़े वित्तीय जोखिमों को मापने के लिए। कथन 2 सही है: गौधमन जोथिलिंगम ने बुनियादी ढांचे पर ध्यान केंद्रित करने के बजाय निर्णयों को नियंत्रित करने के महत्व पर जोर दिया, जवाबदेही की वकालत की, और साइबर जोखिम को मापने के लिए FAIR मॉडल की सिफारिश की। कथन 3 गलत है: FAIR मॉडल एक मालिकाना ढांचा नहीं है जिसे एक ही कंपनी द्वारा विकसित किया गया है। यह सूचना जोखिम प्रबंधन के लिए एक खुला मानक है।

2. निम्नलिखित में से कौन सा कथन AI शासन के संबंध में द हिंदू टेक समिट 2026 में विशेषज्ञों द्वारा दिए गए केंद्रीय तर्क का सबसे अच्छा वर्णन करता है?

  • A.AI बुनियादी ढांचे का विकास शासन प्रयासों का प्राथमिक ध्यान होना चाहिए।
  • B.पारंपरिक शासन, जोखिम और अनुपालन (GRC) मॉडल AI सिस्टम के प्रबंधन के लिए पूरी तरह से पर्याप्त हैं।
  • C.अंतर्निहित बुनियादी ढांचे को नियंत्रित करने की तुलना में AI सिस्टम द्वारा किए गए निर्णयों को नियंत्रित करना अधिक महत्वपूर्ण है।
  • D.प्रभावी शासन के लिए AI में मानवकरण आवश्यक है।
उत्तर देखें

सही उत्तर: C

द हिंदू टेक समिट 2026 में विशेषज्ञों ने इस बात पर जोर दिया कि पारंपरिक शासन, जोखिम और अनुपालन (GRC) मॉडल AI सिस्टम में तेजी से हो रही प्रगति के साथ तालमेल बिठाने के लिए संघर्ष कर रहे हैं। गौधमन जोथिलिंगम ने विशेष रूप से बुनियादी ढांचे के बजाय निर्णयों को नियंत्रित करने की वकालत की, और जवाबदेही के महत्व पर प्रकाश डाला।

3. शक्ति बालन मुथैया ने AI में मानवकरण के खिलाफ चेतावनी दी। निम्नलिखित में से कौन सा कथन AI शासन के संदर्भ में मानवकरण से जुड़ी प्रमुख चिंता को दर्शाता है?

  • A.मानवकरण AI व्यवहार को बेहतर ढंग से समझने और भविष्यवाणी करने में मदद करता है।
  • B.मानवकरण यह सुनिश्चित करता है कि AI सिस्टम मानव मूल्यों और नैतिकता के साथ संरेखित हों।
  • C.मानवकरण AI क्षमताओं और सीमाओं की गलत व्याख्याओं को जन्म दे सकता है क्योंकि AI और मनुष्यों के सीखने के तरीके में अंतर होता है।
  • D.मानवकरण AI सिस्टम को मानव समाज में एकीकृत करने की सुविधा प्रदान करता है।
उत्तर देखें

सही उत्तर: C

शक्ति बालन मुथैया ने AI में मानवकरण के खिलाफ चेतावनी दी, और AI और मनुष्यों के सीखने के तरीके में अंतर पर प्रकाश डाला। इससे पता चलता है कि AI को मानव जैसी विशेषताओं का श्रेय देने से इसकी क्षमताओं और सीमाओं की गलत व्याख्या हो सकती है, जो AI शासन में एक प्रमुख चिंता है।

Source Articles

GKSolverआज की खबरें