Human Agency is Key to Building Trust in Artificial Intelligence Systems
For AI to be truly trustworthy, it must be designed with human oversight and ethical considerations at its core.
Photo by Satyajeet Mazumdar
To ensure people trust Artificial Intelligence, it needs to be designed and controlled by humans, following strong ethical rules. This way, AI acts as a helpful tool that reflects our values and doesn't cause harm or unfairness.
कृत्रिम बुद्धिमत्ता (AI) प्रणालियों के जिम्मेदार विकास और तैनाती के लिए मानवीय हस्तक्षेप (human agency) और मजबूत नैतिक सिद्धांतों को शामिल करना अत्यंत महत्वपूर्ण है, जैसा कि तकनीकी शासन पर हालिया चर्चाओं में उजागर किया गया है। प्रत्यक्ष मानवीय निगरानी, स्पष्ट जवाबदेही तंत्र और मूलभूत मानवीय मूल्यों पर दृढ़ ध्यान के बिना, AI प्रणालियों से सार्वजनिक विश्वास कम होने और मौजूदा सामाजिक पूर्वाग्रहों के बढ़ने का जोखिम होता है। प्रमुख तर्क एक ऐसे व्यापक ढांचे की वकालत करता है जहाँ AI को मानवता के सर्वोत्तम हितों की सेवा के लिए डिज़ाइन किया जाए, बजाय इसके कि वह नैतिक या नैतिक मार्गदर्शन के बिना स्वायत्त रूप से संचालित हो।
यह दृष्टिकोण इस बात पर जोर देता है कि AI के जीवनचक्र के हर चरण में—डिजाइन और डेटा क्यूरेशन से लेकर तैनाती और निगरानी तक—मानवीय हस्तक्षेप महत्वपूर्ण है। इसका उद्देश्य यह सुनिश्चित करना है कि AI प्रौद्योगिकियां पारदर्शी, निष्पक्ष और जवाबदेह हों, जिससे अनपेक्षित परिणामों को रोका जा सके और न्यायसंगत परिणामों को बढ़ावा दिया जा सके। मानवीय हस्तक्षेप का एकीकरण एल्गोरिथम भेदभाव और AI द्वारा ऐसे निर्णय लेने की क्षमता के खिलाफ एक महत्वपूर्ण सुरक्षा कवच के रूप में कार्य करता है जो सामाजिक मानदंडों या व्यक्तिगत अधिकारों के साथ संघर्ष करते हैं।
भारत के लिए, एक ऐसा राष्ट्र जो तेजी से डिजिटल परिवर्तन और AI को विभिन्न क्षेत्रों में अपना रहा है, यह दृष्टिकोण विशेष रूप से महत्वपूर्ण है। AI विकास में मानवीय हस्तक्षेप को प्राथमिकता देना भारत के लोकतांत्रिक मूल्यों और समावेशी विकास के प्रति उसकी प्रतिबद्धता के अनुरूप है, यह सुनिश्चित करता है कि तकनीकी प्रगति सभी नागरिकों को लाभान्वित करे। यह विषय UPSC सिविल सेवा परीक्षा के लिए अत्यधिक प्रासंगिक है, विशेष रूप से GS पेपर 3 (विज्ञान और प्रौद्योगिकी, विशेष रूप से AI में विकास और उनके अनुप्रयोग) और GS पेपर 4 (नीतिशास्त्र, सत्यनिष्ठा और अभिरुचि, प्रौद्योगिकी और शासन में नैतिक दुविधाओं पर ध्यान केंद्रित करते हुए) के तहत।
संपादकीय विश्लेषण
The author strongly advocates for embedding human agency and ethical principles at the core of Artificial Intelligence development and deployment. This perspective is rooted in the belief that without robust human oversight and accountability, AI systems risk undermining public trust and amplifying existing societal biases, ultimately failing to serve humanity effectively.
मुख्य तर्क:
- Human agency is fundamental for building trust in AI systems, as AI's potential to erode public trust and exacerbate societal biases necessitates human oversight, accountability, and a focus on human values.
- AI should function as a tool serving humanity, rather than an autonomous entity devoid of moral guidance, requiring its design and operation to be anchored in ethical principles and human control.
- Ancient wisdom traditions, such as the Mahabharata, Ramayana, and Quran, offer conceptual models for integrating human agency and moral compass into complex systems, providing a philosophical foundation for responsible AI development.
- A robust ethical framework and legislative measures are crucial for governing AI, with examples like the UN Secretary-General's call for a global digital compact and the pioneering EU AI Act demonstrating international efforts towards responsible AI.
- India possesses a unique opportunity to lead in human-centric AI governance, leveraging its technological capabilities and philosophical heritage to champion an approach that prioritizes moral accountability and value-driven AI.
- The proposed MANAV model (Moral Accountability, Nurturing Agency, Value-driven AI, and Vigilance) emphasizes the need for accountability in every digital transaction, ensuring transparency and ethical conduct in AI operations.
निष्कर्ष
नीतिगत निहितार्थ
विशेषज्ञ विश्लेषण
दृश्य सामग्री
AI Systems: Risks & India's Response (March 2026)
Key statistics highlighting recent challenges and India's efforts in building responsible AI systems.
- एआई नीति अस्वीकृति (टियर 2/3)
- ~68%
- डीपफेक घोटाले में नुकसान
- ₹25.6 million
- भुगतान प्लेटफॉर्म की बिक्री ठप
- ₹2 billion
- जीपीयू ऑनबोर्ड किए गए (इंडियाएआई मिशन)
- 38,000+
2024 में एक ऑडिट में पाया गया कि एआई-आधारित दावा अनुमोदन ने टियर-2 और टियर-3 जिलों से ~68% नीतियों को पक्षपाती प्रशिक्षण डेटा के कारण अस्वीकार कर दिया, जो निष्पक्षता के मुद्दों को उजागर करता है।
2024 की शुरुआत में, हांगकांग स्थित एक बहुराष्ट्रीय कंपनी को डीपफेक घोटाले के कारण इतनी राशि का नुकसान हुआ, जो जनरेटिव एआई के हथियार के रूप में इस्तेमाल को दर्शाता है।
जून 2024 की एक घटना में, एक भारतीय भुगतान प्लेटफॉर्म के एआई-आधारित धोखाधड़ी का पता लगाने वाले इंजन ने वैध लेनदेन को गलत तरीके से चिह्नित करना शुरू कर दिया, जिससे इतनी राशि की बिक्री अस्थायी रूप से रुक गई, जो मॉडल ड्रिफ्ट के जोखिमों को उजागर करता है।
इंडियाएआई मिशन के तहत, एक सब्सिडी वाली राष्ट्रीय कंप्यूट सुविधा के माध्यम से 38,000 से अधिक जीपीयू ऑनबोर्ड किए गए हैं, जिससे स्वदेशी एआई विकास को बढ़ावा मिला है।
Evolution of AI & India's Governance Framework
Key milestones in the history of Artificial Intelligence and the development of India's AI governance strategy.
एआई का एक सैद्धांतिक अवधारणा से एक व्यावहारिक उपकरण तक का सफर तेजी से तकनीकी प्रगति से चिह्नित है। भारत की रणनीति प्रारंभिक अपनाने के लक्ष्यों से एक व्यापक शासन ढांचे तक विकसित हुई है, जो एआई की क्षमता और उभरती नैतिक और सुरक्षा चुनौतियों दोनों से प्रेरित है।
- 1950एलन ट्यूरिंग ने ट्यूरिंग टेस्ट का प्रस्ताव रखा, जो एआई के लिए एक मूलभूत अवधारणा है।
- 1956'आर्टिफिशियल इंटेलिजेंस' शब्द डार्टमाउथ सम्मेलन में गढ़ा गया।
- 1980s-90sमशीन लर्निंग का उदय, जिससे सिस्टम डेटा से सीखने लगे।
- 2018नीति आयोग ने 'आर्टिफिशियल इंटेलिजेंस के लिए राष्ट्रीय रणनीति #AIforAll' जारी की, जिससे भारत के एआई दृष्टिकोण की नींव रखी गई।
- Early 2024डीपफेक घोटाला (₹25.6 मिलियन का नुकसान) और बीमा में एआई पूर्वाग्रह (68% अस्वीकृति) ने तत्काल जोखिमों को उजागर किया।
- June 2024भारतीय भुगतान प्लेटफॉर्म को एआई मॉडल ड्रिफ्ट के कारण ₹2 बिलियन की बिक्री ठप होने का सामना करना पड़ा।
- 2025निरसन और संशोधन विधेयक, 2025, शासन के आधुनिकीकरण का संकेत देता है, जो तकनीकी विनियमन को प्रभावित करता है।
- 2026भारत ने वैश्विक एआई शिखर सम्मेलन की मेजबानी की; 'इंडिया एआई गवर्नेंस गाइडलाइंस', 'मानव फ्रेमवर्क', 'एआई सेफ्टी इंस्टीट्यूट' और 'एआई गवर्नेंस ग्रुप (एआईजीजी)' का अनावरण किया।
त्वरित संशोधन
आर्टिफिशियल इंटेलिजेंस सिस्टम में विश्वास बनाने के लिए मानवीय एजेंसी महत्वपूर्ण है।
मानवीय निगरानी के बिना AI सिस्टम सार्वजनिक विश्वास को कम करने और सामाजिक पूर्वाग्रहों को बढ़ाने का जोखिम उठाते हैं।
AI एक ऐसा उपकरण होना चाहिए जो मानवता की सेवा करे, न कि नैतिक मार्गदर्शन के बिना एक स्वायत्त इकाई।
AI को नियंत्रित करने के लिए नैतिक ढांचा और विधायी उपाय आवश्यक हैं।
UN Secretary-General ने डिजिटल सहयोग के लिए एक वैश्विक डिजिटल कॉम्पैक्ट का आह्वान किया है।
EU AI Act AI को विनियमित करने के लिए एक अग्रणी विधायी ढांचा है।
भारत AI शासन के लिए मानव-केंद्रित दृष्टिकोण का समर्थन करने के लिए विशिष्ट रूप से स्थित है।
MANAV मॉडल (नैतिक जवाबदेही, एजेंसी का पोषण, मूल्य-संचालित AI, और सतर्कता) डिजिटल लेनदेन में जवाबदेही पर जोर देता है।
परीक्षा के दृष्टिकोण
GS Paper 3: Science and Technology - Developments in AI and their applications, ethical implications of technology.
GS Paper 4: Ethics, Integrity, and Aptitude - Ethical dilemmas in the use of AI, accountability, transparency, and human values in governance.
GS Paper 2: Governance - Role of government in regulating emerging technologies, policy frameworks for digital transformation.
और जानकारी
पृष्ठभूमि
नवीनतम घटनाक्रम
अक्सर पूछे जाने वाले सवाल
1. AI में सिर्फ तकनीकी तरक्की पर ध्यान देने के बजाय, अब 'मानवीय हस्तक्षेप' पर वैश्विक स्तर पर फिर से जोर क्यों दिया जा रहा है?
AI में मानवीय हस्तक्षेप पर जोर इसलिए दिया जा रहा है क्योंकि AI सिस्टम अब बहुत उन्नत हो गए हैं और उनका इस्तेमाल हर जगह बढ़ गया है। जैसे-जैसे AI हमारे जीवन के ज़्यादा हिस्सों को प्रभावित कर रहा है, यह चिंता बढ़ गई है कि अगर इसे मानवीय मूल्यों और निगरानी के बिना चलाया गया, तो यह लोगों का भरोसा कम कर सकता है और समाज में पहले से मौजूद भेदभाव को बढ़ा सकता है। हाल की चर्चाएँ इस बात पर जोर देती हैं कि एक ऐसा ढाँचा ज़रूरी है जहाँ AI इंसानियत के भले के लिए काम करे, न कि बिना किसी नैतिक मार्गदर्शन के अपने आप चले।
2. संयुक्त राष्ट्र महासचिव द्वारा 'वैश्विक डिजिटल कॉम्पैक्ट' के आह्वान का उल्लेख किया गया है। Prelims के लिए इसका क्या महत्व है, और UPSC इसमें क्या सामान्य गलती करवा सकता है?
Prelims के लिए, इसका महत्व डिजिटल सहयोग और शासन के लिए वैश्विक प्रयास को पहचानने में है, खासकर AI जैसी उभरती प्रौद्योगिकियों के संबंध में। संयुक्त राष्ट्र महासचिव का यह आह्वान AI के लिए अंतर्राष्ट्रीय नैतिक ढाँचे और कानूनी उपायों की आवश्यकता को रेखांकित करता है। एक सामान्य गलती यह हो सकती है कि इस 'वैश्विक डिजिटल कॉम्पैक्ट' को किसी अन्य विशिष्ट डिजिटल पहल के साथ भ्रमित किया जाए या इस आह्वान को किसी अन्य अंतर्राष्ट्रीय संस्था या देश से जोड़ा जाए।
परीक्षा युक्ति
याद रखें कि 'वैश्विक डिजिटल कॉम्पैक्ट' डिजिटल सहयोग के लिए एक व्यापक पहल है, जिसे संयुक्त राष्ट्र महासचिव ने बुलाया है, न कि AI के लिए कोई विशिष्ट संधि। ऐसे अंतर्राष्ट्रीय आह्वान के 'कौन' और 'क्या' पर ध्यान दें।
3. NITI Aayog की भारत की 'AI फॉर ऑल' रणनीति, मानवीय हस्तक्षेप और नैतिक AI के लिए वैश्विक प्रयास के साथ कैसे मेल खाती है?
NITI Aayog द्वारा बनाई गई भारत की 'AI फॉर ऑल' रणनीति, मानवीय हस्तक्षेप और नैतिक AI पर वैश्विक जोर के साथ अच्छी तरह मेल खाती है। यह रणनीति AI प्रौद्योगिकियों के समावेशी और नैतिक विकास पर केंद्रित है। समावेशिता और नैतिकता को प्राथमिकता देकर, भारत स्वाभाविक रूप से AI प्रणालियों में मानवीय निगरानी, जवाबदेही और मानवीय मूल्यों को शामिल करने की आवश्यकता को स्वीकार करता है, यह सुनिश्चित करता है कि AI बिना नैतिक मार्गदर्शन के काम करने के बजाय व्यापक सामाजिक भलाई के लिए काम करे।
4. मानवीय निगरानी के बिना AI का 'मौजूदा सामाजिक पूर्वाग्रहों को बढ़ाना' का क्या मतलब है, और मानवीय हस्तक्षेप इसे कैसे रोक सकता है?
AI सिस्टम उस डेटा से सीखते हैं जिस पर उन्हें प्रशिक्षित किया जाता है। यदि यह डेटा मौजूदा सामाजिक पूर्वाग्रहों (जैसे, भर्ती या ऋण देने में ऐतिहासिक असमानताएँ) को दर्शाता है, तो AI इन पूर्वाग्रहों को सीख सकता है और उन्हें बनाए रख सकता है, जिससे अनुचित या भेदभावपूर्ण परिणाम हो सकते हैं। मानवीय हस्तक्षेप इसे रोकने के लिए महत्वपूर्ण है:
- •पूर्वाग्रहों की पहचान करने और उन्हें कम करने के लिए प्रशिक्षण डेटा का सावधानीपूर्वक संग्रह और ऑडिट करना।
- •निष्पक्षता और समानता को मुख्य सिद्धांतों के रूप में लेकर एल्गोरिदम का डिज़ाइन करना।
- •पक्षपातपूर्ण परिणामों के लिए AI सिस्टम के आउटपुट की लगातार निगरानी और मूल्यांकन करना।
- •AI-आधारित निर्णयों के लिए स्पष्ट जवाबदेही तंत्र स्थापित करना।
5. अगर Mains में 'AI सिस्टम में विश्वास बनाने' पर कोई प्रश्न आता है, तो मैं अपने उत्तर में 'मानवीय हस्तक्षेप' की अवधारणा को प्रभावी ढंग से कैसे शामिल कर सकता हूँ?
AI सिस्टम में विश्वास बनाने पर Mains के उत्तर में 'मानवीय हस्तक्षेप' को प्रभावी ढंग से शामिल करने के लिए, AI के जीवनचक्र के हर चरण में मानवीय भागीदारी के इर्द-गिर्द अपने बिंदुओं को व्यवस्थित करें। इस बात पर जोर दें कि विश्वास इस बात से आता है कि AI इंसानियत की सेवा करने वाला एक उपकरण है, न कि एक स्वायत्त इकाई। आपके उत्तर में निम्नलिखित शामिल होना चाहिए:
- •डिज़ाइन चरण: मानव-केंद्रित डिज़ाइन सिद्धांत, शुरुआत से ही नैतिक विचारों को शामिल करना।
- •डेटा क्यूरेशन: पूर्वाग्रहों को रोकने के लिए डेटा के चयन और सफाई में मानवीय निगरानी।
- •तैनाती और निगरानी: महत्वपूर्ण निर्णयों के लिए मानवीय हस्तक्षेप, प्रदर्शन और नैतिक अनुपालन के लिए निरंतर मानवीय निगरानी।
- •जवाबदेही: AI सिस्टम के परिणामों के लिए स्पष्ट मानवीय जवाबदेही।
- •नैतिक और विधायी ढाँचे: मजबूत नैतिक दिशानिर्देशों और विधायी उपायों का मानव-नेतृत्व वाला विकास।
परीक्षा युक्ति
केवल बिंदुओं को सूचीबद्ध करने के बजाय, यह समझाएँ कि मानवीय हस्तक्षेप प्रत्येक पहलू में विश्वास में कैसे योगदान देता है। अपने उत्तर को समृद्ध करने के लिए 'जवाबदेही', 'पारदर्शिता' और 'नैतिक डिज़ाइन' जैसे कीवर्ड का उपयोग करें।
6. मानवीय हस्तक्षेप के संदर्भ में 'AI एथिक्स' और 'रिस्पॉन्सिबल AI' के बीच क्या अंतर है?
हालांकि अक्सर इनका एक-दूसरे के स्थान पर उपयोग किया जाता है, 'AI एथिक्स' आमतौर पर AI के विकास और उपयोग का मार्गदर्शन करने वाले सैद्धांतिक सिद्धांतों और नैतिक विचारों को संदर्भित करता है। यह इस बारे में है कि *क्या* सही या गलत है। दूसरी ओर, 'रिस्पॉन्सिबल AI' इन नैतिक सिद्धांतों का ठोस ढाँचों, दिशानिर्देशों और परिचालन प्रथाओं के माध्यम से व्यावहारिक अनुप्रयोग है, जो मानवीय निगरानी और जवाबदेही सुनिश्चित करता है। यह इस बारे में है कि नैतिक AI को व्यवहार में *कैसे* लागू किया जाए, जिससे मानवीय हस्तक्षेप इसके डिज़ाइन और तैनाती का केंद्र बन जाए।
7. दिशानिर्देशों से परे, मानवीय हस्तक्षेप और नैतिक AI सुनिश्चित करने के लिए विश्व स्तर पर किस तरह के 'कानूनी उपाय' विचारे जा रहे हैं?
विश्व स्तर पर, AI को नियंत्रित करने और मानवीय हस्तक्षेप सुनिश्चित करने के लिए ठोस कानूनी उपायों की दिशा में चर्चाएँ आगे बढ़ रही हैं। इन उपायों में अक्सर शामिल हैं:
- •AI निर्णय लेने की प्रक्रियाओं में पारदर्शिता अनिवार्य करने वाले कानून।
- •डेटा गोपनीयता और AI प्रशिक्षण के लिए व्यक्तिगत डेटा के नैतिक उपयोग पर नियम।
- •AI सिस्टम द्वारा पहुँचाई गई क्षति के लिए स्पष्ट जवाबदेही ढाँचे स्थापित करना।
- •उच्च जोखिम वाले AI अनुप्रयोगों (जैसे, स्वास्थ्य सेवा या न्याय में) में मानवीय निगरानी की आवश्यकताएँ।
- •कुछ AI उपयोगों पर प्रतिबंध जिन्हें नैतिक रूप से अस्वीकार्य माना जाता है।
8. विश्वास बनाने के लिए 'AI जीवनचक्र के हर चरण में मानवीय हस्तक्षेप' को लागू करने में प्राथमिक चुनौतियाँ क्या हैं?
AI जीवनचक्र के हर चरण में मानवीय हस्तक्षेप को लागू करना, हालांकि विश्वास के लिए महत्वपूर्ण है, कई व्यावहारिक चुनौतियों का सामना करता है:
- •स्केलेबिलिटी: बड़े पैमाने पर भारी मात्रा में डेटा और जटिल एल्गोरिदम की मैन्युअल रूप से निगरानी करना मुश्किल है।
- •जटिलता: AI सिस्टम 'ब्लैक बॉक्स' हो सकते हैं, जिससे मनुष्यों के लिए उनके आंतरिक कामकाज या निर्णय तर्क को समझना मुश्किल हो जाता है।
- •लागत और संसाधन: निगरानी के लिए कुशल कर्मियों, प्रशिक्षण और उपकरणों में महत्वपूर्ण निवेश की आवश्यकता होती है।
- •'मानव' को परिभाषित करना: यह तय करना कि 'लूप में मानव' कौन होना चाहिए, उनकी विशेषज्ञता और उनका अंतिम अधिकार क्या होना चाहिए।
- •जवाबदेही में कमी: जब कई मानव और AI एजेंट शामिल होते हैं तो जवाबदेही की स्पष्ट रेखाएँ स्थापित करना।
9. AI में मानवीय हस्तक्षेप पर जोर डिजिटल शासन और सहयोग के व्यापक वैश्विक रुझान में कैसे फिट बैठता है?
AI में मानवीय हस्तक्षेप पर जोर जिम्मेदार डिजिटल शासन और सहयोग की व्यापक वैश्विक प्रवृत्ति का एक आधारशिला है। यह विशुद्ध रूप से तकनीकी प्रगति से एक अधिक समग्र दृष्टिकोण की ओर बदलाव का प्रतीक है जो डिजिटल प्रौद्योगिकियों के सामाजिक, नैतिक और मानवाधिकार निहितार्थों पर विचार करता है। यह वैश्विक डिजिटल कॉम्पैक्ट के आह्वान के साथ मेल खाता है, जिसका उद्देश्य यह सुनिश्चित करने के लिए अंतर्राष्ट्रीय मानदंड और ढाँचे स्थापित करना है कि AI सहित डिजिटल प्रौद्योगिकियों को कैसे विकसित, तैनात और नियंत्रित किया जाए ताकि वे इंसानियत के सर्वोत्तम हितों की सेवा करें और वैश्विक असमानताओं या संघर्षों को न बढ़ाएँ।
10. AI और मानवीय मूल्यों के बीच संबंध के बारे में UPSC परीक्षक क्या मुख्य संदेश देखना चाहेंगे?
UPSC परीक्षक जो मुख्य संदेश देखना चाहेंगे, वह यह है कि AI को इंसानियत के सर्वोत्तम हितों की *सेवा* करने के लिए डिज़ाइन किए गए एक उपकरण के रूप में देखा जाना चाहिए, न कि नैतिक या नैतिक मार्गदर्शन के बिना काम करने वाली एक स्वायत्त इकाई के रूप में। संबंध ऐसा होना चाहिए जहाँ AI जीवनचक्र के हर चरण में मानवीय मूल्यों और निगरानी को *शामिल* किया जाए, यह सुनिश्चित करते हुए कि AI महत्वपूर्ण क्षेत्रों में मानवीय निर्णय को बदलने के बजाय मानवीय क्षमताओं और निर्णय लेने को *बढ़ाता* है। यह AI के मानवीय नैतिकता द्वारा निर्देशित, भलाई के लिए एक शक्ति होने के बारे में है।
परीक्षा युक्ति
AI और मानवीय मूल्यों पर चर्चा करते समय, हमेशा AI को मानवीय नियंत्रण में एक 'उपकरण' या 'बढ़ाने वाले' के रूप में जोर दें, न कि 'मालिक' या 'प्रतिस्थापन' के रूप में। 'मानव-केंद्रित AI' या 'भलाई के लिए AI' जैसे वाक्यांशों का उपयोग करें।
बहुविकल्पीय प्रश्न (MCQ)
1. कृत्रिम बुद्धिमत्ता (AI) प्रणालियों में 'मानवीय हस्तक्षेप' (Human Agency) के संदर्भ में, निम्नलिखित कथनों पर विचार करें: 1. यह मुख्य रूप से AI प्रणालियों की मानवीय हस्तक्षेप के बिना स्वायत्त निर्णय लेने की क्षमता को संदर्भित करता है। 2. मानवीय हस्तक्षेप को शामिल करने का उद्देश्य AI विकास में जवाबदेही सुनिश्चित करना और सामाजिक पूर्वाग्रहों को कम करना है। 3. जिम्मेदार AI के लिए अंतर्राष्ट्रीय दिशानिर्देश, जैसे कि OECD द्वारा, मानवीय निगरानी के महत्व पर जोर देते हैं। ऊपर दिए गए कथनों में से कौन सा/से सही है/हैं?
- A.केवल 1 और 2
- B.केवल 2 और 3
- C.केवल 3
- D.1, 2 और 3
उत्तर देखें
सही उत्तर: B
कथन 1 गलत है: AI प्रणालियों में 'मानवीय हस्तक्षेप' (Human Agency) AI को निर्देशित करने, उसकी निगरानी करने और उसे नियंत्रित करने में मनुष्यों की सक्रिय भूमिका को संदर्भित करता है, यह सुनिश्चित करते हुए कि AI मानवीय मूल्यों और लक्ष्यों की सेवा करे। यह मानवीय हस्तक्षेप के बिना AI द्वारा स्वायत्त निर्णय लेने के *विरुद्ध* है। यह अवधारणा मानवीय नियंत्रण पर जोर देती है, न कि AI की स्वायत्तता पर। कथन 2 सही है: AI विकास में मानवीय हस्तक्षेप को शामिल करना जवाबदेही सुनिश्चित करने के लिए महत्वपूर्ण है, क्योंकि AI के कार्यों और परिणामों के लिए मनुष्य जिम्मेदार रहते हैं। यह डेटा और एल्गोरिदम में पूर्वाग्रहों की पहचान करने और उन्हें ठीक करने के लिए मानवीय हस्तक्षेप की अनुमति देकर सामाजिक पूर्वाग्रहों को कम करने में भी मदद करता है। कथन 3 सही है: OECD (आर्थिक सहयोग और विकास संगठन) जैसे अंतर्राष्ट्रीय संगठनों ने वास्तव में जिम्मेदार AI के लिए सिद्धांत प्रकाशित किए हैं, जो AI प्रणालियों में विश्वास बनाने के लिए मानवीय निगरानी, पारदर्शिता और जवाबदेही के महत्व पर लगातार जोर देते हैं।
Source Articles
In Good Faith: To build trust, AI needs to be anchored by human agency | The Indian Express
Nanditesh Nilay writes: In 2022, let’s put our trust in those weaker than us
Imagine a society based on trust | The Indian Express
UPSC Ethics Simplified | Trust: The Concept | UPSC Current Affairs News - The Indian Express
Building trust in technology | The Indian Express
लेखक के बारे में
Richa SinghScience Policy Enthusiast & UPSC Analyst
Richa Singh GKSolver पर Science & Technology विषयों पर लिखते हैं।
सभी लेख पढ़ें →