For this article:

1 Mar 2026·Source: The Hindu
4 min
Science & TechnologyEconomyPolity & GovernanceNEWS

एआई का व्युत्क्रम नियम: पूंजी बढ़ती है, जिम्मेदारी घटती है

एआई शासन सुरक्षा से गति, पैमाने और पूंजी निवेश पर ध्यान केंद्रित करता है।

आर्टिफिशियल इंटेलिजेंस (AI) के वैश्विक संचालन में सुरक्षा और नैतिकता पर जोर कम हो रहा है, और गति और विस्तार को प्राथमिकता दी जा रही है। एक "ज़िम्मेदारी सूचकांक" का उपयोग सुरक्षा बनाम गति को दिए गए महत्व को मापने के लिए किया जा रहा है, जिससे पता चलता है कि पूंजी निवेश बढ़ने के साथ सुरक्षा कम हो रही है। भारत AI शिखर सम्मेलन इस प्रवृत्ति का उदाहरण है, जहाँ चर्चाएँ दार्शनिक चिंताओं से हटकर उद्योगपतियों की लॉजिस्टिक मांगों पर केंद्रित हो रही हैं। OpenAI के सैम ऑल्टमैन के बयानों से एक ऐसा दृष्टिकोण झलकता है जहाँ AI विकास को मानव विकास से ऊपर रखा जाता है, जो बुद्धिमत्ता के कमोडिटीकरण को दर्शाता है। ध्यान बुनियादी ढांचे और स्केलिंग की ओर स्थानांतरित हो रहा है, जिससे मानव-केंद्रित प्रणालियों की सुरक्षा की जिम्मेदारी कम हो सकती है।

यह प्रवृत्ति भारत के लिए महत्वपूर्ण है क्योंकि यह AI नवाचार को नैतिक विचारों और सामाजिक कल्याण के साथ संतुलित करने का प्रयास करता है। यह UPSC परीक्षाओं के लिए प्रासंगिक है, विशेष रूप से विज्ञान और प्रौद्योगिकी अनुभाग (GS पेपर III) और प्रौद्योगिकी और नैतिकता पर निबंधों में।

मुख्य तथ्य

1.

हेग में 2023 में हुए Responsible AI in Military (REAIM) शिखर सम्मेलन में AI के सैन्य उपयोग और एक ज़िम्मेदार ढांचे की ज़रूरत पर ध्यान केंद्रित किया गया।

2.

भारत में AI Impact Summit दार्शनिक चिंताओं से औद्योगिक घरानों की लॉजिस्टिकल मांगों की ओर बदलाव को दर्शाता है।

3.

AI में प्रासंगिकता के लिए प्राथमिक आवश्यकता ब्रेनपावर से कंप्यूटिंग पावर में बदल गई है।

4.

सैम ऑल्टमैन ने डेटा सेंटर्स की ऊर्जा खपत की तुलना एक इंसान को बीस साल तक ट्रेनिंग देने की लागत से की।

UPSC परीक्षा के दृष्टिकोण

1.

GS Paper III (Science & Technology): AI governance, ethical considerations, impact on society

2.

GS Paper IV (Ethics): Ethical frameworks for AI, accountability, transparency

3.

Essay: The role of AI in shaping the future of humanity

आसान भाषा में समझें

AI डेवलपमेंट तेज़ी से बढ़ रहा है, लेकिन सुरक्षा और नैतिकता पर ध्यान कम होता दिख रहा है। यह बिना अच्छे ब्रेक वाली तेज़ कार बनाने जैसा है। जल्दी मुनाफ़ा कमाने की होड़ में सही या ग़लत की चिंता दब सकती है।

भारत पर असर

भारत में, इसका मतलब है कि AI का इस्तेमाल नौकरियों को ऑटोमेट करने के लिए किया जा सकता है, बिना कर्मचारियों पर पड़ने वाले असर पर विचार किए। एक किसान को AI-चालित मशीनरी से बदला जा सकता है, या एक दुकानदार के कारोबार को AI-पावर्ड ऑनलाइन प्लेटफ़ॉर्म से कम किया जा सकता है।

उदाहरण

इसे एक ऐसी कंपनी की तरह सोचें जो मुनाफ़ा बढ़ाने के लिए सुरक्षा में कटौती करती है। वे सस्ती सामग्री का इस्तेमाल कर सकते हैं या निरीक्षण छोड़ सकते हैं, जिससे उनके कर्मचारियों और ग्राहकों को ख़तरा हो सकता है।

यह हर किसी को प्रभावित करता है क्योंकि अनियंत्रित AI डेवलपमेंट से नौकरी छूट सकती है, एल्गोरिदम पक्षपातपूर्ण हो सकते हैं और महत्वपूर्ण निर्णयों पर मानव नियंत्रण खो सकता है।

AI की प्रगति मानव कल्याण की कीमत पर नहीं होनी चाहिए।

The article discusses the shift in global AI governance, noting a decline in emphasis on safety and ethics in favor of speed and scale. The author introduces a "Responsibility Index" to measure the weight given to safety versus speed, arguing that safety is declining as capital investment rises. The India AI summit exemplifies this trend, with discussions moving from philosophical concerns to logistical demands of industrialists.

The commoditization of intelligence, exemplified by statements from OpenAI's Sam Altman, suggests a worldview where AI development is prioritized over human development. The focus is shifting towards infrastructure and scaling, potentially eroding the responsibility to protect human-centric systems.

विशेषज्ञ विश्लेषण

The current shift in AI governance highlights a critical tension between innovation and responsibility. To fully understand this, several key concepts need to be examined.

The first is the idea of a Responsibility Index. This is a metric, as mentioned in the original summary, designed to measure the relative weight given to safety and ethical considerations versus the speed and scale of AI development. The index is intended to highlight the trend where, as capital investment in AI increases, the emphasis on responsible development decreases. This concept is crucial because it provides a framework for quantifying and tracking the ethical dimensions of AI development, rather than relying solely on qualitative assessments.

Another important concept is the commoditization of intelligence. This refers to the treatment of AI as a readily available and easily scalable resource, much like electricity or data storage. OpenAI's Sam Altman's statements, as noted in the summary, exemplify this view, suggesting a prioritization of AI development over human development. The commoditization of intelligence raises concerns about the potential devaluation of human skills and the widening of social inequalities if AI benefits are not distributed equitably.

Finally, the discussion around the India AI summit highlights the practical implications of these trends. The shift from philosophical concerns to logistical demands reflects a broader move towards deploying AI solutions at scale, often driven by industrial interests. This transition underscores the need for robust regulatory frameworks and ethical guidelines to ensure that AI development aligns with societal values and promotes inclusive growth. A UPSC aspirant must specifically know about these concepts for prelims/mains, particularly in the context of Science & Technology (GS Paper III) and Ethics (GS Paper IV). Understanding the ethical dimensions of AI, the challenges of regulating emerging technologies, and the potential societal impacts are crucial for answering analytical questions on these topics.

दृश्य सामग्री

Key Trends in AI Governance

Highlights the shift from safety and ethics to speed and scale in AI development, as reflected in the Responsibility Index.

जिम्मेदारी सूचकांक प्रवृत्ति
Declining

पूंजी निवेश बढ़ने के साथ एआई विकास में सुरक्षा और नैतिकता पर घटते जोर को दर्शाता है।

और जानकारी

पृष्ठभूमि

AI के उदय ने इसके संचालन पर वैश्विक चर्चाओं को प्रेरित किया है, जो नैतिक विचारों के साथ नवाचार को संतुलित करने पर केंद्रित है। शुरुआती AI संचालन ढांचों ने संभावित जोखिमों को कम करने के लिए सुरक्षा, पारदर्शिता और जवाबदेही पर जोर दिया। हालाँकि, जैसे-जैसे AI तकनीक आगे बढ़ी है और महत्वपूर्ण निवेश आकर्षित किया है, ध्यान तेजी से तैनाती और स्केलिंग की ओर स्थानांतरित हो गया है, जिससे इन शुरुआती नैतिक चिंताओं पर छाया पड़ सकती है। यह बदलाव AI शिखर सम्मेलनों और नीतिगत चर्चाओं की बदलती प्राथमिकताओं में परिलक्षित होता है। शुरू में, इन मंचों ने समाज पर AI के प्रभाव और मानव-केंद्रित डिजाइन की आवश्यकता के बारे में दार्शनिक बहसों पर ध्यान केंद्रित किया। हाल ही में, उद्योग की मांगों और आर्थिक प्रतिस्पर्धा की खोज से प्रेरित होकर, ध्यान बड़े पैमाने पर AI को तैनात करने की लॉजिस्टिक और बुनियादी ढाँचे की चुनौतियों का समाधान करने की ओर चला गया है। नैतिक AI की अवधारणा इस चर्चा के लिए केंद्रीय है। इसमें निष्पक्षता, जवाबदेही, पारदर्शिता और मानवाधिकारों के सम्मान जैसे सिद्धांत शामिल हैं। चुनौती इन सिद्धांतों को ठोस दिशानिर्देशों और विनियमों में अनुवाद करने में निहित है जो AI विकास और तैनाती को प्रभावी ढंग से नियंत्रित कर सकते हैं।

नवीनतम घटनाक्रम

हाल के वर्षों में, AI के संभावित पूर्वाग्रहों और भेदभावपूर्ण परिणामों की बढ़ती जांच हुई है। शोध ने इस बात पर प्रकाश डाला है कि कैसे AI सिस्टम मौजूदा सामाजिक असमानताओं को कायम रख सकते हैं और बढ़ा सकते हैं, जिससे निष्पक्षता और न्याय के बारे में चिंताएं बढ़ रही हैं। इससे AI विकास में अधिक पारदर्शिता और जवाबदेही के साथ-साथ मजबूत परीक्षण और सत्यापन प्रक्रियाओं के कार्यान्वयन के लिए आह्वान किया गया है। दुनिया भर की सरकारें और नियामक निकाय प्रभावी AI संचालन ढांचे बनाने की चुनौती से जूझ रहे हैं। कुछ देशों ने जोखिम-आधारित दृष्टिकोण अपनाया है, जो उच्च जोखिम वाले AI अनुप्रयोगों को विनियमित करने पर ध्यान केंद्रित कर रहे हैं जो व्यक्तियों या समाज के लिए महत्वपूर्ण खतरे पैदा करते हैं। अन्य AI विकास और तैनाती का मार्गदर्शन करने के लिए व्यापक नैतिक दिशानिर्देशों और सिद्धांतों की खोज कर रहे हैं। आगे देखते हुए, ध्यान AI संचालन के लिए अंतर्राष्ट्रीय मानकों और मानदंडों को विकसित करने की ओर स्थानांतरित होने की संभावना है। इसमें यह सुनिश्चित करने के लिए सरकारों, उद्योग और नागरिक समाज के बीच सहयोग शामिल होगा कि AI को एक जिम्मेदार और नैतिक तरीके से विकसित और उपयोग किया जाए। G20 और संयुक्त राष्ट्र इन चर्चाओं के लिए प्रमुख मंच हैं।

अक्सर पूछे जाने वाले सवाल

1. AI को लेकर जो नियम-कायदे बन रहे हैं, उनमें सुरक्षा और नैतिकता की बात पहले होती थी, लेकिन अब ज़्यादा ध्यान तेज़ी और विस्तार पर दिया जा रहा है. ऐसा क्यों हो रहा है?

ऐसा इसलिए हो रहा है क्योंकि AI में बहुत पैसा लगाया जा रहा है और कंपनियों में होड़ लगी है कि कौन कितनी जल्दी AI तकनीक को इस्तेमाल करता है. अब ध्यान इस बात पर है कि AI के लिए ज़रूरी ढांचा कैसे बनाया जाए और इसे कैसे बढ़ाया जाए. इस वजह से इंसानों के लिए AI कितना सुरक्षित है, इस पर कम ध्यान दिया जा रहा है. भारत में हुए AI सम्मेलन में भी यही देखने को मिला, जहाँ दार्शनिक बातों के बजाय उद्योगपतियों की ज़रूरतों पर ज़्यादा बात हुई.

2. AI को सुरक्षित बनाने के बजाय, उसे तेज़ी से बढ़ाने की जो होड़ दुनिया में चल रही है, उसका भारत की AI रणनीति पर क्या असर पड़ेगा?

भारत को AI के क्षेत्र में आगे बढ़ने की अपनी इच्छा और AI को ज़िम्मेदारी से बनाने के बीच संतुलन बनाना होगा. दुनिया में जो होड़ चल रही है, उससे भारत पर भी दबाव आ सकता है कि वह सुरक्षा और निष्पक्षता को ताक पर रखकर तेज़ी से AI को बढ़ाए. इसलिए, भारत को अपने नियम-कायदे बनाने होंगे जो उसकी संस्कृति और ज़रूरतों को ध्यान में रखें.

3. 'रिस्पॉन्सिबिलिटी इंडेक्स' क्या है, और UPSC इस पर कैसा सवाल पूछ सकती है?

'रिस्पॉन्सिबिलिटी इंडेक्स' यह देखता है कि AI को लेकर जो नियम बन रहे हैं, उनमें सुरक्षा को कितनी अहमियत दी जा रही है और तेज़ी को कितनी. UPSC इस पर सवाल पूछ सकती है कि तेज़ी को ज़्यादा अहमियत देने से क्या गलत हो सकता है, या फिर एक ऐसा इंडेक्स बनाना कितना मुश्किल है जिसे सब लोग मानें. उदाहरण के लिए, सवाल यह हो सकता है: 'AI को लेकर जो नियम बन रहे हैं, उनमें 'रिस्पॉन्सिबिलिटी इंडेक्स' बनाने और इस्तेमाल करने में क्या-क्या नैतिक दिक्कतें आ सकती हैं, इस पर विस्तार से चर्चा करें.'

4. 2023 में हेग में हुए 'रिस्पॉन्सिबल AI इन मिलिट्री (REAIM)' सम्मेलन का क्या महत्व है?

REAIM सम्मेलन में AI के सैन्य इस्तेमाल और उसके लिए ज़रूरी नियमों पर बात हुई. इससे पता चलता है कि युद्ध में AI के इस्तेमाल और उसके गलत इस्तेमाल को लेकर चिंता बढ़ रही है. UPSC सैन्य क्षेत्र में AI को नियंत्रित करने की चुनौतियों के बारे में पूछ सकती है.

5. सैम ऑल्टमैन के बयानों से पता चलता है कि बुद्धिमत्ता को एक वस्तु की तरह देखा जा रहा है. इससे इंसानों के विकास को क्या खतरा है?

अगर AI के विकास को इंसानों के विकास से ज़्यादा अहमियत दी जाएगी, तो इंसानी कौशल और क्षमता की कीमत कम हो सकती है. अगर दिमाग की शक्ति से ज़्यादा कंप्यूटर की शक्ति पर ध्यान दिया जाएगा, तो ऐसा सिस्टम बन सकता है जहाँ इंसानों की क्षमता को AI की क्षमता से कम आंका जाए. इससे असमानताएँ बढ़ सकती हैं और इंसानों के विकास और आगे बढ़ने के मौके कम हो सकते हैं.

6. अगर एथिकल AI (नैतिक AI) पर ध्यान देने के बजाय, AI को तेज़ी से बढ़ाने पर ध्यान दिया जाए, तो इसके क्या बुरे नतीजे हो सकते हैं?

एथिकल बातों पर ध्यान दिए बिना AI को तेज़ी से बढ़ाने से कई बुरे नतीजे हो सकते हैं: * भेदभाव: AI सिस्टम पहले से मौजूद सामाजिक असमानताओं को और बढ़ा सकते हैं. * पारदर्शिता की कमी: पारदर्शिता पर कम ध्यान देने से AI सिस्टम में गलतियाँ या भेदभाव ढूंढना और उन्हें ठीक करना मुश्किल हो सकता है. * ज़िम्मेदारी की कमी: जवाबदेही पर कम ध्यान देने से AI के गलत इस्तेमाल के लिए डेवलपर्स और इस्तेमाल करने वालों को ज़िम्मेदार ठहराना मुश्किल हो सकता है. * सुरक्षा खतरे: सुरक्षा से ज़्यादा तेज़ी को अहमियत देने से AI सिस्टम साइबर हमलों और छेड़छाड़ के लिए ज़्यादा संवेदनशील हो सकते हैं.

  • भेदभाव: AI सिस्टम पहले से मौजूद सामाजिक असमानताओं को और बढ़ा सकते हैं.
  • पारदर्शिता की कमी: पारदर्शिता पर कम ध्यान देने से AI सिस्टम में गलतियाँ या भेदभाव ढूंढना और उन्हें ठीक करना मुश्किल हो सकता है.
  • ज़िम्मेदारी की कमी: जवाबदेही पर कम ध्यान देने से AI के गलत इस्तेमाल के लिए डेवलपर्स और इस्तेमाल करने वालों को ज़िम्मेदार ठहराना मुश्किल हो सकता है.
  • सुरक्षा खतरे: सुरक्षा से ज़्यादा तेज़ी को अहमियत देने से AI सिस्टम साइबर हमलों और छेड़छाड़ के लिए ज़्यादा संवेदनशील हो सकते हैं.
7. AI गवर्नेंस और सम्मेलनों से जुड़े किन खास तथ्यों को मुझे प्रीलिम्स के लिए याद रखना चाहिए?

प्रीलिम्स के लिए, निम्नलिखित बातें याद रखें: * 2023 में हेग में हुए 'रिस्पॉन्सिबल AI इन मिलिट्री (REAIM)' सम्मेलन में AI के सैन्य इस्तेमाल पर ध्यान दिया गया। * भारत में हुए AI इम्पैक्ट समिट में दार्शनिक बातों के बजाय उद्योगपतियों की ज़रूरतों पर ज़्यादा ध्यान दिया गया। * 'रिस्पॉन्सिबिलिटी इंडेक्स' का इस्तेमाल AI गवर्नेंस में सुरक्षा और तेज़ी को दी जाने वाली अहमियत को मापने के लिए किया जाता है। एग्जामिनर इस इंडेक्स को किसी और क्षेत्र से जोड़कर आपको भ्रमित कर सकते हैं।

  • 2023 में हेग में हुए 'रिस्पॉन्सिबल AI इन मिलिट्री (REAIM)' सम्मेलन में AI के सैन्य इस्तेमाल पर ध्यान दिया गया।
  • भारत में हुए AI इम्पैक्ट समिट में दार्शनिक बातों के बजाय उद्योगपतियों की ज़रूरतों पर ज़्यादा ध्यान दिया गया।
  • 'रिस्पॉन्सिबिलिटी इंडेक्स' का इस्तेमाल AI गवर्नेंस में सुरक्षा और तेज़ी को दी जाने वाली अहमियत को मापने के लिए किया जाता है।

परीक्षा युक्ति

याद रखें कि REAIM का संबंध AI के सैन्य इस्तेमाल से है। एग्जामिनर आपको भ्रमित करने के लिए इसे स्वास्थ्य सेवा या शिक्षा से जोड़कर सवाल पूछ सकते हैं।

8. दुनिया में AI को तेज़ी से बढ़ाने का दबाव है. ऐसे में भारत यह कैसे सुनिश्चित कर सकता है कि AI का विकास उसकी संस्कृति और ज़रूरतों के हिसाब से हो?

भारत कई कदम उठा सकता है: * राष्ट्रीय AI रणनीति बनाएं: इस रणनीति में AI विकास के लिए भारत का नज़रिया बताया जाना चाहिए, जिसमें इनोवेशन और नैतिक बातों पर ज़ोर दिया जाए। * AI नैतिकता अनुसंधान में निवेश करें: AI नैतिकता पर शोध के लिए धन देने से ज़िम्मेदारी से AI विकसित करने के लिए नियम और दिशानिर्देश बनाने में मदद मिल सकती है। * जागरूकता बढ़ाएं: AI के संभावित लाभों और जोखिमों के बारे में लोगों को शिक्षित करने से सही जानकारी वाली चर्चाओं को बढ़ावा मिल सकता है और लोगों की राय बन सकती है। * अंतर्राष्ट्रीय सहयोग को बढ़ावा दें: AI गवर्नेंस के लिए सामान्य मानक और सिद्धांत विकसित करने के लिए दूसरे देशों के साथ मिलकर काम करने से यह सुनिश्चित करने में मदद मिल सकती है कि AI को ज़िम्मेदारी से विकसित और इस्तेमाल किया जाए।

  • राष्ट्रीय AI रणनीति बनाएं: इस रणनीति में AI विकास के लिए भारत का नज़रिया बताया जाना चाहिए, जिसमें इनोवेशन और नैतिक बातों पर ज़ोर दिया जाए।
  • AI नैतिकता अनुसंधान में निवेश करें: AI नैतिकता पर शोध के लिए धन देने से ज़िम्मेदारी से AI विकसित करने के लिए नियम और दिशानिर्देश बनाने में मदद मिल सकती है।
  • जागरूकता बढ़ाएं: AI के संभावित लाभों और जोखिमों के बारे में लोगों को शिक्षित करने से सही जानकारी वाली चर्चाओं को बढ़ावा मिल सकता है और लोगों की राय बन सकती है।
  • अंतर्राष्ट्रीय सहयोग को बढ़ावा दें: AI गवर्नेंस के लिए सामान्य मानक और सिद्धांत विकसित करने के लिए दूसरे देशों के साथ मिलकर काम करने से यह सुनिश्चित करने में मदद मिल सकती है कि AI को ज़िम्मेदारी से विकसित और इस्तेमाल किया जाए।
9. AI विकास के नैतिक प्रभावों के बारे में एक प्रश्न किस GS पेपर में आ सकता है, और मुझे किन खास पहलुओं के लिए तैयारी करनी चाहिए?

AI विकास के नैतिक प्रभावों के बारे में एक प्रश्न GS पेपर IV (नैतिकता, सत्यनिष्ठा और योग्यता) या GS पेपर III (विज्ञान और प्रौद्योगिकी) में आ सकता है। निम्नलिखित पहलुओं के लिए तैयारी करें: * AI भेदभाव और जवाबदेही से जुड़ी नैतिक दुविधाएँ। * ज़िम्मेदारी से AI विकास सुनिश्चित करने में सरकार और नियामक निकायों की भूमिका। * मानवीय मूल्यों और सामाजिक न्याय पर AI का संभावित प्रभाव।

  • AI भेदभाव और जवाबदेही से जुड़ी नैतिक दुविधाएँ।
  • ज़िम्मेदारी से AI विकास सुनिश्चित करने में सरकार और नियामक निकायों की भूमिका।
  • मानवीय मूल्यों और सामाजिक न्याय पर AI का संभावित प्रभाव।

परीक्षा युक्ति

AI से जुड़ी नैतिक चुनौतियों को समझाने के लिए केस स्टडी और उदाहरणों पर ध्यान दें।

10. AI गवर्नेंस में मौजूदा रुझान, प्रौद्योगिकी विनियमन और डेटा गोपनीयता के बारे में व्यापक चर्चा से कैसे संबंधित है?

AI गवर्नेंस में बदलाव प्रौद्योगिकी क्षेत्र में इनोवेशन और विनियमन के बीच एक व्यापक तनाव को दर्शाता है। डेटा गोपनीयता की तरह, AI के संभावित लाभों को व्यक्तियों और समाज को नुकसान से बचाने की आवश्यकता के साथ संतुलित करने की आवश्यकता है। वर्तमान रुझान तेजी से विकसित हो रही प्रौद्योगिकियों को विनियमित करने की चुनौतियों और सक्रिय और अनुकूलनशील शासन ढांचे की आवश्यकता को उजागर करता है।

11. वैश्विक स्तर पर और भारत में, AI गवर्नेंस और विनियमन के संबंध में आने वाले महीनों में उम्मीदवारों को क्या देखना चाहिए?

उम्मीदवारों को निम्नलिखित पर नज़र रखनी चाहिए: * AI से संबंधित नई नीति घोषणाएँ और नियामक पहल। * AI गवर्नेंस पर अंतर्राष्ट्रीय सहयोग में विकास, जैसे कि G20 के भीतर चर्चाएँ। * AI के नैतिक और सामाजिक प्रभावों पर रिपोर्ट और अध्ययन।

  • AI से संबंधित नई नीति घोषणाएँ और नियामक पहल।
  • AI गवर्नेंस पर अंतर्राष्ट्रीय सहयोग में विकास, जैसे कि G20 के भीतर चर्चाएँ।
  • AI के नैतिक और सामाजिक प्रभावों पर रिपोर्ट और अध्ययन।

बहुविकल्पीय प्रश्न (MCQ)

1. AI संचालन के संदर्भ में, निम्नलिखित में से कौन सा 'ज़िम्मेदारी सूचकांक' का सबसे अच्छा वर्णन करता है?

  • A.AI विकास की गति का एक माप।
  • B.AI विकास की गति और पैमाने के मुकाबले नैतिक विचारों का मूल्यांकन करने के लिए एक मीट्रिक।
  • C.AI में निवेश की गई पूंजी की मात्रा को ट्रैक करने वाला एक सूचकांक।
  • D.AI कंपनियों के लिए एक नियामक ढांचा।
उत्तर देखें

सही उत्तर: B

'ज़िम्मेदारी सूचकांक' को AI विकास की गति और पैमाने के मुकाबले सुरक्षा और नैतिक विचारों को दिए गए महत्व को मापने के लिए डिज़ाइन किया गया है। इसका उद्देश्य उस प्रवृत्ति को उजागर करना है जहाँ AI में पूंजी निवेश बढ़ने के साथ, जिम्मेदार विकास पर जोर कम हो जाता है। विकल्प A, C और D गलत हैं क्योंकि वे ज़िम्मेदारी सूचकांक के उद्देश्य को सटीक रूप से नहीं दर्शाते हैं।

2. बुद्धिमत्ता के कमोडिटीकरण के संबंध में निम्नलिखित कथनों पर विचार करें: I. यह AI को आसानी से उपलब्ध और आसानी से स्केलेबल संसाधन के रूप में मानने को संदर्भित करता है। II. यह AI विकास पर मानव विकास को प्राथमिकता देता है। III. यह मानव कौशल के संभावित अवमूल्यन के बारे में चिंताएं बढ़ाता है। उपरोक्त कथनों में से कौन सा/से सही है/हैं?

  • A.केवल I और II
  • B.केवल I और III
  • C.केवल II और III
  • D.I, II और III
उत्तर देखें

सही उत्तर: B

कथन I सही है: बुद्धिमत्ता का कमोडिटीकरण AI को आसानी से उपलब्ध और आसानी से स्केलेबल संसाधन के रूप में मानने को संदर्भित करता है। कथन II गलत है: यह मानव विकास पर AI विकास को प्राथमिकता देता है, जैसा कि OpenAI के सैम ऑल्टमैन जैसे आंकड़ों के बयानों से उदाहरण मिलता है। कथन III सही है: बुद्धिमत्ता का कमोडिटीकरण मानव कौशल के संभावित अवमूल्यन और सामाजिक असमानताओं के बढ़ने के बारे में चिंताएं बढ़ाता है।

3. AI संचालन में गति और पैमाने की ओर बदलाव से जुड़ा निम्नलिखित में से कौन सा एक प्रमुख चिंता का विषय नहीं है?

  • A.मानव-केंद्रित प्रणालियों की सुरक्षा की जिम्मेदारी का क्षरण।
  • B.सुरक्षा और नैतिकता पर कम जोर।
  • C.दार्शनिक चिंताओं पर बढ़ा हुआ ध्यान।
  • D.सामाजिक असमानताओं को चौड़ा करने की क्षमता।
उत्तर देखें

सही उत्तर: C

AI संचालन में गति और पैमाने की ओर बदलाव मानव-केंद्रित प्रणालियों की सुरक्षा की जिम्मेदारी का क्षरण, सुरक्षा और नैतिकता पर कम जोर और सामाजिक असमानताओं को चौड़ा करने की क्षमता जैसी चिंताओं से जुड़ा है। हालाँकि, यह दार्शनिक चिंताओं पर बढ़े हुए ध्यान से जुड़ा नहीं है; बल्कि, ध्यान इन चिंताओं से हटकर लॉजिस्टिक मांगों की ओर जा रहा है।

Source Articles

RS

लेखक के बारे में

Ritu Singh

Tech & Innovation Current Affairs Researcher

Ritu Singh GKSolver पर Science & Technology विषयों पर लिखते हैं।

सभी लेख पढ़ें →

GKSolverआज की खबरें