For this article:

19 Feb 2026·Source: The Hindu
4 min
Polity & GovernanceInternational RelationsScience & TechnologyEDITORIAL

सैन्य एआई शासन: भारत की रणनीतिक अनिच्छा और सुरक्षा उपायों की आवश्यकता

सैन्य एआई शासन के प्रति भारत का सतर्क दृष्टिकोण सुरक्षा को विकास के साथ संतुलित करता है।

सैन्य एआई शासन: भारत की रणनीतिक अनिच्छा और सुरक्षा उपायों की आवश्यकता

Photo by Skytech Aviation

संपादकीय विश्लेषण

सैन्य AI गवर्नेंस पर भारत का रुख AI आर&डी और सुरक्षा मजबूरियों पर अपने आर्थिक ध्यान को दर्शाता है. भारत के लिए ये ज़रूरी है कि वो जवाबदेही के अपने सिद्धांतों पर आधारित और अपने हितों के अनुरूप एक गैर-बाध्यकारी ढांचे के लिए ज़ोर डाले, जो बाद में कानूनी रूप से बाध्यकारी ढांचे की ओर ले जा सके.

मुख्य तर्क:

  1. सैन्य AI का गवर्नेंस चुनौतीपूर्ण है क्योंकि ये दोहरे उपयोग वाला है, जिससे बाधाओं के अनुपालन को सत्यापित करना मुश्किल हो जाता है.
  2. AI जैसी 'गेम-चेंजिंग' और व्यापक लाभ देने वाली तकनीकों को प्रतिबंधित करना कठिन है, खासकर लॉजिस्टिक्स से लेकर सीधे युद्ध कार्यों तक इसके बढ़ते उपयोग के साथ.
  3. जिन राज्यों ने AI में भारी निवेश किया है, वे सैन्य उद्देश्यों के लिए नागरिक-क्षेत्र के आर&डी का उपयोग कर सकते हैं, जिससे वे ऐसे उपायों के लिए प्रतिबद्ध होने से हिचकिचाते हैं जो उनके विकास को रोक सकते हैं.
  4. घातक स्वायत्त हथियार प्रणालियों (LAWS) की परिभाषा पर कोई अंतर्राष्ट्रीय सहमति नहीं है, जो बाध्यकारी शर्तों की स्थापना में बाधा डालती है.
  5. सैन्य AI पर भारत की स्थिति AI आर&डी और सुरक्षा मजबूरियों पर अपने आर्थिक ध्यान को दर्शाती है, जिससे वो अस्पष्ट रुख बनाए रखता है या बाध्यकारी ढांचों का विरोध करता है.
  6. LAWS पर कानूनी रूप से बाध्यकारी साधन समय से पहले होगा क्योंकि सैन्य AI के सीमित सार्वजनिक रूप से ज्ञात उपयोग और इसके खिलाफ मजबूत मानदंडों की कमी है.

प्रतितर्क:

  1. सैन्य AI पर प्रतिबंध लगाने वाले नैतिक तर्कों के सफल होने की संभावना नहीं है क्योंकि इसके खिलाफ मजबूत मानदंडों की कमी है.

निष्कर्ष

भारत को जवाबदेही के अपने सिद्धांतों पर आधारित और अपने हितों के अनुरूप एक गैर-बाध्यकारी ढांचे के लिए ज़ोर डालने के अवसर का उपयोग करना चाहिए. एक बार जब मानदंड स्थापित हो जाते हैं और युद्ध में सैन्य AI की तैनाती के अधिक मामले सामने आते हैं, तो कानूनी रूप से बाध्यकारी ढांचा बन सकता है. सेना में AI का उपयोग अपरिहार्य है; ध्यान ये सुनिश्चित करने पर होना चाहिए कि सही सुरक्षा उपाय किए जाएं.

नीतिगत निहितार्थ

AI-संवर्धित स्वायत्त निर्णय लेने का उपयोग किसी भी देश की परमाणु ताकतों के साथ नहीं किया जाना चाहिए. राज्यों को सैन्य AI के विकास पर डेटा साझा करने की अनुमति देने के लिए स्वैच्छिक विश्वास-निर्माण तंत्र मौजूद होने चाहिए. सैन्य AI उपयोग मामलों के स्वीकृत जोखिम पदानुक्रम को राज्यों के लिए अपनी सैन्य AI रूपरेखा विकसित करने के लिए शुरुआती बिंदु के रूप में बनाया जाना चाहिए.
भारत ने आरईएआईएम शिखर सम्मेलन में युद्ध में एआई को नियंत्रित करने के लिए एक प्रतिज्ञा पर हस्ताक्षर करने से परहेज किया। जबकि कई देशों ने 'पाथवेज़ टू एक्शन' घोषणा पर हस्ताक्षर किए, संयुक्त राज्य अमेरिका, भारत और चीन ने ऐसा नहीं किया। सैन्य एआई का शासन इसकी दोहरी उपयोग प्रकृति और अनुपालन को सत्यापित करने में कठिनाई के कारण एक चुनौती है। घातक स्वायत्त हथियार प्रणालियों (एलएडब्ल्यूएस) की परिभाषा पर कोई अंतर्राष्ट्रीय सहमति नहीं है। भारत की स्थिति एआई अनुसंधान एवं विकास और सुरक्षा बाध्यताओं पर इसके आर्थिक ध्यान को दर्शाती है। भारत का मानना है कि एलएडब्ल्यूएस पर कानूनी रूप से बाध्यकारी साधन "समय से पहले" होगा। लेखक का सुझाव है कि एआई-संवर्धित स्वायत्त निर्णय लेने का उपयोग किसी भी देश के परमाणु बलों के साथ नहीं किया जाना चाहिए। सैन्य एआई विकास पर डेटा साझा करने के लिए स्वैच्छिक विश्वास-निर्माण तंत्र मौजूद होना चाहिए। सैन्य एआई उपयोग मामलों के जोखिम पदानुक्रम को स्वीकार किया जाना चाहिए।

मुख्य तथ्य

1.

भारत ने REAIM शिखर सम्मेलन में युद्ध में AI को नियंत्रित करने के लिए एक प्रतिज्ञा पर हस्ताक्षर करने से परहेज किया.

2.

संयुक्त राज्य अमेरिका, भारत और चीन ने 'पाथवेज़ टू एक्शन' घोषणा पर हस्ताक्षर नहीं किए.

3.

घातक स्वायत्त हथियार प्रणालियों (LAWS) की परिभाषा पर कोई अंतर्राष्ट्रीय सहमति नहीं है.

4.

भारत ने कहा है कि LAWS पर कानूनी रूप से बाध्यकारी साधन “समय से पहले” होगा.

UPSC परीक्षा के दृष्टिकोण

1.

GS Paper II: International Relations - Impact of technology on international security

2.

GS Paper III: Science and Technology - Developments and applications of AI

3.

Ethical considerations in the use of AI in warfare

आसान भाषा में समझें

देश ये पता लगाने की कोशिश कर रहे हैं कि सेना में AI को कैसे कंट्रोल किया जाए. ये मुश्किल है क्योंकि AI का इस्तेमाल अच्छी और बुरी दोनों चीजों के लिए किया जा सकता है. कुछ देश सख्त नियम नहीं चाहते क्योंकि वे अपनी सुरक्षा के लिए AI विकसित करना चाहते हैं.

भारत पर असर

भारत अपनी AI तकनीक विकसित करने पर ध्यान दे रहा है, लेकिन उसे सुरक्षा की भी चिंता है. इस वजह से, भारत सैन्य AI पर सख्त अंतरराष्ट्रीय नियमों से सहमत होने में हिचकिचा रहा है.

उदाहरण

कल्पना कीजिए कि एक मोहल्ले की निगरानी करने वाला ग्रुप ये तय करने की कोशिश कर रहा है कि सिक्योरिटी कैमरे का इस्तेमाल कैसे किया जाए. कुछ लोग प्राइवेसी बचाने के लिए सख्त नियम चाहते हैं, जबकि कुछ लोग अपराधियों को पकड़ने के लिए ज़्यादा कैमरे चाहते हैं, भले ही इसका मतलब कम प्राइवेसी हो.

ये सबको प्रभावित करता है क्योंकि सेना में अनियंत्रित AI खतरनाक स्थितियों और जानमाल के नुकसान का कारण बन सकता है.

सेना में AI आ रहा है, इसलिए हमें ये सुनिश्चित करने की ज़रूरत है कि इसे सुरक्षित रखने के लिए नियम हों.

दृश्य सामग्री

Countries' Stance on AI in Warfare

Shows countries that signed the REAIM pledge (green) and those that abstained (red).

Loading interactive map...

📍United States📍China📍India📍Netherlands
और जानकारी

पृष्ठभूमि

सैन्य अनुप्रयोगों के कृत्रिम बुद्धिमत्ता (AI) के विकास से जटिल नैतिक और रणनीतिक प्रश्न उठते हैं। घातक स्वायत्त हथियार प्रणालियों (LAWS) का उपयोग विशेष रूप से विवादास्पद है। LAWS की कोई सार्वभौमिक रूप से सहमत परिभाषा नहीं है, जो उनके विकास और तैनाती को विनियमित करने के अंतर्राष्ट्रीय प्रयासों को जटिल बनाती है। AI प्रौद्योगिकी की दोहरी उपयोग प्रकृति, जिसका अर्थ है कि इसका उपयोग नागरिक और सैन्य दोनों उद्देश्यों के लिए किया जा सकता है, शासन के प्रयासों को और जटिल बनाता है। युद्ध में AI को नियंत्रित करने पर प्रतिज्ञाओं पर हस्ताक्षर करने के लिए भारत की अनिच्छा उसकी रणनीतिक गणनाओं और आर्थिक प्राथमिकताओं को दर्शाती है। भारत आर्थिक विकास और राष्ट्रीय सुरक्षा के लिए AI अनुसंधान और विकास को बढ़ावा देने पर केंद्रित है। LAWS पर कानूनी रूप से बाध्यकारी साधन को भारत द्वारा समय से पहले माना जाता है, जो संभावित रूप से इसकी तकनीकी उन्नति और रणनीतिक स्वायत्तता को बाधित कर सकता है। यह स्थिति संयुक्त राज्य अमेरिका और चीन जैसी अन्य प्रमुख शक्तियों के साथ संरेखित है, जिन्होंने REAIM शिखर सम्मेलन में 'एक्शन के रास्ते' घोषणा से भी परहेज किया। संयुक्त राष्ट्र सहित विभिन्न मंचों के भीतर सैन्य संदर्भ में AI शासन पर अंतर्राष्ट्रीय चर्चाएँ चल रही हैं। इन चर्चाओं का उद्देश्य जवाबदेही, मानव नियंत्रण और अनपेक्षित परिणामों की संभावना के बारे में चिंताओं को दूर करते हुए, युद्ध में AI के जिम्मेदार विकास और उपयोग को सुनिश्चित करने के लिए मानदंडों और दिशानिर्देशों की स्थापना करना है। चुनौती सैन्य प्रभावशीलता के लिए AI के संभावित लाभों को इसके दुरुपयोग को रोकने और नैतिक मानकों को बनाए रखने की आवश्यकता के साथ संतुलित करने में निहित है।

नवीनतम घटनाक्रम

हाल के वर्षों में, सैन्य अनुप्रयोगों में AI के नैतिक और सुरक्षा निहितार्थों पर बढ़ते ध्यान दिया गया है। कई देश रक्षा उद्देश्यों के लिए AI अनुसंधान और विकास में भारी निवेश कर रहे हैं, जिससे संभावित AI हथियारों की दौड़ के बारे में चिंताएं बढ़ रही हैं। अंतर्राष्ट्रीय संगठन और मंच युद्ध में AI के उपयोग को नियंत्रित करने के लिए वैश्विक मानदंडों और मानकों की आवश्यकता पर सक्रिय रूप से चर्चा कर रहे हैं।

संयुक्त राज्य अमेरिका के रक्षा विभाग ने अपने स्वयं के AI नैतिक सिद्धांतों को जारी किया है, जिसमें AI के जिम्मेदार और कानूनी उपयोग पर जोर दिया गया है। यूरोपीय संघ सैन्य अनुप्रयोगों सहित AI से जुड़े जोखिमों को दूर करने के लिए नियमों पर भी काम कर रहा है। ये प्रयास रक्षा क्षेत्र में AI को जिम्मेदारी और नैतिकता के साथ उपयोग करने को सुनिश्चित करने के लिए सक्रिय उपायों की आवश्यकता की बढ़ती मान्यता को दर्शाते हैं।

आगे देखते हुए, सैन्य क्षेत्र में AI शासन पर अंतर्राष्ट्रीय समझौतों और संधियों का विकास एक प्रमुख चुनौती बनी हुई है। LAWS की परिभाषा पर सहमति की कमी और अनुपालन को सत्यापित करने में कठिनाई महत्वपूर्ण बाधाएं हैं। हालाँकि, चल रही चर्चाओं और पहलों का उद्देश्य सैन्य उद्देश्यों के लिए AI के उपयोग में अधिक पारदर्शिता, जवाबदेही और जिम्मेदार नवाचार को बढ़ावा देना है।

अक्सर पूछे जाने वाले सवाल

1. घातक अपने आप चलने वाले हथियारों (LAWS) क्या हैं, और इनकी परिभाषा पर दुनिया भर में सहमति क्यों नहीं है?

घातक अपने आप चलने वाले हथियार (LAWS) ऐसे हथियार हैं जो बिना इंसान के दखल के खुद ही निशाना चुन सकते हैं और हमला कर सकते हैं। दुनिया भर में सहमति न होने का कारण ये है कि AI का इस्तेमाल दो तरह से हो सकता है, 'इंसानी दखल' को अलग-अलग तरह से समझा जाता है, और हर देश अपनी सुरक्षा को अलग तरह से देखता है।

2. भारत ने REAIM शिखर सम्मेलन में युद्ध में AI को नियंत्रित करने की प्रतिज्ञा पर हस्ताक्षर क्यों नहीं किए?

भारत के हस्ताक्षर न करने का कारण ये है कि भारत AI पर ध्यान दे रहा है ताकि अर्थव्यवस्था बढ़ सके और सुरक्षा बनी रहे। भारत को लगता है कि LAWS पर कानूनी रूप से बाध्यकारी समझौता करना अभी जल्दबाजी होगी, इसलिए भारत अपनी रणनीति में बदलाव करने के लिए तैयार रहना चाहता है।

3. मिलिट्री AI को बनाने और इस्तेमाल करने के क्या फायदे और नुकसान हैं?

फायदों में शामिल हैं: काम जल्दी होना, कम लोगों का मरना, और बेहतर रणनीति बनाना। नुकसान में शामिल हैं: नैतिकता का सवाल, लड़ाई बढ़ने का खतरा, और एल्गोरिदम में भेदभाव होने की संभावना।

4. 'Pathways to Action' घोषणा क्या है, और किन बड़े देशों ने इस पर हस्ताक्षर नहीं किए?

'Pathways to Action' घोषणा युद्ध में AI को नियंत्रित करने की प्रतिज्ञा है। संयुक्त राज्य अमेरिका, भारत और चीन ने इस पर हस्ताक्षर नहीं किए।

5. मिलिट्री AI को बनाने के लिए भरोसेमंद माहौल बनाने के लिए स्वैच्छिक उपाय कैसे मदद कर सकते हैं?

स्वैच्छिक भरोसेमंद उपाय, जैसे कि AI को बनाने में डेटा साझा करना और पारदर्शिता रखना, विश्वास बढ़ा सकते हैं और गलत अनुमान या लड़ाई बढ़ने के खतरे को कम कर सकते हैं। ये उपाय कानूनी रूप से बाध्यकारी समझौतों के बिना नियम और अच्छे तरीके स्थापित करने में मदद कर सकते हैं।

6. मिलिट्री शासन के संदर्भ में AI तकनीक की दोहरे उपयोग वाली प्रकृति का क्या महत्व है?

दोहरे उपयोग का मतलब है कि AI का इस्तेमाल नागरिक और मिलिट्री दोनों कामों के लिए किया जा सकता है। इससे सिर्फ मिलिट्री कामों के लिए इसके विकास और इस्तेमाल को रोकना मुश्किल हो जाता है, जिससे शासन के प्रयासों में दिक्कत आती है।

7. मिलिट्री AI के संदर्भ में, नीति निर्माताओं को किन संभावित नैतिक विचारों पर ध्यान देना चाहिए?

नैतिक विचारों में शामिल हैं: स्वायत्त कार्यों के लिए जवाबदेही, एल्गोरिदम में भेदभाव की संभावना, और युद्ध को अमानवीय बनाने का खतरा। नीति निर्माताओं को यह सुनिश्चित करना चाहिए कि इंसानों की निगरानी हो और अंतर्राष्ट्रीय मानवीय कानून का पालन किया जाए।

8. युद्ध में AI के इस्तेमाल को नियंत्रित करने पर अंतर्राष्ट्रीय चर्चाओं में हाल ही में क्या बदलाव हुए हैं?

हाल के बदलावों में शामिल हैं: वैश्विक नियमों और मानकों को स्थापित करने पर ज्यादा ध्यान देना, अंतर्राष्ट्रीय संगठनों के भीतर चर्चाएं, और शासन ढांचे की जरूरत पर मंच। कई देश रक्षा उद्देश्यों के लिए AI अनुसंधान और विकास में भारी निवेश कर रहे हैं, जिससे AI हथियारों की दौड़ की आशंका बढ़ रही है।

9. LAWS पर कानूनी रूप से बाध्यकारी समझौते पर भारत का क्या रुख है?

भारत का कहना है कि LAWS पर कानूनी रूप से बाध्यकारी समझौता करना अभी जल्दबाजी होगी।

10. मिलिट्री AI को नियंत्रित करने के अंतर्राष्ट्रीय प्रयासों से जुड़ी मुख्य तारीखें और संख्याएँ क्या हैं?

मुख्य तारीखों में 2024 शामिल है जब भारत ने कोरिया में एक्शन के लिए ब्लूप्रिंट पर हस्ताक्षर नहीं किए, और 2026 जब भारत ने REAIM शिखर सम्मेलन में एक प्रतिज्ञा पर हस्ताक्षर करने से परहेज किया। 85 में से 35 देशों ने 'Pathways to Action' घोषणा पर हस्ताक्षर किए। पिछले शिखर सम्मेलन में 60 देशों ने कार्रवाई के लिए एक ब्लूप्रिंट की रूपरेखा वाले एक दस्तावेज पर हस्ताक्षर किए।

बहुविकल्पीय प्रश्न (MCQ)

1. घातक स्वायत्त हथियार प्रणालियों (LAWS) पर भारत की स्थिति के बारे में निम्नलिखित कथनों पर विचार करें: 1. भारत ने REAIM शिखर सम्मेलन में युद्ध में AI को नियंत्रित करने के लिए एक प्रतिज्ञा पर हस्ताक्षर किए हैं। 2. भारत का मानना है कि LAWS पर कानूनी रूप से बाध्यकारी साधन समय से पहले होगा। 3. भारत की स्थिति पूरी तरह से स्वायत्त हथियारों के बारे में नैतिक चिंताओं पर आधारित है। उपरोक्त कथनों में से कौन सा/से सही है/हैं?

  • A.केवल 1
  • B.केवल 2
  • C.केवल 1 और 3
  • D.केवल 2 और 3
उत्तर देखें

सही उत्तर: B

कथन 1 गलत है: भारत ने REAIM शिखर सम्मेलन में युद्ध में AI को नियंत्रित करने के लिए एक प्रतिज्ञा पर हस्ताक्षर नहीं किए। कथन 2 सही है: भारत का मानना है कि LAWS पर कानूनी रूप से बाध्यकारी साधन समय से पहले होगा। कथन 3 गलत है: भारत की स्थिति AI अनुसंधान एवं विकास और सुरक्षा बाध्यताओं पर इसके आर्थिक ध्यान को दर्शाती है, न कि केवल नैतिक चिंताओं को। इसलिए, केवल कथन 2 सही है।

Source Articles

GKSolverआज की खबरें