4 minPolitical Concept
Political Concept

घातक स्वायत्त हथियार प्रणाली (Lethal Autonomous Weapons Systems)

घातक स्वायत्त हथियार प्रणाली (Lethal Autonomous Weapons Systems) क्या है?

घातक स्वायत्त हथियार प्रणाली (Lethal Autonomous Weapons Systems या LAWS), जिनको किलर रोबोट भी कहते हैं, ऐसे हथियार हैं जो बिना इंसान के दखल के अपने निशाने चुन सकते हैं और हमला कर सकते हैं। इसका मतलब है कि सिस्टम अपने प्रोग्रामिंग के आधार पर खुद ही तय कर सकता है कि किस पर हमला करना है। सबसे बड़ी चिंता यह है कि जीवन और मृत्यु के फैसलों पर इंसान का नियंत्रण नहीं रहता। LAWS की कोई सर्वमान्य परिभाषा नहीं है। बहस इस बात पर है कि किसी हथियार को स्वायत्त मानने के लिए उसमें इंसान की कितनी भागीदारी जरूरी है। कुछ लोगों का मानना है कि कोई भी सिस्टम जो बिना इंसान के इनपुट के निशाना चुन सकता है, वह LAWS है। वहीं, कुछ लोगों का मानना है कि पूरे मिशन में इंसान की निगरानी काफी है। LAWS के विकास और इस्तेमाल से गंभीर नैतिक, कानूनी और सुरक्षा संबंधी चिंताएं पैदा होती हैं। अनपेक्षित परिणामों की संभावना और गलतियों के लिए जिम्मेदारी तय करने में कठिनाई बड़ी समस्याएं हैं। अंतर्राष्ट्रीय स्तर पर यह तय करने के लिए बातचीत चल रही है कि LAWS को कैसे नियंत्रित या प्रतिबंधित किया जाए

ऐतिहासिक पृष्ठभूमि

स्वायत्त हथियारों पर चर्चा 2000 के दशक की शुरुआत में शुरू हुई, जो आर्टिफिशियल इंटेलिजेंस और रोबोटिक्स में प्रगति से प्रेरित थी। मशीनों द्वारा जीवन और मृत्यु के फैसले लेने की संभावना के बारे में चिंताओं ने अंतरराष्ट्रीय विनियमन की मांग को जन्म दिया। 2013 में, संयुक्त राष्ट्र कन्वेंशन ऑन सर्टेन कन्वेंशनल वेपन्स (CCW) ने LAWS पर औपचारिक चर्चा शुरू की। इन चर्चाओं में LAWS को परिभाषित करने, नैतिक और कानूनी चुनौतियों की पहचान करने और संभावित नियामक ढांचे की खोज पर ध्यान केंद्रित किया गया है। हालांकि, इस बारे में कोई अंतरराष्ट्रीय सहमति नहीं है कि कैसे आगे बढ़ना है। कुछ देश LAWS पर पूरी तरह से प्रतिबंध लगाने की वकालत करते हैं, जबकि अन्य कुछ शर्तों के तहत उनके उपयोग की अनुमति देने वाले नियमों के विकास का समर्थन करते हैं। AI तकनीक की दोहरी प्रकृति के कारण बहस जटिल है। वही AI एल्गोरिदम जिनका उपयोग LAWS में किया जा सकता है, उनका उपयोग नागरिक अनुप्रयोगों, जैसे चिकित्सा निदान और स्वायत्त वाहनों के लिए भी किया जा सकता है। एक स्पष्ट परिभाषा की कमी और देशों के बीच अलग-अलग विचारों के कारण एक बाध्यकारी अंतरराष्ट्रीय समझौते पर पहुंचना मुश्किल हो गया है।

मुख्य प्रावधान

10 points
  • 1.

    प्वाइंट 1: LAWS को उनकी स्वतंत्र रूप से लक्ष्य चुनने और हमला करने की क्षमता से परिभाषित किया जाता है। इसका मतलब है कि वे बिना सीधे मानवीय नियंत्रण के यह तय कर सकते हैं कि किस पर हमला करना है।

  • 2.

    प्वाइंट 2: मानवीय नियंत्रण का स्तर विवाद का एक प्रमुख बिंदु है। कुछ लोग 'अर्थपूर्ण मानवीय नियंत्रण' की वकालत करते हैं, जिसके लिए प्रत्येक हमले में मानवीय निगरानी की आवश्यकता होती है। अन्य एक व्यापक परिभाषा स्वीकार करते हैं जहां मनुष्य मिशन के पैरामीटर निर्धारित करते हैं।

  • 3.

    प्वाइंट 3: नैतिक चिंताओं में लक्ष्य निर्धारण के निर्णयों में मानवीय निर्णय और सहानुभूति की कमी शामिल है। मशीनें लड़ाकों और नागरिकों के बीच अंतर करने में सक्षम नहीं हो सकती हैं, जिससे अनपेक्षित हताहत हो सकते हैं।

  • 4.

    प्वाइंट 4: कानूनी चिंताएं जवाबदेही पर केंद्रित हैं। यदि कोई LAWS युद्ध अपराध करता है, तो यह स्पष्ट नहीं है कि किसे जिम्मेदार ठहराया जाएगा: प्रोग्रामर, कमांडर या निर्माता?

  • 5.

    प्वाइंट 5: सुरक्षा चिंताओं में प्रसार की संभावना और LAWS के गलत हाथों में पड़ने का जोखिम शामिल है, जैसे कि आतंकवादी समूह या दुष्ट राज्य।

  • 6.

    प्वाइंट 6: AI तकनीक की दोहरी प्रकृति विनियमन को जटिल बनाती है। LAWS में उपयोग किए जाने वाले समान AI एल्गोरिदम का उपयोग लाभकारी उद्देश्यों के लिए भी किया जा सकता है, जिससे उनके विकास को प्रतिबंधित करना मुश्किल हो जाता है।

  • 7.

    प्वाइंट 7: संयुक्त राष्ट्र CCW के ढांचे के भीतर अंतर्राष्ट्रीय चर्चाएं जारी हैं। हालांकि, LAWS पर प्रतिबंध लगाने या उनके उपयोग को विनियमित करने पर कोई सहमति नहीं है।

  • 8.

    प्वाइंट 8: कुछ देश सैन्य अनुप्रयोगों के लिए AI और रोबोटिक्स में भारी निवेश कर रहे हैं, जबकि अन्य LAWS के विकास पर रोक लगाने का आह्वान कर रहे हैं।

  • 9.

    प्वाइंट 9: LAWS का विकास हथियारों की दौड़ को जन्म दे सकता है, क्योंकि देश अधिक उन्नत स्वायत्त हथियार प्रणालियों को विकसित करने के लिए प्रतिस्पर्धा करते हैं।

  • 10.

    प्वाइंट 10: एक आम गलत धारणा यह है कि सभी स्वायत्त प्रणालियाँ LAWS हैं। कई स्वायत्त प्रणालियाँ, जैसे कि निगरानी के लिए उपयोग किए जाने वाले ड्रोन, स्वतंत्र रूप से घातक बल का उपयोग करने की क्षमता नहीं रखते हैं।

दृश्य सामग्री

Lethal Autonomous Weapons Systems (LAWS): Concerns and Regulations

Illustrates the key concerns and regulatory challenges surrounding Lethal Autonomous Weapons Systems (LAWS).

LAWS

  • Ethical Concerns
  • Security Concerns
  • Regulatory Challenges

हालिया विकास

10 विकास

In 2023, the Netherlands hosted the Responsible AI in the Military (REAIM) summit, where many countries signed a pledge to govern AI in warfare.

The United States, China, and India did not sign the REAIM pledge, reflecting differing views on the regulation of military AI.

There is growing concern about the potential for AI-augmented autonomous decision-making to be used in conjunction with nuclear forces.

Some organizations are advocating for voluntary confidence-building measures, such as data sharing on military AI development.

Discussions are underway to establish an accepted risk hierarchy of military AI use cases, to prioritize regulation efforts.

The European Union is exploring regulations on the use of AI, including in military applications.

Several countries have announced policies on the development and use of AI in their militaries.

Research continues on the technical challenges of ensuring the safety and reliability of LAWS.

Public awareness campaigns are being launched to educate people about the risks and benefits of LAWS.

Think tanks and research institutions are publishing reports and analyses on the ethical, legal, and security implications of LAWS.

विभिन्न समाचारों में यह अवधारणा

1 विषय

Military AI Governance: India's Strategic Reluctance and the Need for Guardrails

19 Feb 2026

REAIM प्रतिज्ञा से भारत की अनुपस्थिति के बारे में खबर LAWS के आसपास के जटिल भू-राजनीतिक परिदृश्य को उजागर करती है। (1) यह सैन्य AI के विकास और विनियमन में विभिन्न राष्ट्रीय हितों और प्राथमिकताओं को दर्शाता है। (2) भारत का निर्णय LAWS के प्रति एक एकीकृत अंतर्राष्ट्रीय दृष्टिकोण की धारणा को चुनौती देता है, यह सुझाव देता है कि व्यक्तिगत देश अपनी विशिष्ट परिस्थितियों के आधार पर अपनी रणनीतियों का पालन करेंगे। (3) खबर युद्ध में AI के संभावित लाभों, जैसे कि बढ़ी हुई सटीकता और कम हताहतों, और स्वायत्त हथियारों के बिना मानवीय हस्तक्षेप के जीवन और मृत्यु के फैसले लेने के जोखिमों के बीच तनाव को दर्शाती है। (4) इस खबर के निहितार्थ यह हैं कि LAWS का विकास और तैनाती एक मजबूत अंतरराष्ट्रीय ढांचे के बिना जारी रहने की संभावना है, जिससे संभावित रूप से हथियारों की दौड़ और अस्थिरता बढ़ सकती है। (5) इस खबर का विश्लेषण करने के लिए LAWS की अवधारणा को समझना महत्वपूर्ण है क्योंकि यह उन नैतिक, कानूनी और सुरक्षा चिंताओं को समझने के लिए संदर्भ प्रदान करता है जो बहस को रेखांकित करते हैं। LAWS क्या हैं और वे क्या करने में सक्षम हैं, इसकी स्पष्ट समझ के बिना, भारत के निर्णय और इसके संभावित परिणामों के महत्व को पूरी तरह से समझना असंभव है।

स्रोत विषय

Military AI Governance: India's Strategic Reluctance and the Need for Guardrails

Polity & Governance

UPSC महत्व

LAWS यूपीएससी परीक्षा के लिए एक महत्वपूर्ण विषय है, खासकर GS-2 (अंतर्राष्ट्रीय संबंध, राजनीति और शासन) और GS-3 (विज्ञान और प्रौद्योगिकी, सुरक्षा) के लिए। यह निबंध पेपर के लिए भी प्रासंगिक हो सकता है। प्रश्न LAWS के नैतिक, कानूनी और सुरक्षा निहितार्थों के साथ-साथ उन्हें विनियमित करने के अंतर्राष्ट्रीय प्रयासों पर ध्यान केंद्रित कर सकते हैं। प्रीलिम्स में, प्रश्न LAWS की परिभाषा और बहस में शामिल प्रमुख अभिनेताओं की आपकी समझ का परीक्षण कर सकते हैं। मेन्स में, आपको LAWS को विनियमित करने की चुनौतियों का विश्लेषण करने और समाधान सुझाने के लिए कहा जा सकता है। हाल के वर्षों में AI और विभिन्न क्षेत्रों पर इसके प्रभाव पर ध्यान केंद्रित किया गया है, जिससे LAWS एक अत्यधिक प्रासंगिक विषय बन गया है। प्रश्नों का उत्तर देते समय, LAWS के संभावित लाभों और जोखिमों दोनों पर विचार करते हुए, एक संतुलित परिप्रेक्ष्य प्रदान करने पर ध्यान केंद्रित करें। साथ ही, प्रासंगिक अंतर्राष्ट्रीय समझौतों और पहलों का हवाला देना याद रखें।

Lethal Autonomous Weapons Systems (LAWS): Concerns and Regulations

Illustrates the key concerns and regulatory challenges surrounding Lethal Autonomous Weapons Systems (LAWS).

LAWS

Lack of Human Judgment

Accountability Issues

Potential for Proliferation

Risk of Falling into Wrong Hands

Lack of Clear Definition

Differing National Views

Connections
Ethical ConcernsSecurity Concerns
Security ConcernsRegulatory Challenges

This Concept in News

1 news topics

1

Military AI Governance: India's Strategic Reluctance and the Need for Guardrails

19 February 2026

REAIM प्रतिज्ञा से भारत की अनुपस्थिति के बारे में खबर LAWS के आसपास के जटिल भू-राजनीतिक परिदृश्य को उजागर करती है। (1) यह सैन्य AI के विकास और विनियमन में विभिन्न राष्ट्रीय हितों और प्राथमिकताओं को दर्शाता है। (2) भारत का निर्णय LAWS के प्रति एक एकीकृत अंतर्राष्ट्रीय दृष्टिकोण की धारणा को चुनौती देता है, यह सुझाव देता है कि व्यक्तिगत देश अपनी विशिष्ट परिस्थितियों के आधार पर अपनी रणनीतियों का पालन करेंगे। (3) खबर युद्ध में AI के संभावित लाभों, जैसे कि बढ़ी हुई सटीकता और कम हताहतों, और स्वायत्त हथियारों के बिना मानवीय हस्तक्षेप के जीवन और मृत्यु के फैसले लेने के जोखिमों के बीच तनाव को दर्शाती है। (4) इस खबर के निहितार्थ यह हैं कि LAWS का विकास और तैनाती एक मजबूत अंतरराष्ट्रीय ढांचे के बिना जारी रहने की संभावना है, जिससे संभावित रूप से हथियारों की दौड़ और अस्थिरता बढ़ सकती है। (5) इस खबर का विश्लेषण करने के लिए LAWS की अवधारणा को समझना महत्वपूर्ण है क्योंकि यह उन नैतिक, कानूनी और सुरक्षा चिंताओं को समझने के लिए संदर्भ प्रदान करता है जो बहस को रेखांकित करते हैं। LAWS क्या हैं और वे क्या करने में सक्षम हैं, इसकी स्पष्ट समझ के बिना, भारत के निर्णय और इसके संभावित परिणामों के महत्व को पूरी तरह से समझना असंभव है।