घातक स्वायत्त हथियार प्रणाली (Lethal Autonomous Weapons Systems) क्या है?
ऐतिहासिक पृष्ठभूमि
मुख्य प्रावधान
10 points- 1.
प्वाइंट 1: LAWS को उनकी स्वतंत्र रूप से लक्ष्य चुनने और हमला करने की क्षमता से परिभाषित किया जाता है। इसका मतलब है कि वे बिना सीधे मानवीय नियंत्रण के यह तय कर सकते हैं कि किस पर हमला करना है।
- 2.
प्वाइंट 2: मानवीय नियंत्रण का स्तर विवाद का एक प्रमुख बिंदु है। कुछ लोग 'अर्थपूर्ण मानवीय नियंत्रण' की वकालत करते हैं, जिसके लिए प्रत्येक हमले में मानवीय निगरानी की आवश्यकता होती है। अन्य एक व्यापक परिभाषा स्वीकार करते हैं जहां मनुष्य मिशन के पैरामीटर निर्धारित करते हैं।
- 3.
प्वाइंट 3: नैतिक चिंताओं में लक्ष्य निर्धारण के निर्णयों में मानवीय निर्णय और सहानुभूति की कमी शामिल है। मशीनें लड़ाकों और नागरिकों के बीच अंतर करने में सक्षम नहीं हो सकती हैं, जिससे अनपेक्षित हताहत हो सकते हैं।
- 4.
प्वाइंट 4: कानूनी चिंताएं जवाबदेही पर केंद्रित हैं। यदि कोई LAWS युद्ध अपराध करता है, तो यह स्पष्ट नहीं है कि किसे जिम्मेदार ठहराया जाएगा: प्रोग्रामर, कमांडर या निर्माता?
- 5.
प्वाइंट 5: सुरक्षा चिंताओं में प्रसार की संभावना और LAWS के गलत हाथों में पड़ने का जोखिम शामिल है, जैसे कि आतंकवादी समूह या दुष्ट राज्य।
- 6.
प्वाइंट 6: AI तकनीक की दोहरी प्रकृति विनियमन को जटिल बनाती है। LAWS में उपयोग किए जाने वाले समान AI एल्गोरिदम का उपयोग लाभकारी उद्देश्यों के लिए भी किया जा सकता है, जिससे उनके विकास को प्रतिबंधित करना मुश्किल हो जाता है।
- 7.
प्वाइंट 7: संयुक्त राष्ट्र CCW के ढांचे के भीतर अंतर्राष्ट्रीय चर्चाएं जारी हैं। हालांकि, LAWS पर प्रतिबंध लगाने या उनके उपयोग को विनियमित करने पर कोई सहमति नहीं है।
- 8.
प्वाइंट 8: कुछ देश सैन्य अनुप्रयोगों के लिए AI और रोबोटिक्स में भारी निवेश कर रहे हैं, जबकि अन्य LAWS के विकास पर रोक लगाने का आह्वान कर रहे हैं।
- 9.
प्वाइंट 9: LAWS का विकास हथियारों की दौड़ को जन्म दे सकता है, क्योंकि देश अधिक उन्नत स्वायत्त हथियार प्रणालियों को विकसित करने के लिए प्रतिस्पर्धा करते हैं।
- 10.
प्वाइंट 10: एक आम गलत धारणा यह है कि सभी स्वायत्त प्रणालियाँ LAWS हैं। कई स्वायत्त प्रणालियाँ, जैसे कि निगरानी के लिए उपयोग किए जाने वाले ड्रोन, स्वतंत्र रूप से घातक बल का उपयोग करने की क्षमता नहीं रखते हैं।
दृश्य सामग्री
Lethal Autonomous Weapons Systems (LAWS): Concerns and Regulations
Illustrates the key concerns and regulatory challenges surrounding Lethal Autonomous Weapons Systems (LAWS).
LAWS
- ●Ethical Concerns
- ●Security Concerns
- ●Regulatory Challenges
हालिया विकास
10 विकासIn 2023, the Netherlands hosted the Responsible AI in the Military (REAIM) summit, where many countries signed a pledge to govern AI in warfare.
The United States, China, and India did not sign the REAIM pledge, reflecting differing views on the regulation of military AI.
There is growing concern about the potential for AI-augmented autonomous decision-making to be used in conjunction with nuclear forces.
Some organizations are advocating for voluntary confidence-building measures, such as data sharing on military AI development.
Discussions are underway to establish an accepted risk hierarchy of military AI use cases, to prioritize regulation efforts.
The European Union is exploring regulations on the use of AI, including in military applications.
Several countries have announced policies on the development and use of AI in their militaries.
Research continues on the technical challenges of ensuring the safety and reliability of LAWS.
Public awareness campaigns are being launched to educate people about the risks and benefits of LAWS.
Think tanks and research institutions are publishing reports and analyses on the ethical, legal, and security implications of LAWS.
