यूरोपीय संघ का AI कानून क्या है?
ऐतिहासिक पृष्ठभूमि
मुख्य प्रावधान
12 points- 1.
यह कानून एक जोखिम-आधारित दृष्टिकोण अपनाता है, जिसका मतलब है कि AI सिस्टम को उनके संभावित नुकसान के आधार पर चार श्रेणियों में बांटा गया है: अस्वीकार्य जोखिम, उच्च जोखिम, सीमित जोखिम और न्यूनतम जोखिम. यह वर्गीकरण ही तय करता है कि किसी AI सिस्टम पर कितने सख्त नियम लागू होंगे. उदाहरण के लिए, एक साधारण स्पैम फिल्टर पर बहुत कम नियम लागू होंगे, जबकि एक मेडिकल डायग्नोसिस AI पर बहुत सख्त नियम होंगे.
- 2.
कुछ AI प्रणालियों को 'अस्वीकार्य जोखिम' वाली श्रेणी में रखा गया है और उन्हें पूरी तरह से प्रतिबंधित कर दिया गया है. इनमें ऐसी प्रणालियाँ शामिल हैं जो लोगों के व्यवहार को प्रभावित करने के लिए 'सब्लिमिनल तकनीकों' का उपयोग करती हैं, या सरकारी 'सोशल स्कोरिंग' सिस्टम जो नागरिकों को उनके सामाजिक व्यवहार के आधार पर रैंक करते हैं. यह प्रावधान नागरिकों के मौलिक अधिकारों और लोकतांत्रिक मूल्यों की रक्षा के लिए है.
- 3.
उच्च-जोखिम AI सिस्टम वे हैं जो लोगों के स्वास्थ्य, सुरक्षा या मौलिक अधिकारों को महत्वपूर्ण रूप से प्रभावित कर सकते हैं. इनमें चिकित्सा उपकरण, महत्वपूर्ण बुनियादी ढांचे का प्रबंधन करने वाले सिस्टम, भर्ती या शिक्षा में उपयोग होने वाले AI, कानून प्रवर्तन और प्रवासन प्रबंधन में उपयोग होने वाले AI शामिल हैं. इन प्रणालियों पर सबसे सख्त नियम लागू होते हैं क्योंकि इनकी गलतियों का गंभीर परिणाम हो सकता है.
दृश्य सामग्री
EU AI Act: विकास यात्रा
यूरोपीय संघ के AI कानून (AI Act) के विकास और लागू होने की महत्वपूर्ण तिथियां और चरण।
AI के तेजी से विकास और इससे पैदा होने वाली नैतिक चिंताओं को देखते हुए, यूरोपीय संघ ने AI के लिए एक मजबूत कानून बनाने का फैसला किया। GDPR के साथ डेटा की गोपनीयता में दुनिया भर में मानक तय करने के बाद, EU AI के नियमों में भी एक उदाहरण पेश करना चाहता था, ताकि यह पक्का हो सके कि तकनीक सुरक्षित, साफ-सुथरी और जवाबदेह हो।
- 2020यूरोपीय आयोग ने AI पर श्वेत पत्र जारी किया, AI के लिए यूरोपीय दृष्टिकोण की रूपरेखा तैयार की।
- April 2021यूरोपीय आयोग ने औपचारिक रूप से AI कानून का प्रस्ताव रखा।
- December 2023यूरोपीय संसद और परिषद के बीच AI कानून पर अनंतिम राजनीतिक समझौता हुआ, जिसमें जनरल-पर्पस AI मॉडल के लिए नए नियम शामिल थे।
- March 2024यूरोपीय संसद ने भारी बहुमत से AI कानून को औपचारिक मंजूरी दी।
- May 2024यूरोपीय संघ की परिषद ने AI कानून को अंतिम मंजूरी दी, जिससे यह यूरोपीय संघ का कानून बन गया।
- 2024 (Publication)कानून यूरोपीय संघ के आधिकारिक जर्नल में प्रकाशन के 20 दिन बाद लागू होगा।
- 2025-2027 (Full Application)कानून के अलग-अलग नियमों को पूरी तरह से लागू होने में 6 से 36 महीने लगेंगे, जिससे कंपनियों को नियमों का पालन करने के लिए काफी समय मिलेगा।
वास्तविक दुनिया के उदाहरण
1 उदाहरणयह अवधारणा 1 वास्तविक उदाहरणों में दिखाई दी है अवधि: Mar 2026 से Mar 2026
स्रोत विषय
Navigating AI: Governments' Ethical Dilemma in Deployment and Governance
Polity & GovernanceUPSC महत्व
सामान्य प्रश्न
61. यूरोपीय संघ का AI एक्ट AI प्रणालियों को जोखिम के आधार पर वर्गीकृत करता है. 'अस्वीकार्य जोखिम' (unacceptable risk) और 'उच्च जोखिम' (high-risk) वाली AI प्रणालियों के बीच मुख्य अंतर क्या है, और यह अंतर अक्सर MCQ (बहुविकल्पीय प्रश्न) में छात्रों को क्यों फंसाता है?
'अस्वीकार्य जोखिम' वाली AI प्रणालियाँ वे हैं जिन्हें लोगों की सुरक्षा, आजीविका और मौलिक अधिकारों के लिए स्पष्ट खतरा माना जाता है, और इसलिए उन पर पूरी तरह से प्रतिबंध लगा दिया गया है. उदाहरण के लिए, अवचेतन रूप से हेरफेर (subliminal manipulation) करने वाली AI या सरकारी 'सोशल स्कोरिंग' सिस्टम. दूसरी ओर, 'उच्च जोखिम' वाली AI प्रणालियों पर प्रतिबंध नहीं है, लेकिन उन पर बहुत सख्त नियम लागू होते हैं क्योंकि वे स्वास्थ्य, सुरक्षा या मौलिक अधिकारों को महत्वपूर्ण रूप से प्रभावित कर सकती हैं. इनमें महत्वपूर्ण बुनियादी ढांचे, चिकित्सा उपकरण या कानून प्रवर्तन में उपयोग होने वाली AI शामिल हैं. MCQ में गलती यह होती है कि छात्र पूर्ण प्रतिबंध और सख्त नियमों के बीच अंतर नहीं कर पाते; कई छात्र मान लेते हैं कि सभी हानिकारक AI केवल 'उच्च जोखिम' वाली हैं, जबकि 'अस्वीकार्य' श्रेणी पूर्ण प्रतिबंध के लिए है.
- •अस्वीकार्य जोखिम: पूरी तरह से प्रतिबंधित; मौलिक अधिकारों के लिए स्पष्ट खतरा (जैसे, अवचेतन तकनीकें, सोशल स्कोरिंग).
- •उच्च जोखिम: प्रतिबंधित नहीं, लेकिन सख्त नियमों के अधीन; स्वास्थ्य, सुरक्षा या मौलिक अधिकारों पर महत्वपूर्ण प्रभाव (जैसे, चिकित्सा उपकरण, कानून प्रवर्तन, महत्वपूर्ण बुनियादी ढाँचा).
परीक्षा युक्ति
याद रखें कि 'अस्वीकार्य जोखिम' श्रेणी *प्रतिबंध* को दर्शाती है, न कि केवल सख्त नियमों को. यदि कोई MCQ उन AI प्रणालियों के बारे में पूछता है जिन पर *प्रतिबंध* है, तो सोशल स्कोरिंग या हेरफेर करने वाली AI जैसे उदाहरणों की तलाश करें, न कि केवल उन AI की जिनमें नुकसान की उच्च संभावना हो.
