What is European Union's AI Act?
Historical Background
Key Points
12 points- 1.
यह कानून एक जोखिम-आधारित दृष्टिकोण अपनाता है, जिसका मतलब है कि AI सिस्टम को उनके संभावित नुकसान के आधार पर चार श्रेणियों में बांटा गया है: अस्वीकार्य जोखिम, उच्च जोखिम, सीमित जोखिम और न्यूनतम जोखिम. यह वर्गीकरण ही तय करता है कि किसी AI सिस्टम पर कितने सख्त नियम लागू होंगे. उदाहरण के लिए, एक साधारण स्पैम फिल्टर पर बहुत कम नियम लागू होंगे, जबकि एक मेडिकल डायग्नोसिस AI पर बहुत सख्त नियम होंगे.
- 2.
कुछ AI प्रणालियों को 'अस्वीकार्य जोखिम' वाली श्रेणी में रखा गया है और उन्हें पूरी तरह से प्रतिबंधित कर दिया गया है. इनमें ऐसी प्रणालियाँ शामिल हैं जो लोगों के व्यवहार को प्रभावित करने के लिए 'सब्लिमिनल तकनीकों' का उपयोग करती हैं, या सरकारी 'सोशल स्कोरिंग' सिस्टम जो नागरिकों को उनके सामाजिक व्यवहार के आधार पर रैंक करते हैं. यह प्रावधान नागरिकों के मौलिक अधिकारों और लोकतांत्रिक मूल्यों की रक्षा के लिए है.
- 3.
उच्च-जोखिम AI सिस्टम वे हैं जो लोगों के स्वास्थ्य, सुरक्षा या मौलिक अधिकारों को महत्वपूर्ण रूप से प्रभावित कर सकते हैं. इनमें चिकित्सा उपकरण, महत्वपूर्ण बुनियादी ढांचे का प्रबंधन करने वाले सिस्टम, भर्ती या शिक्षा में उपयोग होने वाले AI, कानून प्रवर्तन और प्रवासन प्रबंधन में उपयोग होने वाले AI शामिल हैं. इन प्रणालियों पर सबसे सख्त नियम लागू होते हैं क्योंकि इनकी गलतियों का गंभीर परिणाम हो सकता है.
Visual Insights
EU AI Act: विकास यात्रा
यूरोपीय संघ के AI कानून (AI Act) के विकास और लागू होने की महत्वपूर्ण तिथियां और चरण।
AI के तेजी से विकास और इससे उत्पन्न होने वाली नैतिक चिंताओं के जवाब में, यूरोपीय संघ ने AI के लिए एक मजबूत नियामक ढांचा बनाने का बीड़ा उठाया। GDPR के साथ डेटा गोपनीयता में वैश्विक मानक स्थापित करने के बाद, EU AI के विनियमन में भी एक मिसाल कायम करना चाहता था, जिससे यह सुनिश्चित हो सके कि तकनीक सुरक्षित, पारदर्शी और जवाबदेह हो।
- 2020यूरोपीय आयोग ने AI पर श्वेत पत्र जारी किया, AI के लिए यूरोपीय दृष्टिकोण की रूपरेखा तैयार की।
- April 2021यूरोपीय आयोग ने औपचारिक रूप से AI Act का प्रस्ताव रखा।
- December 2023यूरोपीय संसद और परिषद के बीच AI Act पर अनंतिम राजनीतिक समझौता हुआ, जिसमें जनरल-पर्पस AI मॉडल के लिए नए नियम शामिल थे।
- March 2024यूरोपीय संसद ने भारी बहुमत से AI Act को औपचारिक मंजूरी दी।
- May 2024यूरोपीय संघ की परिषद ने AI Act को अंतिम मंजूरी दी, जिससे यह यूरोपीय संघ का कानून बन गया।
- 2024 (Publication)कानून यूरोपीय संघ के आधिकारिक जर्नल में प्रकाशन के 20 दिन बाद लागू होगा।
- 2025-2027 (Full Application)कानून के विभिन्न प्रावधानों को पूरी तरह से लागू होने में 6 से 36 महीने लगेंगे, जिससे व्यवसायों को अनुपालन के लिए पर्याप्त समय मिलेगा।
Recent Real-World Examples
1 examplesIllustrated in 1 real-world examples from Mar 2026 to Mar 2026
Source Topic
Navigating AI: Governments' Ethical Dilemma in Deployment and Governance
Polity & GovernanceUPSC Relevance
Frequently Asked Questions
61. The EU AI Act categorizes AI systems based on risk. What is the critical difference between an 'unacceptable risk' and a 'high-risk' AI system, and why is this distinction a common MCQ trap?
'Unacceptable risk' AI systems are those considered a clear threat to people's safety, livelihoods, and fundamental rights, and are therefore outright banned. Examples include AI used for subliminal manipulation or government social scoring. 'High-risk' AI systems, on the other hand, are not banned but are subject to very strict requirements because they can significantly impact health, safety, or fundamental rights. These include AI in critical infrastructure, medical devices, or law enforcement. The trap lies in confusing outright prohibition with stringent regulation; many students might assume all harmful AI is simply 'high-risk' rather than recognizing the 'unacceptable' category for complete bans.
- •Unacceptable Risk: Outright banned; poses clear threat to fundamental rights (e.g., subliminal techniques, social scoring).
- •High Risk: Not banned, but subject to strict requirements; significant impact on health, safety, or fundamental rights (e.g., medical devices, law enforcement, critical infrastructure).
Exam Tip
Remember the 'unacceptable risk' category represents a *prohibition*, not just stricter rules. If an MCQ asks about AI systems that are *banned*, look for examples like social scoring or manipulative AI, not just those with high potential for harm.
