Skip to main content
GKSolverGKSolver
HomeExam NewsMCQsMainsUPSC Prep
Login
Menu
Daily
HomeDaily NewsExam NewsStudy Plan
Practice
Essential MCQsEssential MainsUPSC PrepBookmarks
Browse
EditorialsStory ThreadsTrending
Home
Daily
MCQs
Saved
News

© 2025 GKSolver. Free AI-powered UPSC preparation platform.

AboutContactPrivacyTermsDisclaimer
GKSolverGKSolver
HomeExam NewsMCQsMainsUPSC Prep
Login
Menu
Daily
HomeDaily NewsExam NewsStudy Plan
Practice
Essential MCQsEssential MainsUPSC PrepBookmarks
Browse
EditorialsStory ThreadsTrending
Home
Daily
MCQs
Saved
News

© 2025 GKSolver. Free AI-powered UPSC preparation platform.

AboutContactPrivacyTermsDisclaimer
6 minOther

EU AI Act: विकास यात्रा

यूरोपीय संघ के AI कानून (AI Act) के विकास और लागू होने की महत्वपूर्ण तिथियां और चरण।

EU AI Act: मुख्य प्रावधान और प्रभाव

यूरोपीय संघ के AI Act के प्रमुख प्रावधानों और उनके प्रभावों को दर्शाता है, जो AI विनियमन के लिए एक जोखिम-आधारित दृष्टिकोण प्रस्तुत करता है।

EU AI Act: प्रमुख दंड और समय-सीमा

EU AI Act के तहत गैर-अनुपालन के लिए निर्धारित अधिकतम जुर्माने और कानून के पूर्ण कार्यान्वयन की समय-सीमा को दर्शाता है।

This Concept in News

1 news topics

1

Navigating AI: Governments' Ethical Dilemma in Deployment and Governance

20 March 2026

यह खबर AI के नैतिक और व्यावहारिक चुनौतियों पर प्रकाश डालती है, और यूरोपीय संघ का AI कानून ठीक इसी समस्या का एक नीतिगत समाधान प्रस्तुत करता है. यह कानून दिखाता है कि कैसे एक प्रमुख वैश्विक शक्ति AI के 'अंधाधुंध अपनाने' के बजाय एक संरचित और जोखिम-आधारित दृष्टिकोण अपना रही है. यह खबर इस बात पर जोर देती है कि AI तैनाती में 'सार्वजनिक हित और लोकतांत्रिक मूल्यों' को प्राथमिकता दी जानी चाहिए, और AI कानून इसी सिद्धांत पर आधारित है, जो मौलिक अधिकारों की रक्षा और पारदर्शिता को अनिवार्य करता है. यह कानून इस बात का एक व्यावहारिक उदाहरण है कि सरकारें 'सावधानी, जवाबदेही और स्पष्ट उद्देश्यों' को कैसे लागू कर सकती हैं, जैसा कि खबर में विशेषज्ञों ने सुझाया है. यह हमें यह भी बताता है कि AI विनियमन एक जटिल प्रक्रिया है, जिसमें 'फाउंडेशनल कैपेबिलिटीज' के लिए निजी कंपनियों पर अत्यधिक निर्भरता से बचने की आवश्यकता है, और AI कानून GPAI मॉडल पर नियम लगाकर इसे संबोधित करता है. इस कानून को समझना महत्वपूर्ण है क्योंकि यह हमें दिखाता है कि कैसे नीति निर्माता तकनीकी प्रगति के साथ आने वाली नैतिक और सामाजिक चुनौतियों का सामना कर रहे हैं, और यह वैश्विक AI शासन के लिए एक बेंचमार्क स्थापित कर सकता है.

6 minOther

EU AI Act: विकास यात्रा

यूरोपीय संघ के AI कानून (AI Act) के विकास और लागू होने की महत्वपूर्ण तिथियां और चरण।

EU AI Act: मुख्य प्रावधान और प्रभाव

यूरोपीय संघ के AI Act के प्रमुख प्रावधानों और उनके प्रभावों को दर्शाता है, जो AI विनियमन के लिए एक जोखिम-आधारित दृष्टिकोण प्रस्तुत करता है।

EU AI Act: प्रमुख दंड और समय-सीमा

EU AI Act के तहत गैर-अनुपालन के लिए निर्धारित अधिकतम जुर्माने और कानून के पूर्ण कार्यान्वयन की समय-सीमा को दर्शाता है।

This Concept in News

1 news topics

1

Navigating AI: Governments' Ethical Dilemma in Deployment and Governance

20 March 2026

यह खबर AI के नैतिक और व्यावहारिक चुनौतियों पर प्रकाश डालती है, और यूरोपीय संघ का AI कानून ठीक इसी समस्या का एक नीतिगत समाधान प्रस्तुत करता है. यह कानून दिखाता है कि कैसे एक प्रमुख वैश्विक शक्ति AI के 'अंधाधुंध अपनाने' के बजाय एक संरचित और जोखिम-आधारित दृष्टिकोण अपना रही है. यह खबर इस बात पर जोर देती है कि AI तैनाती में 'सार्वजनिक हित और लोकतांत्रिक मूल्यों' को प्राथमिकता दी जानी चाहिए, और AI कानून इसी सिद्धांत पर आधारित है, जो मौलिक अधिकारों की रक्षा और पारदर्शिता को अनिवार्य करता है. यह कानून इस बात का एक व्यावहारिक उदाहरण है कि सरकारें 'सावधानी, जवाबदेही और स्पष्ट उद्देश्यों' को कैसे लागू कर सकती हैं, जैसा कि खबर में विशेषज्ञों ने सुझाया है. यह हमें यह भी बताता है कि AI विनियमन एक जटिल प्रक्रिया है, जिसमें 'फाउंडेशनल कैपेबिलिटीज' के लिए निजी कंपनियों पर अत्यधिक निर्भरता से बचने की आवश्यकता है, और AI कानून GPAI मॉडल पर नियम लगाकर इसे संबोधित करता है. इस कानून को समझना महत्वपूर्ण है क्योंकि यह हमें दिखाता है कि कैसे नीति निर्माता तकनीकी प्रगति के साथ आने वाली नैतिक और सामाजिक चुनौतियों का सामना कर रहे हैं, और यह वैश्विक AI शासन के लिए एक बेंचमार्क स्थापित कर सकता है.

2020

यूरोपीय आयोग ने AI पर श्वेत पत्र जारी किया, AI के लिए यूरोपीय दृष्टिकोण की रूपरेखा तैयार की।

April 2021

यूरोपीय आयोग ने औपचारिक रूप से AI Act का प्रस्ताव रखा।

December 2023

यूरोपीय संसद और परिषद के बीच AI Act पर अनंतिम राजनीतिक समझौता हुआ, जिसमें जनरल-पर्पस AI मॉडल के लिए नए नियम शामिल थे।

March 2024

यूरोपीय संसद ने भारी बहुमत से AI Act को औपचारिक मंजूरी दी।

May 2024

यूरोपीय संघ की परिषद ने AI Act को अंतिम मंजूरी दी, जिससे यह यूरोपीय संघ का कानून बन गया।

2024 (Publication)

कानून यूरोपीय संघ के आधिकारिक जर्नल में प्रकाशन के 20 दिन बाद लागू होगा।

2025-2027 (Full Application)

कानून के विभिन्न प्रावधानों को पूरी तरह से लागू होने में 6 से 36 महीने लगेंगे, जिससे व्यवसायों को अनुपालन के लिए पर्याप्त समय मिलेगा।

Connected to current news
EU AI Act

अस्वीकार्य जोखिम (प्रतिबंधित)

उच्च जोखिम (कठोर नियम)

सीमित/न्यूनतम जोखिम (कम नियम)

पारदर्शिता और जवाबदेही

जनरल-पर्पस AI (GPAI) मॉडल

मानव पर्यवेक्षण

कड़े जुर्माने

AI कार्यालय की स्थापना

नियामक सैंडबॉक्स

स्पष्टीकरण का अधिकार

Connections
जोखिम-आधारित वर्गीकरण→प्रमुख नियम
प्रमुख नियम→कार्यान्वयन और दंड
जोखिम-आधारित वर्गीकरण→नवाचार और अधिकार
प्रतिबंधित AI के उल्लंघन पर अधिकतम जुर्माना
€35 मिलियन या वैश्विक वार्षिक कारोबार का 7%

यह AI डेवलपर्स और उपयोगकर्ताओं को कानून का गंभीरता से पालन करने के लिए प्रेरित करता है, खासकर उन AI प्रणालियों के लिए जो मौलिक अधिकारों का उल्लंघन कर सकती हैं।

Data: 2024 (Act adopted)EU AI Act
उच्च-जोखिम AI के उल्लंघन पर अधिकतम जुर्माना
€15 मिलियन या वैश्विक वार्षिक कारोबार का 3%

उच्च-जोखिम वाले AI सिस्टम के लिए सख्त अनुपालन सुनिश्चित करता है, जो स्वास्थ्य, सुरक्षा और मौलिक अधिकारों पर महत्वपूर्ण प्रभाव डाल सकते हैं।

Data: 2024 (Act adopted)EU AI Act
कानून के पूर्ण कार्यान्वयन की समय-सीमा
6 से 36 महीने

यह व्यवसायों और सदस्य देशों को नए नियमों के अनुकूल होने और अनुपालन प्रणालियों को स्थापित करने के लिए पर्याप्त समय प्रदान करता है।

Data: 2024-2027EU AI Act
2020

यूरोपीय आयोग ने AI पर श्वेत पत्र जारी किया, AI के लिए यूरोपीय दृष्टिकोण की रूपरेखा तैयार की।

April 2021

यूरोपीय आयोग ने औपचारिक रूप से AI Act का प्रस्ताव रखा।

December 2023

यूरोपीय संसद और परिषद के बीच AI Act पर अनंतिम राजनीतिक समझौता हुआ, जिसमें जनरल-पर्पस AI मॉडल के लिए नए नियम शामिल थे।

March 2024

यूरोपीय संसद ने भारी बहुमत से AI Act को औपचारिक मंजूरी दी।

May 2024

यूरोपीय संघ की परिषद ने AI Act को अंतिम मंजूरी दी, जिससे यह यूरोपीय संघ का कानून बन गया।

2024 (Publication)

कानून यूरोपीय संघ के आधिकारिक जर्नल में प्रकाशन के 20 दिन बाद लागू होगा।

2025-2027 (Full Application)

कानून के विभिन्न प्रावधानों को पूरी तरह से लागू होने में 6 से 36 महीने लगेंगे, जिससे व्यवसायों को अनुपालन के लिए पर्याप्त समय मिलेगा।

Connected to current news
EU AI Act

अस्वीकार्य जोखिम (प्रतिबंधित)

उच्च जोखिम (कठोर नियम)

सीमित/न्यूनतम जोखिम (कम नियम)

पारदर्शिता और जवाबदेही

जनरल-पर्पस AI (GPAI) मॉडल

मानव पर्यवेक्षण

कड़े जुर्माने

AI कार्यालय की स्थापना

नियामक सैंडबॉक्स

स्पष्टीकरण का अधिकार

Connections
जोखिम-आधारित वर्गीकरण→प्रमुख नियम
प्रमुख नियम→कार्यान्वयन और दंड
जोखिम-आधारित वर्गीकरण→नवाचार और अधिकार
प्रतिबंधित AI के उल्लंघन पर अधिकतम जुर्माना
€35 मिलियन या वैश्विक वार्षिक कारोबार का 7%

यह AI डेवलपर्स और उपयोगकर्ताओं को कानून का गंभीरता से पालन करने के लिए प्रेरित करता है, खासकर उन AI प्रणालियों के लिए जो मौलिक अधिकारों का उल्लंघन कर सकती हैं।

Data: 2024 (Act adopted)EU AI Act
उच्च-जोखिम AI के उल्लंघन पर अधिकतम जुर्माना
€15 मिलियन या वैश्विक वार्षिक कारोबार का 3%

उच्च-जोखिम वाले AI सिस्टम के लिए सख्त अनुपालन सुनिश्चित करता है, जो स्वास्थ्य, सुरक्षा और मौलिक अधिकारों पर महत्वपूर्ण प्रभाव डाल सकते हैं।

Data: 2024 (Act adopted)EU AI Act
कानून के पूर्ण कार्यान्वयन की समय-सीमा
6 से 36 महीने

यह व्यवसायों और सदस्य देशों को नए नियमों के अनुकूल होने और अनुपालन प्रणालियों को स्थापित करने के लिए पर्याप्त समय प्रदान करता है।

Data: 2024-2027EU AI Act
  1. Home
  2. /
  3. Concepts
  4. /
  5. Other
  6. /
  7. European Union's AI Act
Other

European Union's AI Act

What is European Union's AI Act?

छात्र, यूरोपीय संघ का AI Act दुनिया का पहला व्यापक कानून है जिसका मकसद आर्टिफिशियल इंटेलिजेंस (AI) को विनियमित करना है. इसका मुख्य उद्देश्य AI से जुड़े जोखिमों को कम करना, नागरिकों के मौलिक अधिकारों की रक्षा करना और लोकतांत्रिक मूल्यों को बनाए रखना है. यह कानून AI प्रणालियों को उनके जोखिम स्तर के आधार पर वर्गीकृत करता है—जैसे 'अस्वीकार्य जोखिम', 'उच्च जोखिम', 'सीमित जोखिम' और 'न्यूनतम जोखिम'—और फिर हर श्रेणी के लिए अलग-अलग नियम और जिम्मेदारियां तय करता है. यह सुनिश्चित करता है कि AI सिस्टम सुरक्षित, पारदर्शी और जवाबदेह हों, खासकर उन क्षेत्रों में जहां उनका मानव जीवन और समाज पर बड़ा प्रभाव पड़ सकता है. यह कानून AI के अंधाधुंध उपयोग को रोकने और एक भरोसेमंद AI पारिस्थितिकी तंत्र बनाने की दिशा में एक महत्वपूर्ण कदम है.

Historical Background

इस कानून की जड़ें AI के तेजी से विकास और इससे उत्पन्न होने वाली नैतिक चिंताओं में हैं. यूरोपीय आयोग ने सबसे पहले 2020 में AI पर एक श्वेत पत्र जारी किया था, जिसमें AI के लिए एक यूरोपीय दृष्टिकोण की रूपरेखा तैयार की गई थी. इसके बाद, अप्रैल 2021 में, आयोग ने औपचारिक रूप से AI Act का प्रस्ताव रखा. इसका मुख्य कारण यह था कि AI तकनीकें जैसे फेशियल रिकॉग्निशन, प्रेडिक्टिव पुलिसिंग और ऑटोमेटेड डिसीजन-मेकिंग बिना किसी स्पष्ट कानूनी ढांचे के विकसित हो रही थीं, जिससे गोपनीयता, भेदभाव और मानवाधिकारों के उल्लंघन का खतरा बढ़ रहा था. यूरोपीय संघ, जिसने पहले ही GDPR (जनरल डेटा प्रोटेक्शन रेगुलेशन) के साथ डेटा गोपनीयता में वैश्विक मानक स्थापित किया था, AI के लिए भी एक मजबूत नियामक ढांचा चाहता था. कई वर्षों की बातचीत और संशोधनों के बाद, यूरोपीय संसद और परिषद के बीच दिसंबर 2023 में एक अनंतिम समझौता हुआ, और अंततः इसे 2024 में औपचारिक रूप से अपनाया गया. यह कानून AI के विनियमन में एक वैश्विक मिसाल कायम करने का प्रयास करता है.

Key Points

12 points
  • 1.

    यह कानून एक जोखिम-आधारित दृष्टिकोण अपनाता है, जिसका मतलब है कि AI सिस्टम को उनके संभावित नुकसान के आधार पर चार श्रेणियों में बांटा गया है: अस्वीकार्य जोखिम, उच्च जोखिम, सीमित जोखिम और न्यूनतम जोखिम. यह वर्गीकरण ही तय करता है कि किसी AI सिस्टम पर कितने सख्त नियम लागू होंगे. उदाहरण के लिए, एक साधारण स्पैम फिल्टर पर बहुत कम नियम लागू होंगे, जबकि एक मेडिकल डायग्नोसिस AI पर बहुत सख्त नियम होंगे.

  • 2.

    कुछ AI प्रणालियों को 'अस्वीकार्य जोखिम' वाली श्रेणी में रखा गया है और उन्हें पूरी तरह से प्रतिबंधित कर दिया गया है. इनमें ऐसी प्रणालियाँ शामिल हैं जो लोगों के व्यवहार को प्रभावित करने के लिए 'सब्लिमिनल तकनीकों' का उपयोग करती हैं, या सरकारी 'सोशल स्कोरिंग' सिस्टम जो नागरिकों को उनके सामाजिक व्यवहार के आधार पर रैंक करते हैं. यह प्रावधान नागरिकों के मौलिक अधिकारों और लोकतांत्रिक मूल्यों की रक्षा के लिए है.

  • 3.

    उच्च-जोखिम AI सिस्टम वे हैं जो लोगों के स्वास्थ्य, सुरक्षा या मौलिक अधिकारों को महत्वपूर्ण रूप से प्रभावित कर सकते हैं. इनमें चिकित्सा उपकरण, महत्वपूर्ण बुनियादी ढांचे का प्रबंधन करने वाले सिस्टम, भर्ती या शिक्षा में उपयोग होने वाले AI, कानून प्रवर्तन और प्रवासन प्रबंधन में उपयोग होने वाले AI शामिल हैं. इन प्रणालियों पर सबसे सख्त नियम लागू होते हैं क्योंकि इनकी गलतियों का गंभीर परिणाम हो सकता है.

Visual Insights

EU AI Act: विकास यात्रा

यूरोपीय संघ के AI कानून (AI Act) के विकास और लागू होने की महत्वपूर्ण तिथियां और चरण।

AI के तेजी से विकास और इससे उत्पन्न होने वाली नैतिक चिंताओं के जवाब में, यूरोपीय संघ ने AI के लिए एक मजबूत नियामक ढांचा बनाने का बीड़ा उठाया। GDPR के साथ डेटा गोपनीयता में वैश्विक मानक स्थापित करने के बाद, EU AI के विनियमन में भी एक मिसाल कायम करना चाहता था, जिससे यह सुनिश्चित हो सके कि तकनीक सुरक्षित, पारदर्शी और जवाबदेह हो।

  • 2020यूरोपीय आयोग ने AI पर श्वेत पत्र जारी किया, AI के लिए यूरोपीय दृष्टिकोण की रूपरेखा तैयार की।
  • April 2021यूरोपीय आयोग ने औपचारिक रूप से AI Act का प्रस्ताव रखा।
  • December 2023यूरोपीय संसद और परिषद के बीच AI Act पर अनंतिम राजनीतिक समझौता हुआ, जिसमें जनरल-पर्पस AI मॉडल के लिए नए नियम शामिल थे।
  • March 2024यूरोपीय संसद ने भारी बहुमत से AI Act को औपचारिक मंजूरी दी।
  • May 2024यूरोपीय संघ की परिषद ने AI Act को अंतिम मंजूरी दी, जिससे यह यूरोपीय संघ का कानून बन गया।
  • 2024 (Publication)कानून यूरोपीय संघ के आधिकारिक जर्नल में प्रकाशन के 20 दिन बाद लागू होगा।
  • 2025-2027 (Full Application)कानून के विभिन्न प्रावधानों को पूरी तरह से लागू होने में 6 से 36 महीने लगेंगे, जिससे व्यवसायों को अनुपालन के लिए पर्याप्त समय मिलेगा।

Recent Real-World Examples

1 examples

Illustrated in 1 real-world examples from Mar 2026 to Mar 2026

Navigating AI: Governments' Ethical Dilemma in Deployment and Governance

20 Mar 2026

यह खबर AI के नैतिक और व्यावहारिक चुनौतियों पर प्रकाश डालती है, और यूरोपीय संघ का AI कानून ठीक इसी समस्या का एक नीतिगत समाधान प्रस्तुत करता है. यह कानून दिखाता है कि कैसे एक प्रमुख वैश्विक शक्ति AI के 'अंधाधुंध अपनाने' के बजाय एक संरचित और जोखिम-आधारित दृष्टिकोण अपना रही है. यह खबर इस बात पर जोर देती है कि AI तैनाती में 'सार्वजनिक हित और लोकतांत्रिक मूल्यों' को प्राथमिकता दी जानी चाहिए, और AI कानून इसी सिद्धांत पर आधारित है, जो मौलिक अधिकारों की रक्षा और पारदर्शिता को अनिवार्य करता है. यह कानून इस बात का एक व्यावहारिक उदाहरण है कि सरकारें 'सावधानी, जवाबदेही और स्पष्ट उद्देश्यों' को कैसे लागू कर सकती हैं, जैसा कि खबर में विशेषज्ञों ने सुझाया है. यह हमें यह भी बताता है कि AI विनियमन एक जटिल प्रक्रिया है, जिसमें 'फाउंडेशनल कैपेबिलिटीज' के लिए निजी कंपनियों पर अत्यधिक निर्भरता से बचने की आवश्यकता है, और AI कानून GPAI मॉडल पर नियम लगाकर इसे संबोधित करता है. इस कानून को समझना महत्वपूर्ण है क्योंकि यह हमें दिखाता है कि कैसे नीति निर्माता तकनीकी प्रगति के साथ आने वाली नैतिक और सामाजिक चुनौतियों का सामना कर रहे हैं, और यह वैश्विक AI शासन के लिए एक बेंचमार्क स्थापित कर सकता है.

Related Concepts

United Nations

Source Topic

Navigating AI: Governments' Ethical Dilemma in Deployment and Governance

Polity & Governance

UPSC Relevance

छात्रों, यूरोपीय संघ का AI कानून UPSC परीक्षा के लिए बहुत महत्वपूर्ण है, खासकर GS-2 (शासन, अंतर्राष्ट्रीय संबंध) और GS-3 (विज्ञान और प्रौद्योगिकी, अर्थव्यवस्था) के पेपर में. प्रीलिम्स में, आपसे इसके प्रमुख प्रावधानों, जैसे 'जोखिम-आधारित दृष्टिकोण', 'प्रतिबंधित AI प्रणालियाँ', या 'जुर्माने' के बारे में सीधे सवाल पूछे जा सकते हैं. यह भी पूछा जा सकता है कि यह दुनिया का पहला ऐसा कानून है या नहीं. मेन्स में, यह कानून AI के नैतिक आयामों, AI शासन के वैश्विक प्रयासों, और भारत के लिए इसके निहितार्थों पर निबंध या विश्लेषणात्मक प्रश्नों का आधार बन सकता है. आपसे पूछा जा सकता है कि यह कानून नवाचार और विनियमन के बीच संतुलन कैसे बनाता है, या यह भारत की AI रणनीति को कैसे प्रभावित कर सकता है. हाल के वर्षों में AI और डेटा गवर्नेंस पर लगातार सवाल पूछे गए हैं, इसलिए इस कानून को गहराई से समझना आपको एक बढ़त देगा. आपको यह भी देखना होगा कि भारत AI विनियमन पर क्या कदम उठा रहा है और उसकी तुलना यूरोपीय संघ के दृष्टिकोण से कैसे की जा सकती है.
❓

Frequently Asked Questions

6
1. The EU AI Act categorizes AI systems based on risk. What is the critical difference between an 'unacceptable risk' and a 'high-risk' AI system, and why is this distinction a common MCQ trap?

'Unacceptable risk' AI systems are those considered a clear threat to people's safety, livelihoods, and fundamental rights, and are therefore outright banned. Examples include AI used for subliminal manipulation or government social scoring. 'High-risk' AI systems, on the other hand, are not banned but are subject to very strict requirements because they can significantly impact health, safety, or fundamental rights. These include AI in critical infrastructure, medical devices, or law enforcement. The trap lies in confusing outright prohibition with stringent regulation; many students might assume all harmful AI is simply 'high-risk' rather than recognizing the 'unacceptable' category for complete bans.

  • •Unacceptable Risk: Outright banned; poses clear threat to fundamental rights (e.g., subliminal techniques, social scoring).
  • •High Risk: Not banned, but subject to strict requirements; significant impact on health, safety, or fundamental rights (e.g., medical devices, law enforcement, critical infrastructure).

Exam Tip

Remember the 'unacceptable risk' category represents a *prohibition*, not just stricter rules. If an MCQ asks about AI systems that are *banned*, look for examples like social scoring or manipulative AI, not just those with high potential for harm.

On This Page

DefinitionHistorical BackgroundKey PointsVisual InsightsReal-World ExamplesRelated ConceptsUPSC RelevanceSource TopicFAQs

Source Topic

Navigating AI: Governments' Ethical Dilemma in Deployment and GovernancePolity & Governance

Related Concepts

United Nations
  1. Home
  2. /
  3. Concepts
  4. /
  5. Other
  6. /
  7. European Union's AI Act
Other

European Union's AI Act

What is European Union's AI Act?

छात्र, यूरोपीय संघ का AI Act दुनिया का पहला व्यापक कानून है जिसका मकसद आर्टिफिशियल इंटेलिजेंस (AI) को विनियमित करना है. इसका मुख्य उद्देश्य AI से जुड़े जोखिमों को कम करना, नागरिकों के मौलिक अधिकारों की रक्षा करना और लोकतांत्रिक मूल्यों को बनाए रखना है. यह कानून AI प्रणालियों को उनके जोखिम स्तर के आधार पर वर्गीकृत करता है—जैसे 'अस्वीकार्य जोखिम', 'उच्च जोखिम', 'सीमित जोखिम' और 'न्यूनतम जोखिम'—और फिर हर श्रेणी के लिए अलग-अलग नियम और जिम्मेदारियां तय करता है. यह सुनिश्चित करता है कि AI सिस्टम सुरक्षित, पारदर्शी और जवाबदेह हों, खासकर उन क्षेत्रों में जहां उनका मानव जीवन और समाज पर बड़ा प्रभाव पड़ सकता है. यह कानून AI के अंधाधुंध उपयोग को रोकने और एक भरोसेमंद AI पारिस्थितिकी तंत्र बनाने की दिशा में एक महत्वपूर्ण कदम है.

Historical Background

इस कानून की जड़ें AI के तेजी से विकास और इससे उत्पन्न होने वाली नैतिक चिंताओं में हैं. यूरोपीय आयोग ने सबसे पहले 2020 में AI पर एक श्वेत पत्र जारी किया था, जिसमें AI के लिए एक यूरोपीय दृष्टिकोण की रूपरेखा तैयार की गई थी. इसके बाद, अप्रैल 2021 में, आयोग ने औपचारिक रूप से AI Act का प्रस्ताव रखा. इसका मुख्य कारण यह था कि AI तकनीकें जैसे फेशियल रिकॉग्निशन, प्रेडिक्टिव पुलिसिंग और ऑटोमेटेड डिसीजन-मेकिंग बिना किसी स्पष्ट कानूनी ढांचे के विकसित हो रही थीं, जिससे गोपनीयता, भेदभाव और मानवाधिकारों के उल्लंघन का खतरा बढ़ रहा था. यूरोपीय संघ, जिसने पहले ही GDPR (जनरल डेटा प्रोटेक्शन रेगुलेशन) के साथ डेटा गोपनीयता में वैश्विक मानक स्थापित किया था, AI के लिए भी एक मजबूत नियामक ढांचा चाहता था. कई वर्षों की बातचीत और संशोधनों के बाद, यूरोपीय संसद और परिषद के बीच दिसंबर 2023 में एक अनंतिम समझौता हुआ, और अंततः इसे 2024 में औपचारिक रूप से अपनाया गया. यह कानून AI के विनियमन में एक वैश्विक मिसाल कायम करने का प्रयास करता है.

Key Points

12 points
  • 1.

    यह कानून एक जोखिम-आधारित दृष्टिकोण अपनाता है, जिसका मतलब है कि AI सिस्टम को उनके संभावित नुकसान के आधार पर चार श्रेणियों में बांटा गया है: अस्वीकार्य जोखिम, उच्च जोखिम, सीमित जोखिम और न्यूनतम जोखिम. यह वर्गीकरण ही तय करता है कि किसी AI सिस्टम पर कितने सख्त नियम लागू होंगे. उदाहरण के लिए, एक साधारण स्पैम फिल्टर पर बहुत कम नियम लागू होंगे, जबकि एक मेडिकल डायग्नोसिस AI पर बहुत सख्त नियम होंगे.

  • 2.

    कुछ AI प्रणालियों को 'अस्वीकार्य जोखिम' वाली श्रेणी में रखा गया है और उन्हें पूरी तरह से प्रतिबंधित कर दिया गया है. इनमें ऐसी प्रणालियाँ शामिल हैं जो लोगों के व्यवहार को प्रभावित करने के लिए 'सब्लिमिनल तकनीकों' का उपयोग करती हैं, या सरकारी 'सोशल स्कोरिंग' सिस्टम जो नागरिकों को उनके सामाजिक व्यवहार के आधार पर रैंक करते हैं. यह प्रावधान नागरिकों के मौलिक अधिकारों और लोकतांत्रिक मूल्यों की रक्षा के लिए है.

  • 3.

    उच्च-जोखिम AI सिस्टम वे हैं जो लोगों के स्वास्थ्य, सुरक्षा या मौलिक अधिकारों को महत्वपूर्ण रूप से प्रभावित कर सकते हैं. इनमें चिकित्सा उपकरण, महत्वपूर्ण बुनियादी ढांचे का प्रबंधन करने वाले सिस्टम, भर्ती या शिक्षा में उपयोग होने वाले AI, कानून प्रवर्तन और प्रवासन प्रबंधन में उपयोग होने वाले AI शामिल हैं. इन प्रणालियों पर सबसे सख्त नियम लागू होते हैं क्योंकि इनकी गलतियों का गंभीर परिणाम हो सकता है.

Visual Insights

EU AI Act: विकास यात्रा

यूरोपीय संघ के AI कानून (AI Act) के विकास और लागू होने की महत्वपूर्ण तिथियां और चरण।

AI के तेजी से विकास और इससे उत्पन्न होने वाली नैतिक चिंताओं के जवाब में, यूरोपीय संघ ने AI के लिए एक मजबूत नियामक ढांचा बनाने का बीड़ा उठाया। GDPR के साथ डेटा गोपनीयता में वैश्विक मानक स्थापित करने के बाद, EU AI के विनियमन में भी एक मिसाल कायम करना चाहता था, जिससे यह सुनिश्चित हो सके कि तकनीक सुरक्षित, पारदर्शी और जवाबदेह हो।

  • 2020यूरोपीय आयोग ने AI पर श्वेत पत्र जारी किया, AI के लिए यूरोपीय दृष्टिकोण की रूपरेखा तैयार की।
  • April 2021यूरोपीय आयोग ने औपचारिक रूप से AI Act का प्रस्ताव रखा।
  • December 2023यूरोपीय संसद और परिषद के बीच AI Act पर अनंतिम राजनीतिक समझौता हुआ, जिसमें जनरल-पर्पस AI मॉडल के लिए नए नियम शामिल थे।
  • March 2024यूरोपीय संसद ने भारी बहुमत से AI Act को औपचारिक मंजूरी दी।
  • May 2024यूरोपीय संघ की परिषद ने AI Act को अंतिम मंजूरी दी, जिससे यह यूरोपीय संघ का कानून बन गया।
  • 2024 (Publication)कानून यूरोपीय संघ के आधिकारिक जर्नल में प्रकाशन के 20 दिन बाद लागू होगा।
  • 2025-2027 (Full Application)कानून के विभिन्न प्रावधानों को पूरी तरह से लागू होने में 6 से 36 महीने लगेंगे, जिससे व्यवसायों को अनुपालन के लिए पर्याप्त समय मिलेगा।

Recent Real-World Examples

1 examples

Illustrated in 1 real-world examples from Mar 2026 to Mar 2026

Navigating AI: Governments' Ethical Dilemma in Deployment and Governance

20 Mar 2026

यह खबर AI के नैतिक और व्यावहारिक चुनौतियों पर प्रकाश डालती है, और यूरोपीय संघ का AI कानून ठीक इसी समस्या का एक नीतिगत समाधान प्रस्तुत करता है. यह कानून दिखाता है कि कैसे एक प्रमुख वैश्विक शक्ति AI के 'अंधाधुंध अपनाने' के बजाय एक संरचित और जोखिम-आधारित दृष्टिकोण अपना रही है. यह खबर इस बात पर जोर देती है कि AI तैनाती में 'सार्वजनिक हित और लोकतांत्रिक मूल्यों' को प्राथमिकता दी जानी चाहिए, और AI कानून इसी सिद्धांत पर आधारित है, जो मौलिक अधिकारों की रक्षा और पारदर्शिता को अनिवार्य करता है. यह कानून इस बात का एक व्यावहारिक उदाहरण है कि सरकारें 'सावधानी, जवाबदेही और स्पष्ट उद्देश्यों' को कैसे लागू कर सकती हैं, जैसा कि खबर में विशेषज्ञों ने सुझाया है. यह हमें यह भी बताता है कि AI विनियमन एक जटिल प्रक्रिया है, जिसमें 'फाउंडेशनल कैपेबिलिटीज' के लिए निजी कंपनियों पर अत्यधिक निर्भरता से बचने की आवश्यकता है, और AI कानून GPAI मॉडल पर नियम लगाकर इसे संबोधित करता है. इस कानून को समझना महत्वपूर्ण है क्योंकि यह हमें दिखाता है कि कैसे नीति निर्माता तकनीकी प्रगति के साथ आने वाली नैतिक और सामाजिक चुनौतियों का सामना कर रहे हैं, और यह वैश्विक AI शासन के लिए एक बेंचमार्क स्थापित कर सकता है.

Related Concepts

United Nations

Source Topic

Navigating AI: Governments' Ethical Dilemma in Deployment and Governance

Polity & Governance

UPSC Relevance

छात्रों, यूरोपीय संघ का AI कानून UPSC परीक्षा के लिए बहुत महत्वपूर्ण है, खासकर GS-2 (शासन, अंतर्राष्ट्रीय संबंध) और GS-3 (विज्ञान और प्रौद्योगिकी, अर्थव्यवस्था) के पेपर में. प्रीलिम्स में, आपसे इसके प्रमुख प्रावधानों, जैसे 'जोखिम-आधारित दृष्टिकोण', 'प्रतिबंधित AI प्रणालियाँ', या 'जुर्माने' के बारे में सीधे सवाल पूछे जा सकते हैं. यह भी पूछा जा सकता है कि यह दुनिया का पहला ऐसा कानून है या नहीं. मेन्स में, यह कानून AI के नैतिक आयामों, AI शासन के वैश्विक प्रयासों, और भारत के लिए इसके निहितार्थों पर निबंध या विश्लेषणात्मक प्रश्नों का आधार बन सकता है. आपसे पूछा जा सकता है कि यह कानून नवाचार और विनियमन के बीच संतुलन कैसे बनाता है, या यह भारत की AI रणनीति को कैसे प्रभावित कर सकता है. हाल के वर्षों में AI और डेटा गवर्नेंस पर लगातार सवाल पूछे गए हैं, इसलिए इस कानून को गहराई से समझना आपको एक बढ़त देगा. आपको यह भी देखना होगा कि भारत AI विनियमन पर क्या कदम उठा रहा है और उसकी तुलना यूरोपीय संघ के दृष्टिकोण से कैसे की जा सकती है.
❓

Frequently Asked Questions

6
1. The EU AI Act categorizes AI systems based on risk. What is the critical difference between an 'unacceptable risk' and a 'high-risk' AI system, and why is this distinction a common MCQ trap?

'Unacceptable risk' AI systems are those considered a clear threat to people's safety, livelihoods, and fundamental rights, and are therefore outright banned. Examples include AI used for subliminal manipulation or government social scoring. 'High-risk' AI systems, on the other hand, are not banned but are subject to very strict requirements because they can significantly impact health, safety, or fundamental rights. These include AI in critical infrastructure, medical devices, or law enforcement. The trap lies in confusing outright prohibition with stringent regulation; many students might assume all harmful AI is simply 'high-risk' rather than recognizing the 'unacceptable' category for complete bans.

  • •Unacceptable Risk: Outright banned; poses clear threat to fundamental rights (e.g., subliminal techniques, social scoring).
  • •High Risk: Not banned, but subject to strict requirements; significant impact on health, safety, or fundamental rights (e.g., medical devices, law enforcement, critical infrastructure).

Exam Tip

Remember the 'unacceptable risk' category represents a *prohibition*, not just stricter rules. If an MCQ asks about AI systems that are *banned*, look for examples like social scoring or manipulative AI, not just those with high potential for harm.

On This Page

DefinitionHistorical BackgroundKey PointsVisual InsightsReal-World ExamplesRelated ConceptsUPSC RelevanceSource TopicFAQs

Source Topic

Navigating AI: Governments' Ethical Dilemma in Deployment and GovernancePolity & Governance

Related Concepts

United Nations
  • 4.

    उच्च-जोखिम AI सिस्टम को बाजार में लाने से पहले कई सख्त आवश्यकताओं का पालन करना होता है. इनमें एक मजबूत जोखिम प्रबंधन प्रणाली स्थापित करना, उच्च गुणवत्ता वाले डेटा का उपयोग करना, मानव पर्यवेक्षण सुनिश्चित करना, तकनीकी दस्तावेज़ीकरण प्रदान करना, और साइबर सुरक्षा उपायों को लागू करना शामिल है. इसका उद्देश्य यह सुनिश्चित करना है कि ये सिस्टम विश्वसनीय और सुरक्षित हों.

  • 5.

    कानून में पारदर्शिता दायित्व भी शामिल हैं. इसका मतलब है कि AI सिस्टम के उपयोगकर्ताओं को यह पता होना चाहिए कि वे AI के साथ बातचीत कर रहे हैं. उदाहरण के लिए, अगर आप किसी चैटबॉट से बात कर रहे हैं, तो उसे यह बताना होगा कि वह एक AI है. इसी तरह, 'डीपफेक' या AI-जनित छवियों और वीडियो को स्पष्ट रूप से लेबल किया जाना चाहिए ताकि लोग असली और नकली में अंतर कर सकें.

  • 6.

    जनरल-पर्पस AI (GPAI) मॉडल, जैसे कि OpenAI का GPT-4 या Google का Gemini, के लिए भी विशेष नियम बनाए गए हैं. ये नियम सुनिश्चित करते हैं कि इन शक्तिशाली मॉडलों को बाजार में लाने वाले डेवलपर्स को पारदर्शिता आवश्यकताओं का पालन करना होगा, तकनीकी दस्तावेज उपलब्ध कराने होंगे और यूरोपीय संघ के कॉपीराइट कानून का सम्मान करना होगा. यह प्रावधान AI के सबसे उन्नत रूपों को भी जवाबदेही के दायरे में लाता है.

  • 7.

    कानून में नियामक सैंडबॉक्स का प्रावधान है, जो सदस्य देशों को एक नियंत्रित वातावरण में अभिनव AI प्रणालियों का परीक्षण करने की अनुमति देता है. इसका मतलब है कि स्टार्टअप और छोटे व्यवसायों को पूर्ण नियामक अनुपालन के बिना अपने AI उत्पादों का नवाचार और परीक्षण करने का अवसर मिलता है, जिससे यूरोपीय संघ में AI नवाचार को बढ़ावा मिलता है.

  • 8.

    गैर-अनुपालन के लिए कड़े जुर्माने का प्रावधान है. उदाहरण के लिए, प्रतिबंधित AI प्रणालियों का उपयोग करने पर वैश्विक वार्षिक कारोबार का 7% या €35 मिलियन तक का जुर्माना लग सकता है, जो भी अधिक हो. यह जुर्माना AI डेवलपर्स और उपयोगकर्ताओं को नियमों का गंभीरता से पालन करने के लिए प्रेरित करता है.

  • 9.

    उच्च-जोखिम AI प्रणालियों को तैनात करने से पहले उनके मौलिक अधिकारों पर प्रभाव का आकलन करना अनिवार्य है. इसका मतलब है कि AI सिस्टम को यह जांचना होगा कि वे गोपनीयता, भेदभाव-रहितता, या अभिव्यक्ति की स्वतंत्रता जैसे अधिकारों का उल्लंघन तो नहीं कर रहे हैं. उदाहरण के लिए, एक भर्ती AI को यह सुनिश्चित करना होगा कि वह किसी विशेष लिंग या जाति के खिलाफ पूर्वाग्रह न पैदा करे.

  • 10.

    व्यक्तियों को उच्च-जोखिम AI प्रणालियों द्वारा लिए गए निर्णयों के बारे में स्पष्टीकरण का अधिकार है. यदि किसी व्यक्ति को AI के कारण कोई नुकसान होता है या कोई महत्वपूर्ण निर्णय (जैसे ऋण आवेदन अस्वीकृत होना) AI द्वारा लिया जाता है, तो वह उस निर्णय के पीछे के तर्क को समझने का अनुरोध कर सकता है. यह पारदर्शिता और जवाबदेही सुनिश्चित करता है.

  • 11.

    कानून में बाजार निगरानी और पोस्ट-मार्केट मॉनिटरिंग के प्रावधान भी हैं. इसका मतलब है कि एक बार जब AI सिस्टम बाजार में आ जाते हैं, तो अधिकारियों को उनकी लगातार निगरानी करनी होगी ताकि यह सुनिश्चित किया जा सके कि वे नियमों का पालन कर रहे हैं और कोई नया जोखिम पैदा नहीं कर रहे हैं. यदि कोई समस्या पाई जाती है, तो अधिकारी हस्तक्षेप कर सकते हैं.

  • 12.

    यह कानून केवल विनियमन पर ही केंद्रित नहीं है, बल्कि यूरोपीय संघ में AI नवाचार को बढ़ावा देने का भी लक्ष्य रखता है. नियामक सैंडबॉक्स और छोटे व मध्यम उद्यमों (SMEs) के लिए समर्थन जैसे प्रावधान यह सुनिश्चित करते हैं कि सुरक्षा और नैतिकता के साथ-साथ नवाचार भी फलता-फूलता रहे. यह एक संतुलित दृष्टिकोण है.

  • EU AI Act: मुख्य प्रावधान और प्रभाव

    यूरोपीय संघ के AI Act के प्रमुख प्रावधानों और उनके प्रभावों को दर्शाता है, जो AI विनियमन के लिए एक जोखिम-आधारित दृष्टिकोण प्रस्तुत करता है।

    EU AI Act

    • ●जोखिम-आधारित वर्गीकरण
    • ●प्रमुख नियम
    • ●कार्यान्वयन और दंड
    • ●नवाचार और अधिकार

    EU AI Act: प्रमुख दंड और समय-सीमा

    EU AI Act के तहत गैर-अनुपालन के लिए निर्धारित अधिकतम जुर्माने और कानून के पूर्ण कार्यान्वयन की समय-सीमा को दर्शाता है।

    प्रतिबंधित AI के उल्लंघन पर अधिकतम जुर्माना
    €35 मिलियन या वैश्विक वार्षिक कारोबार का 7%

    यह AI डेवलपर्स और उपयोगकर्ताओं को कानून का गंभीरता से पालन करने के लिए प्रेरित करता है, खासकर उन AI प्रणालियों के लिए जो मौलिक अधिकारों का उल्लंघन कर सकती हैं।

    उच्च-जोखिम AI के उल्लंघन पर अधिकतम जुर्माना
    €15 मिलियन या वैश्विक वार्षिक कारोबार का 3%

    उच्च-जोखिम वाले AI सिस्टम के लिए सख्त अनुपालन सुनिश्चित करता है, जो स्वास्थ्य, सुरक्षा और मौलिक अधिकारों पर महत्वपूर्ण प्रभाव डाल सकते हैं।

    कानून के पूर्ण कार्यान्वयन की समय-सीमा
    6 से 36 महीने

    यह व्यवसायों और सदस्य देशों को नए नियमों के अनुकूल होने और अनुपालन प्रणालियों को स्थापित करने के लिए पर्याप्त समय प्रदान करता है।

    2. The EU AI Act's implementation has a staggered timeline. What are the key phases of its enforcement, and what aspect of this timeline could be a potential pitfall in a Prelims MCQ?

    The EU AI Act officially enters into force 20 days after its publication in the Official Journal. However, its various provisions will be applied gradually over a longer period. Prohibitions on unacceptable AI systems will apply after 6 months, codes of practice after 9 months, rules on General-Purpose AI (GPAI) after 12 months, and most other provisions, including obligations for high-risk AI systems, will apply after 24 months. Some specific provisions might even take up to 36 months. The pitfall in an MCQ is assuming immediate full enforcement; the Act is a living document with a phased rollout.

    • •Entry into force: 20 days after publication.
    • •Prohibitions (unacceptable risk AI): 6 months.
    • •Codes of practice: 9 months.
    • •Rules for General-Purpose AI (GPAI): 12 months.
    • •Most other provisions (e.g., high-risk AI): 24 months.
    • •Some specific provisions: Up to 36 months.

    Exam Tip

    Do not confuse the date of 'entry into force' with the date when all provisions become fully 'applicable'. UPSC often tests the nuances of implementation timelines for major legislation. Pay attention to the specific timeframes for different categories of provisions.

    3. How does the EU AI Act specifically address the challenges posed by General-Purpose AI (GPAI) models like GPT-4, and how does this go beyond the scope of existing data protection laws like GDPR?

    The EU AI Act introduces specific rules for GPAI models because their broad capabilities and potential for misuse were not adequately covered by earlier regulations. Unlike GDPR, which focuses on personal data protection, the AI Act mandates transparency, technical documentation, and compliance with EU copyright law for GPAI developers. It recognizes that GPAI models, due to their foundational nature, can be integrated into various applications, potentially creating new, unforeseen risks that go beyond data privacy to encompass issues like misinformation, bias, and systemic risks. GDPR regulates *what* data is used and *how*, while the AI Act regulates *how* the AI system itself, especially foundational models, is developed, deployed, and made accountable.

    Exam Tip

    When comparing the AI Act with GDPR, remember GDPR is about *data protection* (the input/output data), while the AI Act is about *AI system regulation* (the algorithm and its application), especially for powerful GPAI models that can be used in many contexts.

    4. Beyond regulatory compliance for businesses, how will the EU AI Act's transparency obligations, particularly regarding deepfakes and AI interaction, directly change the daily digital experience for an average EU citizen?

    For the average EU citizen, the AI Act's transparency obligations mean a significant increase in clarity and trust in their digital interactions. They will be explicitly informed when interacting with an AI system, such as a chatbot, rather than a human. More importantly, any AI-generated content, like deepfake images or videos, will need to be clearly labeled. This aims to empower citizens to distinguish between real and AI-generated content, combating misinformation and ensuring they are aware of the artificial nature of certain digital experiences. It reduces the risk of manipulation and enhances digital literacy by making the presence of AI explicit.

    5. What fundamental societal problems or ethical concerns, particularly those arising from AI's rapid advancement, did the EU AI Act primarily aim to resolve that existing legal frameworks struggled to address?

    The EU AI Act primarily aims to address the societal problems of potential harm to fundamental rights, lack of accountability, and erosion of democratic values stemming from unregulated AI. Existing laws, like data protection regulations, were insufficient because AI's impact extends beyond data privacy to issues like algorithmic bias in hiring, discriminatory facial recognition, predictive policing, and automated decision-making without human oversight. The Act seeks to ensure that AI development is human-centric, trustworthy, and respects European values by proactively mitigating these risks, establishing clear responsibilities, and fostering public trust in AI technologies.

    • •Protection of Fundamental Rights: Addressing risks like algorithmic bias, discrimination, and privacy invasion by AI systems.
    • •Accountability Gap: Establishing clear responsibilities for developers and deployers of AI, especially for high-risk applications.
    • •Erosion of Democratic Values: Preventing misuse of AI for social scoring, manipulative practices, or undermining democratic processes.
    • •Lack of Trust: Building public confidence in AI by ensuring transparency, human oversight, and safety.
    6. Critics argue that the EU AI Act's stringent regulations, especially for high-risk AI and GPAI, could stifle innovation in Europe. How would you, as an analyst, balance this concern with the Act's goals, and what lessons might India consider for its own AI regulatory framework?

    As an analyst, I'd acknowledge the valid concern that stringent regulation can indeed increase compliance costs and potentially slow down innovation, especially for startups. However, the Act's proponents argue that 'responsible innovation' is the goal, where trust and safety are prerequisites for long-term growth and public acceptance of AI. The regulatory sandboxes are a direct attempt to balance this by allowing innovation in a controlled environment. For India, the lesson is to find a similar balance, perhaps by adopting a risk-based approach tailored to India's unique socio-economic context, focusing on critical sectors first, and fostering a collaborative environment between regulators, industry, and academia. India could also explore a 'light-touch' regulatory approach for low-risk AI to encourage broader adoption while maintaining strict oversight for high-impact applications, learning from both the EU's comprehensive approach and the US's more industry-led guidelines.

  • 4.

    उच्च-जोखिम AI सिस्टम को बाजार में लाने से पहले कई सख्त आवश्यकताओं का पालन करना होता है. इनमें एक मजबूत जोखिम प्रबंधन प्रणाली स्थापित करना, उच्च गुणवत्ता वाले डेटा का उपयोग करना, मानव पर्यवेक्षण सुनिश्चित करना, तकनीकी दस्तावेज़ीकरण प्रदान करना, और साइबर सुरक्षा उपायों को लागू करना शामिल है. इसका उद्देश्य यह सुनिश्चित करना है कि ये सिस्टम विश्वसनीय और सुरक्षित हों.

  • 5.

    कानून में पारदर्शिता दायित्व भी शामिल हैं. इसका मतलब है कि AI सिस्टम के उपयोगकर्ताओं को यह पता होना चाहिए कि वे AI के साथ बातचीत कर रहे हैं. उदाहरण के लिए, अगर आप किसी चैटबॉट से बात कर रहे हैं, तो उसे यह बताना होगा कि वह एक AI है. इसी तरह, 'डीपफेक' या AI-जनित छवियों और वीडियो को स्पष्ट रूप से लेबल किया जाना चाहिए ताकि लोग असली और नकली में अंतर कर सकें.

  • 6.

    जनरल-पर्पस AI (GPAI) मॉडल, जैसे कि OpenAI का GPT-4 या Google का Gemini, के लिए भी विशेष नियम बनाए गए हैं. ये नियम सुनिश्चित करते हैं कि इन शक्तिशाली मॉडलों को बाजार में लाने वाले डेवलपर्स को पारदर्शिता आवश्यकताओं का पालन करना होगा, तकनीकी दस्तावेज उपलब्ध कराने होंगे और यूरोपीय संघ के कॉपीराइट कानून का सम्मान करना होगा. यह प्रावधान AI के सबसे उन्नत रूपों को भी जवाबदेही के दायरे में लाता है.

  • 7.

    कानून में नियामक सैंडबॉक्स का प्रावधान है, जो सदस्य देशों को एक नियंत्रित वातावरण में अभिनव AI प्रणालियों का परीक्षण करने की अनुमति देता है. इसका मतलब है कि स्टार्टअप और छोटे व्यवसायों को पूर्ण नियामक अनुपालन के बिना अपने AI उत्पादों का नवाचार और परीक्षण करने का अवसर मिलता है, जिससे यूरोपीय संघ में AI नवाचार को बढ़ावा मिलता है.

  • 8.

    गैर-अनुपालन के लिए कड़े जुर्माने का प्रावधान है. उदाहरण के लिए, प्रतिबंधित AI प्रणालियों का उपयोग करने पर वैश्विक वार्षिक कारोबार का 7% या €35 मिलियन तक का जुर्माना लग सकता है, जो भी अधिक हो. यह जुर्माना AI डेवलपर्स और उपयोगकर्ताओं को नियमों का गंभीरता से पालन करने के लिए प्रेरित करता है.

  • 9.

    उच्च-जोखिम AI प्रणालियों को तैनात करने से पहले उनके मौलिक अधिकारों पर प्रभाव का आकलन करना अनिवार्य है. इसका मतलब है कि AI सिस्टम को यह जांचना होगा कि वे गोपनीयता, भेदभाव-रहितता, या अभिव्यक्ति की स्वतंत्रता जैसे अधिकारों का उल्लंघन तो नहीं कर रहे हैं. उदाहरण के लिए, एक भर्ती AI को यह सुनिश्चित करना होगा कि वह किसी विशेष लिंग या जाति के खिलाफ पूर्वाग्रह न पैदा करे.

  • 10.

    व्यक्तियों को उच्च-जोखिम AI प्रणालियों द्वारा लिए गए निर्णयों के बारे में स्पष्टीकरण का अधिकार है. यदि किसी व्यक्ति को AI के कारण कोई नुकसान होता है या कोई महत्वपूर्ण निर्णय (जैसे ऋण आवेदन अस्वीकृत होना) AI द्वारा लिया जाता है, तो वह उस निर्णय के पीछे के तर्क को समझने का अनुरोध कर सकता है. यह पारदर्शिता और जवाबदेही सुनिश्चित करता है.

  • 11.

    कानून में बाजार निगरानी और पोस्ट-मार्केट मॉनिटरिंग के प्रावधान भी हैं. इसका मतलब है कि एक बार जब AI सिस्टम बाजार में आ जाते हैं, तो अधिकारियों को उनकी लगातार निगरानी करनी होगी ताकि यह सुनिश्चित किया जा सके कि वे नियमों का पालन कर रहे हैं और कोई नया जोखिम पैदा नहीं कर रहे हैं. यदि कोई समस्या पाई जाती है, तो अधिकारी हस्तक्षेप कर सकते हैं.

  • 12.

    यह कानून केवल विनियमन पर ही केंद्रित नहीं है, बल्कि यूरोपीय संघ में AI नवाचार को बढ़ावा देने का भी लक्ष्य रखता है. नियामक सैंडबॉक्स और छोटे व मध्यम उद्यमों (SMEs) के लिए समर्थन जैसे प्रावधान यह सुनिश्चित करते हैं कि सुरक्षा और नैतिकता के साथ-साथ नवाचार भी फलता-फूलता रहे. यह एक संतुलित दृष्टिकोण है.

  • EU AI Act: मुख्य प्रावधान और प्रभाव

    यूरोपीय संघ के AI Act के प्रमुख प्रावधानों और उनके प्रभावों को दर्शाता है, जो AI विनियमन के लिए एक जोखिम-आधारित दृष्टिकोण प्रस्तुत करता है।

    EU AI Act

    • ●जोखिम-आधारित वर्गीकरण
    • ●प्रमुख नियम
    • ●कार्यान्वयन और दंड
    • ●नवाचार और अधिकार

    EU AI Act: प्रमुख दंड और समय-सीमा

    EU AI Act के तहत गैर-अनुपालन के लिए निर्धारित अधिकतम जुर्माने और कानून के पूर्ण कार्यान्वयन की समय-सीमा को दर्शाता है।

    प्रतिबंधित AI के उल्लंघन पर अधिकतम जुर्माना
    €35 मिलियन या वैश्विक वार्षिक कारोबार का 7%

    यह AI डेवलपर्स और उपयोगकर्ताओं को कानून का गंभीरता से पालन करने के लिए प्रेरित करता है, खासकर उन AI प्रणालियों के लिए जो मौलिक अधिकारों का उल्लंघन कर सकती हैं।

    उच्च-जोखिम AI के उल्लंघन पर अधिकतम जुर्माना
    €15 मिलियन या वैश्विक वार्षिक कारोबार का 3%

    उच्च-जोखिम वाले AI सिस्टम के लिए सख्त अनुपालन सुनिश्चित करता है, जो स्वास्थ्य, सुरक्षा और मौलिक अधिकारों पर महत्वपूर्ण प्रभाव डाल सकते हैं।

    कानून के पूर्ण कार्यान्वयन की समय-सीमा
    6 से 36 महीने

    यह व्यवसायों और सदस्य देशों को नए नियमों के अनुकूल होने और अनुपालन प्रणालियों को स्थापित करने के लिए पर्याप्त समय प्रदान करता है।

    2. The EU AI Act's implementation has a staggered timeline. What are the key phases of its enforcement, and what aspect of this timeline could be a potential pitfall in a Prelims MCQ?

    The EU AI Act officially enters into force 20 days after its publication in the Official Journal. However, its various provisions will be applied gradually over a longer period. Prohibitions on unacceptable AI systems will apply after 6 months, codes of practice after 9 months, rules on General-Purpose AI (GPAI) after 12 months, and most other provisions, including obligations for high-risk AI systems, will apply after 24 months. Some specific provisions might even take up to 36 months. The pitfall in an MCQ is assuming immediate full enforcement; the Act is a living document with a phased rollout.

    • •Entry into force: 20 days after publication.
    • •Prohibitions (unacceptable risk AI): 6 months.
    • •Codes of practice: 9 months.
    • •Rules for General-Purpose AI (GPAI): 12 months.
    • •Most other provisions (e.g., high-risk AI): 24 months.
    • •Some specific provisions: Up to 36 months.

    Exam Tip

    Do not confuse the date of 'entry into force' with the date when all provisions become fully 'applicable'. UPSC often tests the nuances of implementation timelines for major legislation. Pay attention to the specific timeframes for different categories of provisions.

    3. How does the EU AI Act specifically address the challenges posed by General-Purpose AI (GPAI) models like GPT-4, and how does this go beyond the scope of existing data protection laws like GDPR?

    The EU AI Act introduces specific rules for GPAI models because their broad capabilities and potential for misuse were not adequately covered by earlier regulations. Unlike GDPR, which focuses on personal data protection, the AI Act mandates transparency, technical documentation, and compliance with EU copyright law for GPAI developers. It recognizes that GPAI models, due to their foundational nature, can be integrated into various applications, potentially creating new, unforeseen risks that go beyond data privacy to encompass issues like misinformation, bias, and systemic risks. GDPR regulates *what* data is used and *how*, while the AI Act regulates *how* the AI system itself, especially foundational models, is developed, deployed, and made accountable.

    Exam Tip

    When comparing the AI Act with GDPR, remember GDPR is about *data protection* (the input/output data), while the AI Act is about *AI system regulation* (the algorithm and its application), especially for powerful GPAI models that can be used in many contexts.

    4. Beyond regulatory compliance for businesses, how will the EU AI Act's transparency obligations, particularly regarding deepfakes and AI interaction, directly change the daily digital experience for an average EU citizen?

    For the average EU citizen, the AI Act's transparency obligations mean a significant increase in clarity and trust in their digital interactions. They will be explicitly informed when interacting with an AI system, such as a chatbot, rather than a human. More importantly, any AI-generated content, like deepfake images or videos, will need to be clearly labeled. This aims to empower citizens to distinguish between real and AI-generated content, combating misinformation and ensuring they are aware of the artificial nature of certain digital experiences. It reduces the risk of manipulation and enhances digital literacy by making the presence of AI explicit.

    5. What fundamental societal problems or ethical concerns, particularly those arising from AI's rapid advancement, did the EU AI Act primarily aim to resolve that existing legal frameworks struggled to address?

    The EU AI Act primarily aims to address the societal problems of potential harm to fundamental rights, lack of accountability, and erosion of democratic values stemming from unregulated AI. Existing laws, like data protection regulations, were insufficient because AI's impact extends beyond data privacy to issues like algorithmic bias in hiring, discriminatory facial recognition, predictive policing, and automated decision-making without human oversight. The Act seeks to ensure that AI development is human-centric, trustworthy, and respects European values by proactively mitigating these risks, establishing clear responsibilities, and fostering public trust in AI technologies.

    • •Protection of Fundamental Rights: Addressing risks like algorithmic bias, discrimination, and privacy invasion by AI systems.
    • •Accountability Gap: Establishing clear responsibilities for developers and deployers of AI, especially for high-risk applications.
    • •Erosion of Democratic Values: Preventing misuse of AI for social scoring, manipulative practices, or undermining democratic processes.
    • •Lack of Trust: Building public confidence in AI by ensuring transparency, human oversight, and safety.
    6. Critics argue that the EU AI Act's stringent regulations, especially for high-risk AI and GPAI, could stifle innovation in Europe. How would you, as an analyst, balance this concern with the Act's goals, and what lessons might India consider for its own AI regulatory framework?

    As an analyst, I'd acknowledge the valid concern that stringent regulation can indeed increase compliance costs and potentially slow down innovation, especially for startups. However, the Act's proponents argue that 'responsible innovation' is the goal, where trust and safety are prerequisites for long-term growth and public acceptance of AI. The regulatory sandboxes are a direct attempt to balance this by allowing innovation in a controlled environment. For India, the lesson is to find a similar balance, perhaps by adopting a risk-based approach tailored to India's unique socio-economic context, focusing on critical sectors first, and fostering a collaborative environment between regulators, industry, and academia. India could also explore a 'light-touch' regulatory approach for low-risk AI to encourage broader adoption while maintaining strict oversight for high-impact applications, learning from both the EU's comprehensive approach and the US's more industry-led guidelines.