Skip to main content
GKSolverGKSolver
HomeExam NewsMCQsMainsUPSC Prep
Login
Menu
Daily
HomeDaily NewsExam NewsStudy Plan
Practice
Essential MCQsEssential MainsUPSC PrepBookmarks
Browse
EditorialsStory ThreadsTrending
Home
Daily
MCQs
Saved
News

© 2025 GKSolver. Free AI-powered UPSC preparation platform.

AboutContactPrivacyTermsDisclaimer
GKSolverGKSolver
HomeExam NewsMCQsMainsUPSC Prep
Login
Menu
Daily
HomeDaily NewsExam NewsStudy Plan
Practice
Essential MCQsEssential MainsUPSC PrepBookmarks
Browse
EditorialsStory ThreadsTrending
Home
Daily
MCQs
Saved
News

© 2025 GKSolver. Free AI-powered UPSC preparation platform.

AboutContactPrivacyTermsDisclaimer
6 minOther

EU AI Act: विकास यात्रा

यूरोपीय संघ के AI कानून (AI Act) के विकास और लागू होने की महत्वपूर्ण तिथियां और चरण।

EU AI Act: मुख्य प्रावधान और प्रभाव

यूरोपीय संघ के AI Act के प्रमुख प्रावधानों और उनके प्रभावों को दर्शाता है, जो AI विनियमन के लिए एक जोखिम-आधारित दृष्टिकोण प्रस्तुत करता है।

EU AI Act: प्रमुख दंड और समय-सीमा

EU AI Act के तहत गैर-अनुपालन के लिए निर्धारित अधिकतम जुर्माने और कानून के पूर्ण कार्यान्वयन की समय-सीमा को दर्शाता है।

This Concept in News

1 news topics

1

Navigating AI: Governments' Ethical Dilemma in Deployment and Governance

20 March 2026

आज की खबर AI के नैतिक दुविधाओं, जवाबदेही और सार्वजनिक हित को प्राथमिकता देने की बात करती है. यूरोपीय संघ का AI कानून सीधे इन चिंताओं को संबोधित करता है. यह कानून AI के उपयोग में सावधानी, जवाबदेही और लोकतांत्रिक मूल्यों को सुनिश्चित करने के लिए एक ठोस नियामक ढांचा प्रदान करता है. यह दिखाता है कि कैसे एक सरकार AI के अंधाधुंध अपनाने से बचने और नागरिकों के अधिकारों की रक्षा के लिए सक्रिय कदम उठा रही है, जैसा कि खबर में विशेषज्ञों ने जोर दिया है.

6 minOther

EU AI Act: विकास यात्रा

यूरोपीय संघ के AI कानून (AI Act) के विकास और लागू होने की महत्वपूर्ण तिथियां और चरण।

EU AI Act: मुख्य प्रावधान और प्रभाव

यूरोपीय संघ के AI Act के प्रमुख प्रावधानों और उनके प्रभावों को दर्शाता है, जो AI विनियमन के लिए एक जोखिम-आधारित दृष्टिकोण प्रस्तुत करता है।

EU AI Act: प्रमुख दंड और समय-सीमा

EU AI Act के तहत गैर-अनुपालन के लिए निर्धारित अधिकतम जुर्माने और कानून के पूर्ण कार्यान्वयन की समय-सीमा को दर्शाता है।

This Concept in News

1 news topics

1

Navigating AI: Governments' Ethical Dilemma in Deployment and Governance

20 March 2026

आज की खबर AI के नैतिक दुविधाओं, जवाबदेही और सार्वजनिक हित को प्राथमिकता देने की बात करती है. यूरोपीय संघ का AI कानून सीधे इन चिंताओं को संबोधित करता है. यह कानून AI के उपयोग में सावधानी, जवाबदेही और लोकतांत्रिक मूल्यों को सुनिश्चित करने के लिए एक ठोस नियामक ढांचा प्रदान करता है. यह दिखाता है कि कैसे एक सरकार AI के अंधाधुंध अपनाने से बचने और नागरिकों के अधिकारों की रक्षा के लिए सक्रिय कदम उठा रही है, जैसा कि खबर में विशेषज्ञों ने जोर दिया है.

2020

यूरोपीय आयोग ने AI पर श्वेत पत्र जारी किया, AI के लिए यूरोपीय दृष्टिकोण की रूपरेखा तैयार की।

April 2021

यूरोपीय आयोग ने औपचारिक रूप से AI Act का प्रस्ताव रखा।

December 2023

यूरोपीय संसद और परिषद के बीच AI Act पर अनंतिम राजनीतिक समझौता हुआ, जिसमें जनरल-पर्पस AI मॉडल के लिए नए नियम शामिल थे।

March 2024

यूरोपीय संसद ने भारी बहुमत से AI Act को औपचारिक मंजूरी दी।

May 2024

यूरोपीय संघ की परिषद ने AI Act को अंतिम मंजूरी दी, जिससे यह यूरोपीय संघ का कानून बन गया।

2024 (Publication)

कानून यूरोपीय संघ के आधिकारिक जर्नल में प्रकाशन के 20 दिन बाद लागू होगा।

2025-2027 (Full Application)

कानून के विभिन्न प्रावधानों को पूरी तरह से लागू होने में 6 से 36 महीने लगेंगे, जिससे व्यवसायों को अनुपालन के लिए पर्याप्त समय मिलेगा।

Connected to current news
EU AI Act

अस्वीकार्य जोखिम (प्रतिबंधित)

उच्च जोखिम (कठोर नियम)

सीमित/न्यूनतम जोखिम (कम नियम)

पारदर्शिता और जवाबदेही

जनरल-पर्पस AI (GPAI) मॉडल

मानव पर्यवेक्षण

कड़े जुर्माने

AI कार्यालय की स्थापना

नियामक सैंडबॉक्स

स्पष्टीकरण का अधिकार

Connections
जोखिम-आधारित वर्गीकरण→प्रमुख नियम
प्रमुख नियम→कार्यान्वयन और दंड
जोखिम-आधारित वर्गीकरण→नवाचार और अधिकार
प्रतिबंधित AI के उल्लंघन पर अधिकतम जुर्माना
€35 मिलियन या वैश्विक वार्षिक कारोबार का 7%

यह AI डेवलपर्स और उपयोगकर्ताओं को कानून का गंभीरता से पालन करने के लिए प्रेरित करता है, खासकर उन AI प्रणालियों के लिए जो मौलिक अधिकारों का उल्लंघन कर सकती हैं।

Data: 2024 (Act adopted)EU AI Act
उच्च-जोखिम AI के उल्लंघन पर अधिकतम जुर्माना
€15 मिलियन या वैश्विक वार्षिक कारोबार का 3%

उच्च-जोखिम वाले AI सिस्टम के लिए सख्त अनुपालन सुनिश्चित करता है, जो स्वास्थ्य, सुरक्षा और मौलिक अधिकारों पर महत्वपूर्ण प्रभाव डाल सकते हैं।

Data: 2024 (Act adopted)EU AI Act
कानून के पूर्ण कार्यान्वयन की समय-सीमा
6 से 36 महीने

यह व्यवसायों और सदस्य देशों को नए नियमों के अनुकूल होने और अनुपालन प्रणालियों को स्थापित करने के लिए पर्याप्त समय प्रदान करता है।

Data: 2024-2027EU AI Act
2020

यूरोपीय आयोग ने AI पर श्वेत पत्र जारी किया, AI के लिए यूरोपीय दृष्टिकोण की रूपरेखा तैयार की।

April 2021

यूरोपीय आयोग ने औपचारिक रूप से AI Act का प्रस्ताव रखा।

December 2023

यूरोपीय संसद और परिषद के बीच AI Act पर अनंतिम राजनीतिक समझौता हुआ, जिसमें जनरल-पर्पस AI मॉडल के लिए नए नियम शामिल थे।

March 2024

यूरोपीय संसद ने भारी बहुमत से AI Act को औपचारिक मंजूरी दी।

May 2024

यूरोपीय संघ की परिषद ने AI Act को अंतिम मंजूरी दी, जिससे यह यूरोपीय संघ का कानून बन गया।

2024 (Publication)

कानून यूरोपीय संघ के आधिकारिक जर्नल में प्रकाशन के 20 दिन बाद लागू होगा।

2025-2027 (Full Application)

कानून के विभिन्न प्रावधानों को पूरी तरह से लागू होने में 6 से 36 महीने लगेंगे, जिससे व्यवसायों को अनुपालन के लिए पर्याप्त समय मिलेगा।

Connected to current news
EU AI Act

अस्वीकार्य जोखिम (प्रतिबंधित)

उच्च जोखिम (कठोर नियम)

सीमित/न्यूनतम जोखिम (कम नियम)

पारदर्शिता और जवाबदेही

जनरल-पर्पस AI (GPAI) मॉडल

मानव पर्यवेक्षण

कड़े जुर्माने

AI कार्यालय की स्थापना

नियामक सैंडबॉक्स

स्पष्टीकरण का अधिकार

Connections
जोखिम-आधारित वर्गीकरण→प्रमुख नियम
प्रमुख नियम→कार्यान्वयन और दंड
जोखिम-आधारित वर्गीकरण→नवाचार और अधिकार
प्रतिबंधित AI के उल्लंघन पर अधिकतम जुर्माना
€35 मिलियन या वैश्विक वार्षिक कारोबार का 7%

यह AI डेवलपर्स और उपयोगकर्ताओं को कानून का गंभीरता से पालन करने के लिए प्रेरित करता है, खासकर उन AI प्रणालियों के लिए जो मौलिक अधिकारों का उल्लंघन कर सकती हैं।

Data: 2024 (Act adopted)EU AI Act
उच्च-जोखिम AI के उल्लंघन पर अधिकतम जुर्माना
€15 मिलियन या वैश्विक वार्षिक कारोबार का 3%

उच्च-जोखिम वाले AI सिस्टम के लिए सख्त अनुपालन सुनिश्चित करता है, जो स्वास्थ्य, सुरक्षा और मौलिक अधिकारों पर महत्वपूर्ण प्रभाव डाल सकते हैं।

Data: 2024 (Act adopted)EU AI Act
कानून के पूर्ण कार्यान्वयन की समय-सीमा
6 से 36 महीने

यह व्यवसायों और सदस्य देशों को नए नियमों के अनुकूल होने और अनुपालन प्रणालियों को स्थापित करने के लिए पर्याप्त समय प्रदान करता है।

Data: 2024-2027EU AI Act
  1. होम
  2. /
  3. अवधारणाएं
  4. /
  5. Other
  6. /
  7. यूरोपीय संघ का AI कानून
Other

यूरोपीय संघ का AI कानून

यूरोपीय संघ का AI कानून क्या है?

छात्र, यूरोपीय संघ का AI कानून दुनिया का पहला व्यापक कानून है जिसका मकसद आर्टिफिशियल इंटेलिजेंस (AI) को विनियमित करना है. इसका मुख्य उद्देश्य AI से जुड़े जोखिमों को कम करना, नागरिकों के मौलिक अधिकारों की रक्षा करना और लोकतांत्रिक मूल्यों को बनाए रखना है. यह कानून AI प्रणालियों को उनके जोखिम स्तर के आधार पर वर्गीकृत करता है—जैसे 'अस्वीकार्य जोखिम', 'उच्च जोखिम', 'सीमित जोखिम' और 'न्यूनतम जोखिम'—और फिर हर श्रेणी के लिए अलग-अलग नियम और जिम्मेदारियां तय करता है. यह सुनिश्चित करता है कि AI सिस्टम सुरक्षित, पारदर्शी और जवाबदेह हों, खासकर उन क्षेत्रों में जहां उनका मानव जीवन और समाज पर बड़ा प्रभाव पड़ सकता है. यह कानून AI के अंधाधुंध उपयोग को रोकने और एक भरोसेमंद AI पारिस्थितिकी तंत्र बनाने की दिशा में एक महत्वपूर्ण कदम है.

ऐतिहासिक पृष्ठभूमि

इस कानून की जड़ें AI के तेजी से विकास और इससे उत्पन्न होने वाली नैतिक चिंताओं में हैं. यूरोपीय आयोग ने सबसे पहले 2020 में AI पर एक श्वेत पत्र जारी किया था, जिसमें AI के लिए एक यूरोपीय दृष्टिकोण की रूपरेखा तैयार की गई थी. इसके बाद, अप्रैल 2021 में, आयोग ने औपचारिक रूप से AI कानून का प्रस्ताव रखा. इसका मुख्य कारण यह था कि AI तकनीकें जैसे फेशियल रिकॉग्निशन, प्रेडिक्टिव पुलिसिंग और ऑटोमेटेड डिसीजन-मेकिंग बिना किसी स्पष्ट कानूनी ढांचे के विकसित हो रही थीं, जिससे गोपनीयता, भेदभाव और मानवाधिकारों के उल्लंघन का खतरा बढ़ रहा था. यूरोपीय संघ, जिसने पहले ही GDPR (जनरल डेटा प्रोटेक्शन रेगुलेशन) के साथ डेटा गोपनीयता में वैश्विक मानक स्थापित किया था, AI के लिए भी एक मजबूत नियामक ढांचा चाहता था. कई वर्षों की बातचीत और संशोधनों के बाद, यूरोपीय संसद और परिषद के बीच दिसंबर 2023 में एक अनंतिम समझौता हुआ, और अंततः इसे 2024 में औपचारिक रूप से अपनाया गया. यह कानून AI के विनियमन में एक वैश्विक मिसाल कायम करने का प्रयास करता है.

मुख्य प्रावधान

12 points
  • 1.

    यह कानून एक जोखिम-आधारित दृष्टिकोण अपनाता है, जिसका मतलब है कि AI सिस्टम को उनके संभावित नुकसान के आधार पर चार श्रेणियों में बांटा गया है: अस्वीकार्य जोखिम, उच्च जोखिम, सीमित जोखिम और न्यूनतम जोखिम. यह वर्गीकरण ही तय करता है कि किसी AI सिस्टम पर कितने सख्त नियम लागू होंगे. उदाहरण के लिए, एक साधारण स्पैम फिल्टर पर बहुत कम नियम लागू होंगे, जबकि एक मेडिकल डायग्नोसिस AI पर बहुत सख्त नियम होंगे.

  • 2.

    कुछ AI प्रणालियों को 'अस्वीकार्य जोखिम' वाली श्रेणी में रखा गया है और उन्हें पूरी तरह से प्रतिबंधित कर दिया गया है. इनमें ऐसी प्रणालियाँ शामिल हैं जो लोगों के व्यवहार को प्रभावित करने के लिए 'सब्लिमिनल तकनीकों' का उपयोग करती हैं, या सरकारी 'सोशल स्कोरिंग' सिस्टम जो नागरिकों को उनके सामाजिक व्यवहार के आधार पर रैंक करते हैं. यह प्रावधान नागरिकों के मौलिक अधिकारों और लोकतांत्रिक मूल्यों की रक्षा के लिए है.

  • 3.

    उच्च-जोखिम AI सिस्टम वे हैं जो लोगों के स्वास्थ्य, सुरक्षा या मौलिक अधिकारों को महत्वपूर्ण रूप से प्रभावित कर सकते हैं. इनमें चिकित्सा उपकरण, महत्वपूर्ण बुनियादी ढांचे का प्रबंधन करने वाले सिस्टम, भर्ती या शिक्षा में उपयोग होने वाले AI, कानून प्रवर्तन और प्रवासन प्रबंधन में उपयोग होने वाले AI शामिल हैं. इन प्रणालियों पर सबसे सख्त नियम लागू होते हैं क्योंकि इनकी गलतियों का गंभीर परिणाम हो सकता है.

दृश्य सामग्री

EU AI Act: विकास यात्रा

यूरोपीय संघ के AI कानून (AI Act) के विकास और लागू होने की महत्वपूर्ण तिथियां और चरण।

AI के तेजी से विकास और इससे पैदा होने वाली नैतिक चिंताओं को देखते हुए, यूरोपीय संघ ने AI के लिए एक मजबूत कानून बनाने का फैसला किया। GDPR के साथ डेटा की गोपनीयता में दुनिया भर में मानक तय करने के बाद, EU AI के नियमों में भी एक उदाहरण पेश करना चाहता था, ताकि यह पक्का हो सके कि तकनीक सुरक्षित, साफ-सुथरी और जवाबदेह हो।

  • 2020यूरोपीय आयोग ने AI पर श्वेत पत्र जारी किया, AI के लिए यूरोपीय दृष्टिकोण की रूपरेखा तैयार की।
  • April 2021यूरोपीय आयोग ने औपचारिक रूप से AI कानून का प्रस्ताव रखा।
  • December 2023यूरोपीय संसद और परिषद के बीच AI कानून पर अनंतिम राजनीतिक समझौता हुआ, जिसमें जनरल-पर्पस AI मॉडल के लिए नए नियम शामिल थे।
  • March 2024यूरोपीय संसद ने भारी बहुमत से AI कानून को औपचारिक मंजूरी दी।
  • May 2024यूरोपीय संघ की परिषद ने AI कानून को अंतिम मंजूरी दी, जिससे यह यूरोपीय संघ का कानून बन गया।
  • 2024 (Publication)कानून यूरोपीय संघ के आधिकारिक जर्नल में प्रकाशन के 20 दिन बाद लागू होगा।
  • 2025-2027 (Full Application)कानून के अलग-अलग नियमों को पूरी तरह से लागू होने में 6 से 36 महीने लगेंगे, जिससे कंपनियों को नियमों का पालन करने के लिए काफी समय मिलेगा।

वास्तविक दुनिया के उदाहरण

1 उदाहरण

यह अवधारणा 1 वास्तविक उदाहरणों में दिखाई दी है अवधि: Mar 2026 से Mar 2026

Navigating AI: Governments' Ethical Dilemma in Deployment and Governance

20 Mar 2026

आज की खबर AI के नैतिक दुविधाओं, जवाबदेही और सार्वजनिक हित को प्राथमिकता देने की बात करती है. यूरोपीय संघ का AI कानून सीधे इन चिंताओं को संबोधित करता है. यह कानून AI के उपयोग में सावधानी, जवाबदेही और लोकतांत्रिक मूल्यों को सुनिश्चित करने के लिए एक ठोस नियामक ढांचा प्रदान करता है. यह दिखाता है कि कैसे एक सरकार AI के अंधाधुंध अपनाने से बचने और नागरिकों के अधिकारों की रक्षा के लिए सक्रिय कदम उठा रही है, जैसा कि खबर में विशेषज्ञों ने जोर दिया है.

संबंधित अवधारणाएं

United Nations

स्रोत विषय

Navigating AI: Governments' Ethical Dilemma in Deployment and Governance

Polity & Governance

UPSC महत्व

छात्रों, यूरोपीय संघ का AI कानून UPSC परीक्षा के लिए बहुत महत्वपूर्ण है, खासकर GS-2 (शासन, अंतर्राष्ट्रीय संबंध) और GS-3 (विज्ञान और प्रौद्योगिकी, अर्थव्यवस्था) के पेपर में. प्रीलिम्स में, आपसे इसके प्रमुख प्रावधानों, जैसे 'जोखिम-आधारित दृष्टिकोण', 'प्रतिबंधित AI प्रणालियाँ', या 'जुर्माने' के बारे में सीधे सवाल पूछे जा सकते हैं. यह भी पूछा जा सकता है कि यह दुनिया का पहला ऐसा कानून है या नहीं. मेन्स में, यह कानून AI के नैतिक आयामों, AI शासन के वैश्विक प्रयासों, और भारत के लिए इसके निहितार्थों पर निबंध या विश्लेषणात्मक प्रश्नों का आधार बन सकता है. आपसे पूछा जा सकता है कि यह कानून नवाचार और विनियमन के बीच संतुलन कैसे बनाता है, या यह भारत की AI रणनीति को कैसे प्रभावित कर सकता है. हाल के वर्षों में AI और डेटा गवर्नेंस पर लगातार सवाल पूछे गए हैं, इसलिए इस कानून को गहराई से समझना आपको एक बढ़त देगा. आपको यह भी देखना होगा कि भारत AI विनियमन पर क्या कदम उठा रहा है और उसकी तुलना यूरोपीय संघ के दृष्टिकोण से कैसे की जा सकती है.
❓

सामान्य प्रश्न

6
1. यूरोपीय संघ का AI एक्ट AI प्रणालियों को जोखिम के आधार पर वर्गीकृत करता है. 'अस्वीकार्य जोखिम' (unacceptable risk) और 'उच्च जोखिम' (high-risk) वाली AI प्रणालियों के बीच मुख्य अंतर क्या है, और यह अंतर अक्सर MCQ (बहुविकल्पीय प्रश्न) में छात्रों को क्यों फंसाता है?

'अस्वीकार्य जोखिम' वाली AI प्रणालियाँ वे हैं जिन्हें लोगों की सुरक्षा, आजीविका और मौलिक अधिकारों के लिए स्पष्ट खतरा माना जाता है, और इसलिए उन पर पूरी तरह से प्रतिबंध लगा दिया गया है. उदाहरण के लिए, अवचेतन रूप से हेरफेर (subliminal manipulation) करने वाली AI या सरकारी 'सोशल स्कोरिंग' सिस्टम. दूसरी ओर, 'उच्च जोखिम' वाली AI प्रणालियों पर प्रतिबंध नहीं है, लेकिन उन पर बहुत सख्त नियम लागू होते हैं क्योंकि वे स्वास्थ्य, सुरक्षा या मौलिक अधिकारों को महत्वपूर्ण रूप से प्रभावित कर सकती हैं. इनमें महत्वपूर्ण बुनियादी ढांचे, चिकित्सा उपकरण या कानून प्रवर्तन में उपयोग होने वाली AI शामिल हैं. MCQ में गलती यह होती है कि छात्र पूर्ण प्रतिबंध और सख्त नियमों के बीच अंतर नहीं कर पाते; कई छात्र मान लेते हैं कि सभी हानिकारक AI केवल 'उच्च जोखिम' वाली हैं, जबकि 'अस्वीकार्य' श्रेणी पूर्ण प्रतिबंध के लिए है.

  • •अस्वीकार्य जोखिम: पूरी तरह से प्रतिबंधित; मौलिक अधिकारों के लिए स्पष्ट खतरा (जैसे, अवचेतन तकनीकें, सोशल स्कोरिंग).
  • •उच्च जोखिम: प्रतिबंधित नहीं, लेकिन सख्त नियमों के अधीन; स्वास्थ्य, सुरक्षा या मौलिक अधिकारों पर महत्वपूर्ण प्रभाव (जैसे, चिकित्सा उपकरण, कानून प्रवर्तन, महत्वपूर्ण बुनियादी ढाँचा).

परीक्षा युक्ति

याद रखें कि 'अस्वीकार्य जोखिम' श्रेणी *प्रतिबंध* को दर्शाती है, न कि केवल सख्त नियमों को. यदि कोई MCQ उन AI प्रणालियों के बारे में पूछता है जिन पर *प्रतिबंध* है, तो सोशल स्कोरिंग या हेरफेर करने वाली AI जैसे उदाहरणों की तलाश करें, न कि केवल उन AI की जिनमें नुकसान की उच्च संभावना हो.

On This Page

DefinitionHistorical BackgroundKey PointsVisual InsightsReal-World ExamplesRelated ConceptsUPSC RelevanceSource TopicFAQs

Source Topic

Navigating AI: Governments' Ethical Dilemma in Deployment and GovernancePolity & Governance

Related Concepts

United Nations
  1. होम
  2. /
  3. अवधारणाएं
  4. /
  5. Other
  6. /
  7. यूरोपीय संघ का AI कानून
Other

यूरोपीय संघ का AI कानून

यूरोपीय संघ का AI कानून क्या है?

छात्र, यूरोपीय संघ का AI कानून दुनिया का पहला व्यापक कानून है जिसका मकसद आर्टिफिशियल इंटेलिजेंस (AI) को विनियमित करना है. इसका मुख्य उद्देश्य AI से जुड़े जोखिमों को कम करना, नागरिकों के मौलिक अधिकारों की रक्षा करना और लोकतांत्रिक मूल्यों को बनाए रखना है. यह कानून AI प्रणालियों को उनके जोखिम स्तर के आधार पर वर्गीकृत करता है—जैसे 'अस्वीकार्य जोखिम', 'उच्च जोखिम', 'सीमित जोखिम' और 'न्यूनतम जोखिम'—और फिर हर श्रेणी के लिए अलग-अलग नियम और जिम्मेदारियां तय करता है. यह सुनिश्चित करता है कि AI सिस्टम सुरक्षित, पारदर्शी और जवाबदेह हों, खासकर उन क्षेत्रों में जहां उनका मानव जीवन और समाज पर बड़ा प्रभाव पड़ सकता है. यह कानून AI के अंधाधुंध उपयोग को रोकने और एक भरोसेमंद AI पारिस्थितिकी तंत्र बनाने की दिशा में एक महत्वपूर्ण कदम है.

ऐतिहासिक पृष्ठभूमि

इस कानून की जड़ें AI के तेजी से विकास और इससे उत्पन्न होने वाली नैतिक चिंताओं में हैं. यूरोपीय आयोग ने सबसे पहले 2020 में AI पर एक श्वेत पत्र जारी किया था, जिसमें AI के लिए एक यूरोपीय दृष्टिकोण की रूपरेखा तैयार की गई थी. इसके बाद, अप्रैल 2021 में, आयोग ने औपचारिक रूप से AI कानून का प्रस्ताव रखा. इसका मुख्य कारण यह था कि AI तकनीकें जैसे फेशियल रिकॉग्निशन, प्रेडिक्टिव पुलिसिंग और ऑटोमेटेड डिसीजन-मेकिंग बिना किसी स्पष्ट कानूनी ढांचे के विकसित हो रही थीं, जिससे गोपनीयता, भेदभाव और मानवाधिकारों के उल्लंघन का खतरा बढ़ रहा था. यूरोपीय संघ, जिसने पहले ही GDPR (जनरल डेटा प्रोटेक्शन रेगुलेशन) के साथ डेटा गोपनीयता में वैश्विक मानक स्थापित किया था, AI के लिए भी एक मजबूत नियामक ढांचा चाहता था. कई वर्षों की बातचीत और संशोधनों के बाद, यूरोपीय संसद और परिषद के बीच दिसंबर 2023 में एक अनंतिम समझौता हुआ, और अंततः इसे 2024 में औपचारिक रूप से अपनाया गया. यह कानून AI के विनियमन में एक वैश्विक मिसाल कायम करने का प्रयास करता है.

मुख्य प्रावधान

12 points
  • 1.

    यह कानून एक जोखिम-आधारित दृष्टिकोण अपनाता है, जिसका मतलब है कि AI सिस्टम को उनके संभावित नुकसान के आधार पर चार श्रेणियों में बांटा गया है: अस्वीकार्य जोखिम, उच्च जोखिम, सीमित जोखिम और न्यूनतम जोखिम. यह वर्गीकरण ही तय करता है कि किसी AI सिस्टम पर कितने सख्त नियम लागू होंगे. उदाहरण के लिए, एक साधारण स्पैम फिल्टर पर बहुत कम नियम लागू होंगे, जबकि एक मेडिकल डायग्नोसिस AI पर बहुत सख्त नियम होंगे.

  • 2.

    कुछ AI प्रणालियों को 'अस्वीकार्य जोखिम' वाली श्रेणी में रखा गया है और उन्हें पूरी तरह से प्रतिबंधित कर दिया गया है. इनमें ऐसी प्रणालियाँ शामिल हैं जो लोगों के व्यवहार को प्रभावित करने के लिए 'सब्लिमिनल तकनीकों' का उपयोग करती हैं, या सरकारी 'सोशल स्कोरिंग' सिस्टम जो नागरिकों को उनके सामाजिक व्यवहार के आधार पर रैंक करते हैं. यह प्रावधान नागरिकों के मौलिक अधिकारों और लोकतांत्रिक मूल्यों की रक्षा के लिए है.

  • 3.

    उच्च-जोखिम AI सिस्टम वे हैं जो लोगों के स्वास्थ्य, सुरक्षा या मौलिक अधिकारों को महत्वपूर्ण रूप से प्रभावित कर सकते हैं. इनमें चिकित्सा उपकरण, महत्वपूर्ण बुनियादी ढांचे का प्रबंधन करने वाले सिस्टम, भर्ती या शिक्षा में उपयोग होने वाले AI, कानून प्रवर्तन और प्रवासन प्रबंधन में उपयोग होने वाले AI शामिल हैं. इन प्रणालियों पर सबसे सख्त नियम लागू होते हैं क्योंकि इनकी गलतियों का गंभीर परिणाम हो सकता है.

दृश्य सामग्री

EU AI Act: विकास यात्रा

यूरोपीय संघ के AI कानून (AI Act) के विकास और लागू होने की महत्वपूर्ण तिथियां और चरण।

AI के तेजी से विकास और इससे पैदा होने वाली नैतिक चिंताओं को देखते हुए, यूरोपीय संघ ने AI के लिए एक मजबूत कानून बनाने का फैसला किया। GDPR के साथ डेटा की गोपनीयता में दुनिया भर में मानक तय करने के बाद, EU AI के नियमों में भी एक उदाहरण पेश करना चाहता था, ताकि यह पक्का हो सके कि तकनीक सुरक्षित, साफ-सुथरी और जवाबदेह हो।

  • 2020यूरोपीय आयोग ने AI पर श्वेत पत्र जारी किया, AI के लिए यूरोपीय दृष्टिकोण की रूपरेखा तैयार की।
  • April 2021यूरोपीय आयोग ने औपचारिक रूप से AI कानून का प्रस्ताव रखा।
  • December 2023यूरोपीय संसद और परिषद के बीच AI कानून पर अनंतिम राजनीतिक समझौता हुआ, जिसमें जनरल-पर्पस AI मॉडल के लिए नए नियम शामिल थे।
  • March 2024यूरोपीय संसद ने भारी बहुमत से AI कानून को औपचारिक मंजूरी दी।
  • May 2024यूरोपीय संघ की परिषद ने AI कानून को अंतिम मंजूरी दी, जिससे यह यूरोपीय संघ का कानून बन गया।
  • 2024 (Publication)कानून यूरोपीय संघ के आधिकारिक जर्नल में प्रकाशन के 20 दिन बाद लागू होगा।
  • 2025-2027 (Full Application)कानून के अलग-अलग नियमों को पूरी तरह से लागू होने में 6 से 36 महीने लगेंगे, जिससे कंपनियों को नियमों का पालन करने के लिए काफी समय मिलेगा।

वास्तविक दुनिया के उदाहरण

1 उदाहरण

यह अवधारणा 1 वास्तविक उदाहरणों में दिखाई दी है अवधि: Mar 2026 से Mar 2026

Navigating AI: Governments' Ethical Dilemma in Deployment and Governance

20 Mar 2026

आज की खबर AI के नैतिक दुविधाओं, जवाबदेही और सार्वजनिक हित को प्राथमिकता देने की बात करती है. यूरोपीय संघ का AI कानून सीधे इन चिंताओं को संबोधित करता है. यह कानून AI के उपयोग में सावधानी, जवाबदेही और लोकतांत्रिक मूल्यों को सुनिश्चित करने के लिए एक ठोस नियामक ढांचा प्रदान करता है. यह दिखाता है कि कैसे एक सरकार AI के अंधाधुंध अपनाने से बचने और नागरिकों के अधिकारों की रक्षा के लिए सक्रिय कदम उठा रही है, जैसा कि खबर में विशेषज्ञों ने जोर दिया है.

संबंधित अवधारणाएं

United Nations

स्रोत विषय

Navigating AI: Governments' Ethical Dilemma in Deployment and Governance

Polity & Governance

UPSC महत्व

छात्रों, यूरोपीय संघ का AI कानून UPSC परीक्षा के लिए बहुत महत्वपूर्ण है, खासकर GS-2 (शासन, अंतर्राष्ट्रीय संबंध) और GS-3 (विज्ञान और प्रौद्योगिकी, अर्थव्यवस्था) के पेपर में. प्रीलिम्स में, आपसे इसके प्रमुख प्रावधानों, जैसे 'जोखिम-आधारित दृष्टिकोण', 'प्रतिबंधित AI प्रणालियाँ', या 'जुर्माने' के बारे में सीधे सवाल पूछे जा सकते हैं. यह भी पूछा जा सकता है कि यह दुनिया का पहला ऐसा कानून है या नहीं. मेन्स में, यह कानून AI के नैतिक आयामों, AI शासन के वैश्विक प्रयासों, और भारत के लिए इसके निहितार्थों पर निबंध या विश्लेषणात्मक प्रश्नों का आधार बन सकता है. आपसे पूछा जा सकता है कि यह कानून नवाचार और विनियमन के बीच संतुलन कैसे बनाता है, या यह भारत की AI रणनीति को कैसे प्रभावित कर सकता है. हाल के वर्षों में AI और डेटा गवर्नेंस पर लगातार सवाल पूछे गए हैं, इसलिए इस कानून को गहराई से समझना आपको एक बढ़त देगा. आपको यह भी देखना होगा कि भारत AI विनियमन पर क्या कदम उठा रहा है और उसकी तुलना यूरोपीय संघ के दृष्टिकोण से कैसे की जा सकती है.
❓

सामान्य प्रश्न

6
1. यूरोपीय संघ का AI एक्ट AI प्रणालियों को जोखिम के आधार पर वर्गीकृत करता है. 'अस्वीकार्य जोखिम' (unacceptable risk) और 'उच्च जोखिम' (high-risk) वाली AI प्रणालियों के बीच मुख्य अंतर क्या है, और यह अंतर अक्सर MCQ (बहुविकल्पीय प्रश्न) में छात्रों को क्यों फंसाता है?

'अस्वीकार्य जोखिम' वाली AI प्रणालियाँ वे हैं जिन्हें लोगों की सुरक्षा, आजीविका और मौलिक अधिकारों के लिए स्पष्ट खतरा माना जाता है, और इसलिए उन पर पूरी तरह से प्रतिबंध लगा दिया गया है. उदाहरण के लिए, अवचेतन रूप से हेरफेर (subliminal manipulation) करने वाली AI या सरकारी 'सोशल स्कोरिंग' सिस्टम. दूसरी ओर, 'उच्च जोखिम' वाली AI प्रणालियों पर प्रतिबंध नहीं है, लेकिन उन पर बहुत सख्त नियम लागू होते हैं क्योंकि वे स्वास्थ्य, सुरक्षा या मौलिक अधिकारों को महत्वपूर्ण रूप से प्रभावित कर सकती हैं. इनमें महत्वपूर्ण बुनियादी ढांचे, चिकित्सा उपकरण या कानून प्रवर्तन में उपयोग होने वाली AI शामिल हैं. MCQ में गलती यह होती है कि छात्र पूर्ण प्रतिबंध और सख्त नियमों के बीच अंतर नहीं कर पाते; कई छात्र मान लेते हैं कि सभी हानिकारक AI केवल 'उच्च जोखिम' वाली हैं, जबकि 'अस्वीकार्य' श्रेणी पूर्ण प्रतिबंध के लिए है.

  • •अस्वीकार्य जोखिम: पूरी तरह से प्रतिबंधित; मौलिक अधिकारों के लिए स्पष्ट खतरा (जैसे, अवचेतन तकनीकें, सोशल स्कोरिंग).
  • •उच्च जोखिम: प्रतिबंधित नहीं, लेकिन सख्त नियमों के अधीन; स्वास्थ्य, सुरक्षा या मौलिक अधिकारों पर महत्वपूर्ण प्रभाव (जैसे, चिकित्सा उपकरण, कानून प्रवर्तन, महत्वपूर्ण बुनियादी ढाँचा).

परीक्षा युक्ति

याद रखें कि 'अस्वीकार्य जोखिम' श्रेणी *प्रतिबंध* को दर्शाती है, न कि केवल सख्त नियमों को. यदि कोई MCQ उन AI प्रणालियों के बारे में पूछता है जिन पर *प्रतिबंध* है, तो सोशल स्कोरिंग या हेरफेर करने वाली AI जैसे उदाहरणों की तलाश करें, न कि केवल उन AI की जिनमें नुकसान की उच्च संभावना हो.

On This Page

DefinitionHistorical BackgroundKey PointsVisual InsightsReal-World ExamplesRelated ConceptsUPSC RelevanceSource TopicFAQs

Source Topic

Navigating AI: Governments' Ethical Dilemma in Deployment and GovernancePolity & Governance

Related Concepts

United Nations
  • 4.

    उच्च-जोखिम AI सिस्टम को बाजार में लाने से पहले कई सख्त आवश्यकताओं का पालन करना होता है. इनमें एक मजबूत जोखिम प्रबंधन प्रणाली स्थापित करना, उच्च गुणवत्ता वाले डेटा का उपयोग करना, मानव पर्यवेक्षण सुनिश्चित करना, तकनीकी दस्तावेज़ीकरण प्रदान करना, और साइबर सुरक्षा उपायों को लागू करना शामिल है. इसका उद्देश्य यह सुनिश्चित करना है कि ये सिस्टम विश्वसनीय और सुरक्षित हों.

  • 5.

    कानून में पारदर्शिता दायित्व भी शामिल हैं. इसका मतलब है कि AI सिस्टम के उपयोगकर्ताओं को यह पता होना चाहिए कि वे AI के साथ बातचीत कर रहे हैं. उदाहरण के लिए, अगर आप किसी चैटबॉट से बात कर रहे हैं, तो उसे यह बताना होगा कि वह एक AI है. इसी तरह, 'डीपफेक' या AI-जनित छवियों और वीडियो को स्पष्ट रूप से लेबल किया जाना चाहिए ताकि लोग असली और नकली में अंतर कर सकें.

  • 6.

    जनरल-पर्पस AI (GPAI) मॉडल, जैसे कि OpenAI का GPT-4 या Google का Gemini, के लिए भी विशेष नियम बनाए गए हैं. ये नियम सुनिश्चित करते हैं कि इन शक्तिशाली मॉडलों को बाजार में लाने वाले डेवलपर्स को पारदर्शिता आवश्यकताओं का पालन करना होगा, तकनीकी दस्तावेज उपलब्ध कराने होंगे और यूरोपीय संघ के कॉपीराइट कानून का सम्मान करना होगा. यह प्रावधान AI के सबसे उन्नत रूपों को भी जवाबदेही के दायरे में लाता है.

  • 7.

    कानून में नियामक सैंडबॉक्स का प्रावधान है, जो सदस्य देशों को एक नियंत्रित वातावरण में अभिनव AI प्रणालियों का परीक्षण करने की अनुमति देता है. इसका मतलब है कि स्टार्टअप और छोटे व्यवसायों को पूर्ण नियामक अनुपालन के बिना अपने AI उत्पादों का नवाचार और परीक्षण करने का अवसर मिलता है, जिससे यूरोपीय संघ में AI नवाचार को बढ़ावा मिलता है.

  • 8.

    गैर-अनुपालन के लिए कड़े जुर्माने का प्रावधान है. उदाहरण के लिए, प्रतिबंधित AI प्रणालियों का उपयोग करने पर वैश्विक वार्षिक कारोबार का 7% या €35 मिलियन तक का जुर्माना लग सकता है, जो भी अधिक हो. यह जुर्माना AI डेवलपर्स और उपयोगकर्ताओं को नियमों का गंभीरता से पालन करने के लिए प्रेरित करता है.

  • 9.

    उच्च-जोखिम AI प्रणालियों को तैनात करने से पहले उनके मौलिक अधिकारों पर प्रभाव का आकलन करना अनिवार्य है. इसका मतलब है कि AI सिस्टम को यह जांचना होगा कि वे गोपनीयता, भेदभाव-रहितता, या अभिव्यक्ति की स्वतंत्रता जैसे अधिकारों का उल्लंघन तो नहीं कर रहे हैं. उदाहरण के लिए, एक भर्ती AI को यह सुनिश्चित करना होगा कि वह किसी विशेष लिंग या जाति के खिलाफ पूर्वाग्रह न पैदा करे.

  • 10.

    व्यक्तियों को उच्च-जोखिम AI प्रणालियों द्वारा लिए गए निर्णयों के बारे में स्पष्टीकरण का अधिकार है. यदि किसी व्यक्ति को AI के कारण कोई नुकसान होता है या कोई महत्वपूर्ण निर्णय (जैसे ऋण आवेदन अस्वीकृत होना) AI द्वारा लिया जाता है, तो वह उस निर्णय के पीछे के तर्क को समझने का अनुरोध कर सकता है. यह पारदर्शिता और जवाबदेही सुनिश्चित करता है.

  • 11.

    कानून में बाजार निगरानी और पोस्ट-मार्केट मॉनिटरिंग के प्रावधान भी हैं. इसका मतलब है कि एक बार जब AI सिस्टम बाजार में आ जाते हैं, तो अधिकारियों को उनकी लगातार निगरानी करनी होगी ताकि यह सुनिश्चित किया जा सके कि वे नियमों का पालन कर रहे हैं और कोई नया जोखिम पैदा नहीं कर रहे हैं. यदि कोई समस्या पाई जाती है, तो अधिकारी हस्तक्षेप कर सकते हैं.

  • 12.

    यह कानून केवल विनियमन पर ही केंद्रित नहीं है, बल्कि यूरोपीय संघ में AI नवाचार को बढ़ावा देने का भी लक्ष्य रखता है. नियामक सैंडबॉक्स और छोटे व मध्यम उद्यमों (SMEs) के लिए समर्थन जैसे प्रावधान यह सुनिश्चित करते हैं कि सुरक्षा और नैतिकता के साथ-साथ नवाचार भी फलता-फूलता रहे. यह एक संतुलित दृष्टिकोण है.

  • EU AI Act: मुख्य प्रावधान और प्रभाव

    यूरोपीय संघ के AI Act के प्रमुख प्रावधानों और उनके प्रभावों को दर्शाता है, जो AI विनियमन के लिए एक जोखिम-आधारित दृष्टिकोण प्रस्तुत करता है।

    EU AI Act

    • ●जोखिम-आधारित वर्गीकरण
    • ●प्रमुख नियम
    • ●कार्यान्वयन और दंड
    • ●नवाचार और अधिकार

    EU AI Act: प्रमुख दंड और समय-सीमा

    EU AI Act के तहत गैर-अनुपालन के लिए निर्धारित अधिकतम जुर्माने और कानून के पूर्ण कार्यान्वयन की समय-सीमा को दर्शाता है।

    प्रतिबंधित AI के नियम तोड़ने पर सबसे बड़ा जुर्माना
    €35 मिलियन या वैश्विक वार्षिक कारोबार का 7%

    यह AI बनाने वालों और इस्तेमाल करने वालों को कानून का गंभीरता से पालन करने के लिए मजबूर करता है, खासकर उन AI सिस्टम के लिए जो लोगों के बुनियादी हकों को तोड़ सकते हैं।

    उच्च-जोखिम AI के नियम तोड़ने पर सबसे बड़ा जुर्माना
    €15 मिलियन या वैश्विक वार्षिक कारोबार का 3%

    उच्च-जोखिम वाले AI सिस्टम के लिए कड़े नियमों का पालन करना पक्का करता है, जो सेहत, सुरक्षा और बुनियादी हकों पर बड़ा असर डाल सकते हैं।

    कानून को पूरी तरह लागू होने में लगने वाला समय
    6 से 36 महीने

    यह कंपनियों और सदस्य देशों को नए नियमों के हिसाब से ढलने और नियमों का पालन करने वाले सिस्टम बनाने के लिए काफी समय देता है।

    2. यूरोपीय संघ के AI एक्ट को लागू करने की एक चरणबद्ध समय-सीमा है. इसके प्रवर्तन के प्रमुख चरण क्या हैं, और इस समय-सीमा का कौन सा पहलू Prelims MCQ में संभावित गलती का कारण बन सकता है?

    यूरोपीय संघ का AI एक्ट आधिकारिक जर्नल में प्रकाशित होने के 20 दिन बाद लागू होता है. हालांकि, इसके विभिन्न प्रावधानों को लंबी अवधि में धीरे-धीरे लागू किया जाएगा. अस्वीकार्य AI प्रणालियों पर प्रतिबंध 6 महीने बाद, आचार संहिता 9 महीने बाद, जनरल-पर्पस AI (GPAI) के नियम 12 महीने बाद, और उच्च-जोखिम वाली AI प्रणालियों के लिए दायित्वों सहित अधिकांश अन्य प्रावधान 24 महीने बाद लागू होंगे. कुछ विशिष्ट प्रावधानों को लागू होने में 36 महीने तक का समय लग सकता है. MCQ में गलती यह होती है कि छात्र तत्काल पूर्ण प्रवर्तन मान लेते हैं; यह एक्ट एक चरणबद्ध रोलआउट के साथ एक गतिशील दस्तावेज़ है.

    • •लागू होना: प्रकाशन के 20 दिन बाद.
    • •प्रतिबंध (अस्वीकार्य जोखिम AI): 6 महीने.
    • •आचार संहिता: 9 महीने.
    • •जनरल-पर्पस AI (GPAI) के लिए नियम: 12 महीने.
    • •अधिकांश अन्य प्रावधान (जैसे, उच्च-जोखिम AI): 24 महीने.
    • •कुछ विशिष्ट प्रावधान: 36 महीने तक.

    परीक्षा युक्ति

    'लागू होने की तारीख' को उस तारीख से भ्रमित न करें जब सभी प्रावधान पूरी तरह से 'प्रयोज्य' हो जाते हैं. UPSC अक्सर प्रमुख कानूनों के लिए कार्यान्वयन की समय-सीमा की बारीकियों का परीक्षण करता है. प्रावधानों की विभिन्न श्रेणियों के लिए विशिष्ट समय-सीमा पर ध्यान दें.

    3. यूरोपीय संघ का AI एक्ट विशेष रूप से GPT-4 जैसे जनरल-पर्पस AI (GPAI) मॉडलों द्वारा उत्पन्न चुनौतियों का समाधान कैसे करता है, और यह GDPR जैसे मौजूदा डेटा संरक्षण कानूनों के दायरे से आगे कैसे जाता है?

    यूरोपीय संघ का AI एक्ट GPAI मॉडलों के लिए विशिष्ट नियम पेश करता है क्योंकि उनकी व्यापक क्षमताओं और दुरुपयोग की संभावना को पहले के नियमों द्वारा पर्याप्त रूप से कवर नहीं किया गया था. GDPR के विपरीत, जो व्यक्तिगत डेटा संरक्षण पर केंद्रित है, AI एक्ट GPAI डेवलपर्स के लिए पारदर्शिता, तकनीकी दस्तावेज़ीकरण और यूरोपीय संघ के कॉपीराइट कानून के अनुपालन को अनिवार्य करता है. यह मानता है कि GPAI मॉडल, अपनी मूलभूत प्रकृति के कारण, विभिन्न अनुप्रयोगों में एकीकृत हो सकते हैं, जिससे नए, अप्रत्याशित जोखिम पैदा हो सकते हैं जो डेटा गोपनीयता से परे जाकर गलत सूचना, पूर्वाग्रह और प्रणालीगत जोखिमों जैसे मुद्दों को शामिल करते हैं. GDPR यह नियंत्रित करता है कि *किस* डेटा का उपयोग किया जाता है और *कैसे*, जबकि AI एक्ट यह नियंत्रित करता है कि AI सिस्टम स्वयं, विशेष रूप से मूलभूत मॉडल, कैसे विकसित, तैनात और जवाबदेह बनाए जाते हैं.

    परीक्षा युक्ति

    AI एक्ट की GDPR से तुलना करते समय, याद रखें कि GDPR *डेटा संरक्षण* (इनपुट/आउटपुट डेटा) के बारे में है, जबकि AI एक्ट *AI सिस्टम विनियमन* (एल्गोरिथम और उसका अनुप्रयोग) के बारे में है, खासकर शक्तिशाली GPAI मॉडलों के लिए जिनका उपयोग कई संदर्भों में किया जा सकता है.

    4. व्यवसायों के लिए नियामक अनुपालन से परे, यूरोपीय संघ के AI एक्ट के पारदर्शिता संबंधी दायित्व, विशेष रूप से डीपफेक और AI इंटरैक्शन के संबंध में, एक औसत यूरोपीय संघ के नागरिक के दैनिक डिजिटल अनुभव को सीधे कैसे बदलेंगे?

    एक औसत यूरोपीय संघ के नागरिक के लिए, AI एक्ट के पारदर्शिता संबंधी दायित्वों का मतलब है कि उनकी डिजिटल बातचीत में स्पष्टता और विश्वास में काफी वृद्धि होगी. उन्हें स्पष्ट रूप से सूचित किया जाएगा कि वे किसी AI सिस्टम, जैसे चैटबॉट, के साथ बातचीत कर रहे हैं, न कि किसी इंसान के साथ. इससे भी महत्वपूर्ण बात यह है कि AI-जनित किसी भी सामग्री, जैसे डीपफेक छवियों या वीडियो, को स्पष्ट रूप से लेबल करना होगा. इसका उद्देश्य नागरिकों को वास्तविक और AI-जनित सामग्री के बीच अंतर करने में सशक्त बनाना, गलत सूचना का मुकाबला करना और यह सुनिश्चित करना है कि वे कुछ डिजिटल अनुभवों की कृत्रिम प्रकृति से अवगत हों. यह हेरफेर के जोखिम को कम करता है और AI की उपस्थिति को स्पष्ट करके डिजिटल साक्षरता को बढ़ाता है.

    5. AI की तेजी से प्रगति से उत्पन्न होने वाली कौन सी मूलभूत सामाजिक समस्याएं या नैतिक चिंताएं थीं, जिन्हें यूरोपीय संघ के AI एक्ट ने मुख्य रूप से हल करने का लक्ष्य रखा था, और जिन्हें मौजूदा कानूनी ढाँचे संबोधित करने में संघर्ष कर रहे थे?

    यूरोपीय संघ का AI एक्ट मुख्य रूप से मौलिक अधिकारों को संभावित नुकसान, जवाबदेही की कमी और अनियंत्रित AI से उत्पन्न होने वाले लोकतांत्रिक मूल्यों के क्षरण जैसी सामाजिक समस्याओं का समाधान करना चाहता है. डेटा संरक्षण नियमों जैसे मौजूदा कानून अपर्याप्त थे क्योंकि AI का प्रभाव डेटा गोपनीयता से परे जाकर भर्ती में एल्गोरिथम पूर्वाग्रह, भेदभावपूर्ण फेशियल रिकॉग्निशन, प्रेडिक्टिव पुलिसिंग और मानवीय पर्यवेक्षण के बिना स्वचालित निर्णय लेने जैसे मुद्दों तक फैला हुआ है. यह एक्ट इन जोखिमों को सक्रिय रूप से कम करके, स्पष्ट जिम्मेदारियां स्थापित करके और AI प्रौद्योगिकियों में जनता का विश्वास बढ़ाकर यह सुनिश्चित करना चाहता है कि AI विकास मानव-केंद्रित, भरोसेमंद और यूरोपीय मूल्यों का सम्मान करने वाला हो.

    • •मौलिक अधिकारों का संरक्षण: AI प्रणालियों द्वारा एल्गोरिथम पूर्वाग्रह, भेदभाव और गोपनीयता के उल्लंघन जैसे जोखिमों का समाधान करना.
    • •जवाबदेही का अंतर: AI के डेवलपर्स और तैनात करने वालों के लिए स्पष्ट जिम्मेदारियां स्थापित करना, विशेष रूप से उच्च-जोखिम वाले अनुप्रयोगों के लिए.
    • •लोकतांत्रिक मूल्यों का क्षरण: सामाजिक स्कोरिंग, हेरफेर करने वाली प्रथाओं या लोकतांत्रिक प्रक्रियाओं को कमजोर करने के लिए AI के दुरुपयोग को रोकना.
    • •विश्वास की कमी: पारदर्शिता, मानवीय पर्यवेक्षण और सुरक्षा सुनिश्चित करके AI में जनता का विश्वास बनाना.
    6. आलोचकों का तर्क है कि यूरोपीय संघ के AI एक्ट के कड़े नियम, विशेष रूप से उच्च-जोखिम वाली AI और GPAI के लिए, यूरोप में नवाचार को बाधित कर सकते हैं. एक विश्लेषक के रूप में, आप इस चिंता को एक्ट के लक्ष्यों के साथ कैसे संतुलित करेंगे, और भारत अपने AI नियामक ढांचे के लिए किन सबकों पर विचार कर सकता है?

    एक विश्लेषक के रूप में, मैं इस वैध चिंता को स्वीकार करूंगा कि कड़े नियम वास्तव में अनुपालन लागत बढ़ा सकते हैं और नवाचार को धीमा कर सकते हैं, खासकर स्टार्टअप्स के लिए. हालांकि, एक्ट के समर्थक तर्क देते हैं कि 'जिम्मेदार नवाचार' ही लक्ष्य है, जहां विश्वास और सुरक्षा AI की दीर्घकालिक वृद्धि और सार्वजनिक स्वीकृति के लिए आवश्यक शर्तें हैं. नियामक सैंडबॉक्स (regulatory sandboxes) एक नियंत्रित वातावरण में नवाचार की अनुमति देकर इसे संतुलित करने का सीधा प्रयास हैं. भारत के लिए, सबक यह है कि एक समान संतुलन खोजा जाए, शायद भारत के अद्वितीय सामाजिक-आर्थिक संदर्भ के अनुरूप जोखिम-आधारित दृष्टिकोण अपनाकर, पहले महत्वपूर्ण क्षेत्रों पर ध्यान केंद्रित करके, और नियामकों, उद्योग और शिक्षाविदों के बीच एक सहयोगात्मक वातावरण को बढ़ावा देकर. भारत कम जोखिम वाली AI के लिए 'लाइट-टच' नियामक दृष्टिकोण भी अपना सकता है ताकि व्यापक रूप से अपनाने को प्रोत्साहित किया जा सके, जबकि उच्च-प्रभाव वाले अनुप्रयोगों के लिए सख्त निगरानी बनाए रखी जाए, यूरोपीय संघ के व्यापक दृष्टिकोण और अमेरिका के अधिक उद्योग-नेतृत्व वाले दिशानिर्देशों दोनों से सीख लेकर.

  • 4.

    उच्च-जोखिम AI सिस्टम को बाजार में लाने से पहले कई सख्त आवश्यकताओं का पालन करना होता है. इनमें एक मजबूत जोखिम प्रबंधन प्रणाली स्थापित करना, उच्च गुणवत्ता वाले डेटा का उपयोग करना, मानव पर्यवेक्षण सुनिश्चित करना, तकनीकी दस्तावेज़ीकरण प्रदान करना, और साइबर सुरक्षा उपायों को लागू करना शामिल है. इसका उद्देश्य यह सुनिश्चित करना है कि ये सिस्टम विश्वसनीय और सुरक्षित हों.

  • 5.

    कानून में पारदर्शिता दायित्व भी शामिल हैं. इसका मतलब है कि AI सिस्टम के उपयोगकर्ताओं को यह पता होना चाहिए कि वे AI के साथ बातचीत कर रहे हैं. उदाहरण के लिए, अगर आप किसी चैटबॉट से बात कर रहे हैं, तो उसे यह बताना होगा कि वह एक AI है. इसी तरह, 'डीपफेक' या AI-जनित छवियों और वीडियो को स्पष्ट रूप से लेबल किया जाना चाहिए ताकि लोग असली और नकली में अंतर कर सकें.

  • 6.

    जनरल-पर्पस AI (GPAI) मॉडल, जैसे कि OpenAI का GPT-4 या Google का Gemini, के लिए भी विशेष नियम बनाए गए हैं. ये नियम सुनिश्चित करते हैं कि इन शक्तिशाली मॉडलों को बाजार में लाने वाले डेवलपर्स को पारदर्शिता आवश्यकताओं का पालन करना होगा, तकनीकी दस्तावेज उपलब्ध कराने होंगे और यूरोपीय संघ के कॉपीराइट कानून का सम्मान करना होगा. यह प्रावधान AI के सबसे उन्नत रूपों को भी जवाबदेही के दायरे में लाता है.

  • 7.

    कानून में नियामक सैंडबॉक्स का प्रावधान है, जो सदस्य देशों को एक नियंत्रित वातावरण में अभिनव AI प्रणालियों का परीक्षण करने की अनुमति देता है. इसका मतलब है कि स्टार्टअप और छोटे व्यवसायों को पूर्ण नियामक अनुपालन के बिना अपने AI उत्पादों का नवाचार और परीक्षण करने का अवसर मिलता है, जिससे यूरोपीय संघ में AI नवाचार को बढ़ावा मिलता है.

  • 8.

    गैर-अनुपालन के लिए कड़े जुर्माने का प्रावधान है. उदाहरण के लिए, प्रतिबंधित AI प्रणालियों का उपयोग करने पर वैश्विक वार्षिक कारोबार का 7% या €35 मिलियन तक का जुर्माना लग सकता है, जो भी अधिक हो. यह जुर्माना AI डेवलपर्स और उपयोगकर्ताओं को नियमों का गंभीरता से पालन करने के लिए प्रेरित करता है.

  • 9.

    उच्च-जोखिम AI प्रणालियों को तैनात करने से पहले उनके मौलिक अधिकारों पर प्रभाव का आकलन करना अनिवार्य है. इसका मतलब है कि AI सिस्टम को यह जांचना होगा कि वे गोपनीयता, भेदभाव-रहितता, या अभिव्यक्ति की स्वतंत्रता जैसे अधिकारों का उल्लंघन तो नहीं कर रहे हैं. उदाहरण के लिए, एक भर्ती AI को यह सुनिश्चित करना होगा कि वह किसी विशेष लिंग या जाति के खिलाफ पूर्वाग्रह न पैदा करे.

  • 10.

    व्यक्तियों को उच्च-जोखिम AI प्रणालियों द्वारा लिए गए निर्णयों के बारे में स्पष्टीकरण का अधिकार है. यदि किसी व्यक्ति को AI के कारण कोई नुकसान होता है या कोई महत्वपूर्ण निर्णय (जैसे ऋण आवेदन अस्वीकृत होना) AI द्वारा लिया जाता है, तो वह उस निर्णय के पीछे के तर्क को समझने का अनुरोध कर सकता है. यह पारदर्शिता और जवाबदेही सुनिश्चित करता है.

  • 11.

    कानून में बाजार निगरानी और पोस्ट-मार्केट मॉनिटरिंग के प्रावधान भी हैं. इसका मतलब है कि एक बार जब AI सिस्टम बाजार में आ जाते हैं, तो अधिकारियों को उनकी लगातार निगरानी करनी होगी ताकि यह सुनिश्चित किया जा सके कि वे नियमों का पालन कर रहे हैं और कोई नया जोखिम पैदा नहीं कर रहे हैं. यदि कोई समस्या पाई जाती है, तो अधिकारी हस्तक्षेप कर सकते हैं.

  • 12.

    यह कानून केवल विनियमन पर ही केंद्रित नहीं है, बल्कि यूरोपीय संघ में AI नवाचार को बढ़ावा देने का भी लक्ष्य रखता है. नियामक सैंडबॉक्स और छोटे व मध्यम उद्यमों (SMEs) के लिए समर्थन जैसे प्रावधान यह सुनिश्चित करते हैं कि सुरक्षा और नैतिकता के साथ-साथ नवाचार भी फलता-फूलता रहे. यह एक संतुलित दृष्टिकोण है.

  • EU AI Act: मुख्य प्रावधान और प्रभाव

    यूरोपीय संघ के AI Act के प्रमुख प्रावधानों और उनके प्रभावों को दर्शाता है, जो AI विनियमन के लिए एक जोखिम-आधारित दृष्टिकोण प्रस्तुत करता है।

    EU AI Act

    • ●जोखिम-आधारित वर्गीकरण
    • ●प्रमुख नियम
    • ●कार्यान्वयन और दंड
    • ●नवाचार और अधिकार

    EU AI Act: प्रमुख दंड और समय-सीमा

    EU AI Act के तहत गैर-अनुपालन के लिए निर्धारित अधिकतम जुर्माने और कानून के पूर्ण कार्यान्वयन की समय-सीमा को दर्शाता है।

    प्रतिबंधित AI के नियम तोड़ने पर सबसे बड़ा जुर्माना
    €35 मिलियन या वैश्विक वार्षिक कारोबार का 7%

    यह AI बनाने वालों और इस्तेमाल करने वालों को कानून का गंभीरता से पालन करने के लिए मजबूर करता है, खासकर उन AI सिस्टम के लिए जो लोगों के बुनियादी हकों को तोड़ सकते हैं।

    उच्च-जोखिम AI के नियम तोड़ने पर सबसे बड़ा जुर्माना
    €15 मिलियन या वैश्विक वार्षिक कारोबार का 3%

    उच्च-जोखिम वाले AI सिस्टम के लिए कड़े नियमों का पालन करना पक्का करता है, जो सेहत, सुरक्षा और बुनियादी हकों पर बड़ा असर डाल सकते हैं।

    कानून को पूरी तरह लागू होने में लगने वाला समय
    6 से 36 महीने

    यह कंपनियों और सदस्य देशों को नए नियमों के हिसाब से ढलने और नियमों का पालन करने वाले सिस्टम बनाने के लिए काफी समय देता है।

    2. यूरोपीय संघ के AI एक्ट को लागू करने की एक चरणबद्ध समय-सीमा है. इसके प्रवर्तन के प्रमुख चरण क्या हैं, और इस समय-सीमा का कौन सा पहलू Prelims MCQ में संभावित गलती का कारण बन सकता है?

    यूरोपीय संघ का AI एक्ट आधिकारिक जर्नल में प्रकाशित होने के 20 दिन बाद लागू होता है. हालांकि, इसके विभिन्न प्रावधानों को लंबी अवधि में धीरे-धीरे लागू किया जाएगा. अस्वीकार्य AI प्रणालियों पर प्रतिबंध 6 महीने बाद, आचार संहिता 9 महीने बाद, जनरल-पर्पस AI (GPAI) के नियम 12 महीने बाद, और उच्च-जोखिम वाली AI प्रणालियों के लिए दायित्वों सहित अधिकांश अन्य प्रावधान 24 महीने बाद लागू होंगे. कुछ विशिष्ट प्रावधानों को लागू होने में 36 महीने तक का समय लग सकता है. MCQ में गलती यह होती है कि छात्र तत्काल पूर्ण प्रवर्तन मान लेते हैं; यह एक्ट एक चरणबद्ध रोलआउट के साथ एक गतिशील दस्तावेज़ है.

    • •लागू होना: प्रकाशन के 20 दिन बाद.
    • •प्रतिबंध (अस्वीकार्य जोखिम AI): 6 महीने.
    • •आचार संहिता: 9 महीने.
    • •जनरल-पर्पस AI (GPAI) के लिए नियम: 12 महीने.
    • •अधिकांश अन्य प्रावधान (जैसे, उच्च-जोखिम AI): 24 महीने.
    • •कुछ विशिष्ट प्रावधान: 36 महीने तक.

    परीक्षा युक्ति

    'लागू होने की तारीख' को उस तारीख से भ्रमित न करें जब सभी प्रावधान पूरी तरह से 'प्रयोज्य' हो जाते हैं. UPSC अक्सर प्रमुख कानूनों के लिए कार्यान्वयन की समय-सीमा की बारीकियों का परीक्षण करता है. प्रावधानों की विभिन्न श्रेणियों के लिए विशिष्ट समय-सीमा पर ध्यान दें.

    3. यूरोपीय संघ का AI एक्ट विशेष रूप से GPT-4 जैसे जनरल-पर्पस AI (GPAI) मॉडलों द्वारा उत्पन्न चुनौतियों का समाधान कैसे करता है, और यह GDPR जैसे मौजूदा डेटा संरक्षण कानूनों के दायरे से आगे कैसे जाता है?

    यूरोपीय संघ का AI एक्ट GPAI मॉडलों के लिए विशिष्ट नियम पेश करता है क्योंकि उनकी व्यापक क्षमताओं और दुरुपयोग की संभावना को पहले के नियमों द्वारा पर्याप्त रूप से कवर नहीं किया गया था. GDPR के विपरीत, जो व्यक्तिगत डेटा संरक्षण पर केंद्रित है, AI एक्ट GPAI डेवलपर्स के लिए पारदर्शिता, तकनीकी दस्तावेज़ीकरण और यूरोपीय संघ के कॉपीराइट कानून के अनुपालन को अनिवार्य करता है. यह मानता है कि GPAI मॉडल, अपनी मूलभूत प्रकृति के कारण, विभिन्न अनुप्रयोगों में एकीकृत हो सकते हैं, जिससे नए, अप्रत्याशित जोखिम पैदा हो सकते हैं जो डेटा गोपनीयता से परे जाकर गलत सूचना, पूर्वाग्रह और प्रणालीगत जोखिमों जैसे मुद्दों को शामिल करते हैं. GDPR यह नियंत्रित करता है कि *किस* डेटा का उपयोग किया जाता है और *कैसे*, जबकि AI एक्ट यह नियंत्रित करता है कि AI सिस्टम स्वयं, विशेष रूप से मूलभूत मॉडल, कैसे विकसित, तैनात और जवाबदेह बनाए जाते हैं.

    परीक्षा युक्ति

    AI एक्ट की GDPR से तुलना करते समय, याद रखें कि GDPR *डेटा संरक्षण* (इनपुट/आउटपुट डेटा) के बारे में है, जबकि AI एक्ट *AI सिस्टम विनियमन* (एल्गोरिथम और उसका अनुप्रयोग) के बारे में है, खासकर शक्तिशाली GPAI मॉडलों के लिए जिनका उपयोग कई संदर्भों में किया जा सकता है.

    4. व्यवसायों के लिए नियामक अनुपालन से परे, यूरोपीय संघ के AI एक्ट के पारदर्शिता संबंधी दायित्व, विशेष रूप से डीपफेक और AI इंटरैक्शन के संबंध में, एक औसत यूरोपीय संघ के नागरिक के दैनिक डिजिटल अनुभव को सीधे कैसे बदलेंगे?

    एक औसत यूरोपीय संघ के नागरिक के लिए, AI एक्ट के पारदर्शिता संबंधी दायित्वों का मतलब है कि उनकी डिजिटल बातचीत में स्पष्टता और विश्वास में काफी वृद्धि होगी. उन्हें स्पष्ट रूप से सूचित किया जाएगा कि वे किसी AI सिस्टम, जैसे चैटबॉट, के साथ बातचीत कर रहे हैं, न कि किसी इंसान के साथ. इससे भी महत्वपूर्ण बात यह है कि AI-जनित किसी भी सामग्री, जैसे डीपफेक छवियों या वीडियो, को स्पष्ट रूप से लेबल करना होगा. इसका उद्देश्य नागरिकों को वास्तविक और AI-जनित सामग्री के बीच अंतर करने में सशक्त बनाना, गलत सूचना का मुकाबला करना और यह सुनिश्चित करना है कि वे कुछ डिजिटल अनुभवों की कृत्रिम प्रकृति से अवगत हों. यह हेरफेर के जोखिम को कम करता है और AI की उपस्थिति को स्पष्ट करके डिजिटल साक्षरता को बढ़ाता है.

    5. AI की तेजी से प्रगति से उत्पन्न होने वाली कौन सी मूलभूत सामाजिक समस्याएं या नैतिक चिंताएं थीं, जिन्हें यूरोपीय संघ के AI एक्ट ने मुख्य रूप से हल करने का लक्ष्य रखा था, और जिन्हें मौजूदा कानूनी ढाँचे संबोधित करने में संघर्ष कर रहे थे?

    यूरोपीय संघ का AI एक्ट मुख्य रूप से मौलिक अधिकारों को संभावित नुकसान, जवाबदेही की कमी और अनियंत्रित AI से उत्पन्न होने वाले लोकतांत्रिक मूल्यों के क्षरण जैसी सामाजिक समस्याओं का समाधान करना चाहता है. डेटा संरक्षण नियमों जैसे मौजूदा कानून अपर्याप्त थे क्योंकि AI का प्रभाव डेटा गोपनीयता से परे जाकर भर्ती में एल्गोरिथम पूर्वाग्रह, भेदभावपूर्ण फेशियल रिकॉग्निशन, प्रेडिक्टिव पुलिसिंग और मानवीय पर्यवेक्षण के बिना स्वचालित निर्णय लेने जैसे मुद्दों तक फैला हुआ है. यह एक्ट इन जोखिमों को सक्रिय रूप से कम करके, स्पष्ट जिम्मेदारियां स्थापित करके और AI प्रौद्योगिकियों में जनता का विश्वास बढ़ाकर यह सुनिश्चित करना चाहता है कि AI विकास मानव-केंद्रित, भरोसेमंद और यूरोपीय मूल्यों का सम्मान करने वाला हो.

    • •मौलिक अधिकारों का संरक्षण: AI प्रणालियों द्वारा एल्गोरिथम पूर्वाग्रह, भेदभाव और गोपनीयता के उल्लंघन जैसे जोखिमों का समाधान करना.
    • •जवाबदेही का अंतर: AI के डेवलपर्स और तैनात करने वालों के लिए स्पष्ट जिम्मेदारियां स्थापित करना, विशेष रूप से उच्च-जोखिम वाले अनुप्रयोगों के लिए.
    • •लोकतांत्रिक मूल्यों का क्षरण: सामाजिक स्कोरिंग, हेरफेर करने वाली प्रथाओं या लोकतांत्रिक प्रक्रियाओं को कमजोर करने के लिए AI के दुरुपयोग को रोकना.
    • •विश्वास की कमी: पारदर्शिता, मानवीय पर्यवेक्षण और सुरक्षा सुनिश्चित करके AI में जनता का विश्वास बनाना.
    6. आलोचकों का तर्क है कि यूरोपीय संघ के AI एक्ट के कड़े नियम, विशेष रूप से उच्च-जोखिम वाली AI और GPAI के लिए, यूरोप में नवाचार को बाधित कर सकते हैं. एक विश्लेषक के रूप में, आप इस चिंता को एक्ट के लक्ष्यों के साथ कैसे संतुलित करेंगे, और भारत अपने AI नियामक ढांचे के लिए किन सबकों पर विचार कर सकता है?

    एक विश्लेषक के रूप में, मैं इस वैध चिंता को स्वीकार करूंगा कि कड़े नियम वास्तव में अनुपालन लागत बढ़ा सकते हैं और नवाचार को धीमा कर सकते हैं, खासकर स्टार्टअप्स के लिए. हालांकि, एक्ट के समर्थक तर्क देते हैं कि 'जिम्मेदार नवाचार' ही लक्ष्य है, जहां विश्वास और सुरक्षा AI की दीर्घकालिक वृद्धि और सार्वजनिक स्वीकृति के लिए आवश्यक शर्तें हैं. नियामक सैंडबॉक्स (regulatory sandboxes) एक नियंत्रित वातावरण में नवाचार की अनुमति देकर इसे संतुलित करने का सीधा प्रयास हैं. भारत के लिए, सबक यह है कि एक समान संतुलन खोजा जाए, शायद भारत के अद्वितीय सामाजिक-आर्थिक संदर्भ के अनुरूप जोखिम-आधारित दृष्टिकोण अपनाकर, पहले महत्वपूर्ण क्षेत्रों पर ध्यान केंद्रित करके, और नियामकों, उद्योग और शिक्षाविदों के बीच एक सहयोगात्मक वातावरण को बढ़ावा देकर. भारत कम जोखिम वाली AI के लिए 'लाइट-टच' नियामक दृष्टिकोण भी अपना सकता है ताकि व्यापक रूप से अपनाने को प्रोत्साहित किया जा सके, जबकि उच्च-प्रभाव वाले अनुप्रयोगों के लिए सख्त निगरानी बनाए रखी जाए, यूरोपीय संघ के व्यापक दृष्टिकोण और अमेरिका के अधिक उद्योग-नेतृत्व वाले दिशानिर्देशों दोनों से सीख लेकर.