Skip to main content
GKSolverGKSolver
HomeExam NewsMCQsMainsUPSC Prep
Login
Menu
Daily
HomeDaily NewsExam NewsStudy Plan
Practice
Essential MCQsEssential MainsUPSC PrepBookmarks
Browse
EditorialsStory ThreadsTrending
Home
Daily
MCQs
Saved
News

© 2025 GKSolver. Free AI-powered UPSC preparation platform.

AboutContactPrivacyTermsDisclaimer
GKSolverGKSolver
HomeExam NewsMCQsMainsUPSC Prep
Login
Menu
Daily
HomeDaily NewsExam NewsStudy Plan
Practice
Essential MCQsEssential MainsUPSC PrepBookmarks
Browse
EditorialsStory ThreadsTrending
Home
Daily
MCQs
Saved
News

© 2025 GKSolver. Free AI-powered UPSC preparation platform.

AboutContactPrivacyTermsDisclaimer
4 minAct/Law

Legislative Journey of the EU AI Act

This timeline outlines the key stages in the development and adoption of the European Union's landmark AI Act, from its initial proposal to its final approval and implementation phases.

April 2021

European Commission proposes the AI Act

Dec 2023

Provisional political agreement reached on final text

March 13, 2024

European Parliament formally adopts the AI Act

May 21, 2024

Council of the EU gives final approval to the AI Act

20 days after publication

Act enters into force

6 months after entry

Prohibitions on unacceptable AI systems apply

24 months after entry

Most rules for high-risk AI become fully applicable

Connected to current news

This Concept in News

1 news topics

1

China Pushes Society-Wide AI Adoption to Counter Job Displacement Fears

11 March 2026

खबर चीन की व्यापक एआई अपनाने की रणनीति पर प्रकाश डालती है ताकि नौकरी विस्थापन का मुकाबला किया जा सके और उत्पादकता बढ़ाई जा सके। यह यूरोपीय संघ के एआई कानून के बिल्कुल विपरीत है, जो सुरक्षा, पारदर्शिता और मौलिक अधिकारों को सुनिश्चित करने के लिए एआई को विनियमित करने को प्राथमिकता देता है। जबकि चीन आर्थिक विकास और रोजगार स्थिरता के लिए एआई का लाभ उठाने पर ध्यान केंद्रित करता है, यूरोपीय संघ का कानून ऐसे तेजी से अपनाने से होने वाले संभावित नुकसान और सामाजिक चुनौतियों का समाधान करता है, जिसका लक्ष्य विश्वास बनाना और दुरुपयोग को रोकना है।

4 minAct/Law

Legislative Journey of the EU AI Act

This timeline outlines the key stages in the development and adoption of the European Union's landmark AI Act, from its initial proposal to its final approval and implementation phases.

April 2021

European Commission proposes the AI Act

Dec 2023

Provisional political agreement reached on final text

March 13, 2024

European Parliament formally adopts the AI Act

May 21, 2024

Council of the EU gives final approval to the AI Act

20 days after publication

Act enters into force

6 months after entry

Prohibitions on unacceptable AI systems apply

24 months after entry

Most rules for high-risk AI become fully applicable

Connected to current news

This Concept in News

1 news topics

1

China Pushes Society-Wide AI Adoption to Counter Job Displacement Fears

11 March 2026

खबर चीन की व्यापक एआई अपनाने की रणनीति पर प्रकाश डालती है ताकि नौकरी विस्थापन का मुकाबला किया जा सके और उत्पादकता बढ़ाई जा सके। यह यूरोपीय संघ के एआई कानून के बिल्कुल विपरीत है, जो सुरक्षा, पारदर्शिता और मौलिक अधिकारों को सुनिश्चित करने के लिए एआई को विनियमित करने को प्राथमिकता देता है। जबकि चीन आर्थिक विकास और रोजगार स्थिरता के लिए एआई का लाभ उठाने पर ध्यान केंद्रित करता है, यूरोपीय संघ का कानून ऐसे तेजी से अपनाने से होने वाले संभावित नुकसान और सामाजिक चुनौतियों का समाधान करता है, जिसका लक्ष्य विश्वास बनाना और दुरुपयोग को रोकना है।

EU AI Act: Risk-Based Approach & Key Provisions

This mind map illustrates the core principles of the EU AI Act, focusing on its risk-based classification of AI systems, the different regulatory requirements for each category, and other significant provisions like penalties and innovation support.

EU AI Act

Respect Fundamental Rights (Privacy, Dignity)

Foster Trust in AI while promoting innovation

Unacceptable Risk (Prohibited AI)

High-Risk AI (Strictest Rules)

Limited Risk AI (Transparency Rules)

Minimal Risk AI (Voluntary Codes)

Prohibited AI: Social Scoring, Manipulative AI, Real-time Biometric ID (exceptions)

High-Risk Requirements: Human Oversight, Data Quality, Transparency, Robustness

General Purpose AI (GPAI) Models (e.g., ChatGPT) covered

Heavy Penalties (€35M or 7% of turnover for violations)

Regulatory Sandboxes for testing new AI systems

National Supervisory Authorities in member states

European Artificial Intelligence Board for consistent application

Connections
Core Purpose: Safe, Transparent, Ethical AI→Key Principle: Risk-Based Approach
Key Principle: Risk-Based Approach→Key Provisions
Key Provisions→Fostering Innovation
Key Provisions→Governance Structure

EU AI Act: Risk Categories and Regulations

This table compares the four risk categories defined by the EU AI Act, outlining the types of AI systems falling under each category and the corresponding regulatory requirements, which is crucial for understanding the Act's implementation.

EU AI Act: Risk Categories and Regulatory Requirements

Risk CategoryType of AI SystemRegulatory Requirements
Unacceptable RiskAI systems that pose a clear threat to fundamental rights (e.g., social scoring, manipulative AI, real-time biometric identification in public spaces with few exceptions).Strictly Prohibited
High-RiskAI systems used in critical sectors (e.g., fundamental rights, education, employment, law enforcement, migration, justice). Examples: AI for job application screening, credit scoring, medical devices.Strict obligations: Human oversight, data quality & governance, transparency, robustness, accuracy, cybersecurity, conformity assessment before market launch.
Limited RiskAI systems with specific transparency risks (e.g., chatbots, deepfakes).Transparency obligations: Users must be informed they are interacting with AI or that content is AI-generated.
Minimal RiskMost AI systems (e.g., spam filters, video games).No strict rules; encouraged to adhere to voluntary codes of conduct.

💡 Highlighted: Row 2 is particularly important for exam preparation

EU AI Act: Risk-Based Approach & Key Provisions

This mind map illustrates the core principles of the EU AI Act, focusing on its risk-based classification of AI systems, the different regulatory requirements for each category, and other significant provisions like penalties and innovation support.

EU AI Act

Respect Fundamental Rights (Privacy, Dignity)

Foster Trust in AI while promoting innovation

Unacceptable Risk (Prohibited AI)

High-Risk AI (Strictest Rules)

Limited Risk AI (Transparency Rules)

Minimal Risk AI (Voluntary Codes)

Prohibited AI: Social Scoring, Manipulative AI, Real-time Biometric ID (exceptions)

High-Risk Requirements: Human Oversight, Data Quality, Transparency, Robustness

General Purpose AI (GPAI) Models (e.g., ChatGPT) covered

Heavy Penalties (€35M or 7% of turnover for violations)

Regulatory Sandboxes for testing new AI systems

National Supervisory Authorities in member states

European Artificial Intelligence Board for consistent application

Connections
Core Purpose: Safe, Transparent, Ethical AI→Key Principle: Risk-Based Approach
Key Principle: Risk-Based Approach→Key Provisions
Key Provisions→Fostering Innovation
Key Provisions→Governance Structure

EU AI Act: Risk Categories and Regulations

This table compares the four risk categories defined by the EU AI Act, outlining the types of AI systems falling under each category and the corresponding regulatory requirements, which is crucial for understanding the Act's implementation.

EU AI Act: Risk Categories and Regulatory Requirements

Risk CategoryType of AI SystemRegulatory Requirements
Unacceptable RiskAI systems that pose a clear threat to fundamental rights (e.g., social scoring, manipulative AI, real-time biometric identification in public spaces with few exceptions).Strictly Prohibited
High-RiskAI systems used in critical sectors (e.g., fundamental rights, education, employment, law enforcement, migration, justice). Examples: AI for job application screening, credit scoring, medical devices.Strict obligations: Human oversight, data quality & governance, transparency, robustness, accuracy, cybersecurity, conformity assessment before market launch.
Limited RiskAI systems with specific transparency risks (e.g., chatbots, deepfakes).Transparency obligations: Users must be informed they are interacting with AI or that content is AI-generated.
Minimal RiskMost AI systems (e.g., spam filters, video games).No strict rules; encouraged to adhere to voluntary codes of conduct.

💡 Highlighted: Row 2 is particularly important for exam preparation

  1. होम
  2. /
  3. अवधारणाएं
  4. /
  5. Act/Law
  6. /
  7. एआई कानून
Act/Law

एआई कानून

एआई कानून क्या है?

एआई कानून यूरोपीय संघ (EU) का एक महत्वपूर्ण कानून है, जिसे आर्टिफिशियल इंटेलिजेंस (AI) प्रणालियों के विकास और उपयोग को विनियमित करने के लिए बनाया गया है। इसका मुख्य उद्देश्य यह सुनिश्चित करना है कि यूरोपीय संघ के बाजार में आने वाली एआई प्रणालियाँ सुरक्षित, पारदर्शी, भेदभाव रहित हों और निजता तथा मानवीय गरिमा जैसे मौलिक अधिकारों का सम्मान करें। यह कानून जोखिम-आधारित दृष्टिकोण अपनाता है, जिसमें उन एआई प्रणालियों पर सख्त नियम लागू होते हैं जिनसे लोगों की सुरक्षा या मौलिक अधिकारों को अधिक खतरा होता है। इस कानून का लक्ष्य एआई में विश्वास बढ़ाना और नवाचार को बढ़ावा देना है, साथ ही जिम्मेदार एआई शासन के लिए एक वैश्विक मानक स्थापित करना और इस तेजी से विकसित हो रही तकनीक से उत्पन्न संभावित सामाजिक चुनौतियों का समाधान करना है।

ऐतिहासिक पृष्ठभूमि

एआई कानून की यात्रा अप्रैल 2021 में शुरू हुई, जब यूरोपीय आयोग ने पहली बार इस कानून का प्रस्ताव रखा। यह कदम एआई की परिवर्तनकारी क्षमता और इससे जुड़े नैतिक और सामाजिक जोखिमों, जैसे पूर्वाग्रह, भेदभाव और जवाबदेही की कमी के बारे में बढ़ती वैश्विक जागरूकता के बीच आया। यूरोपीय संघ, जिसने पहले जनरल डेटा प्रोटेक्शन रेगुलेशन (GDPR) के साथ वैश्विक मानक स्थापित किए थे, का लक्ष्य एआई विनियमन में भी अग्रणी बनना था। अगले दो वर्षों में, यूरोपीय संसद, यूरोपीय संघ परिषद और आयोग के बीच व्यापक बातचीत हुई। इन चर्चाओं में जोखिम श्रेणियों को परिष्कृत करने, प्रतिबंधित एआई प्रथाओं को परिभाषित करने और डेवलपर्स तथा उपयोग करने वालों के लिए स्पष्ट दायित्व स्थापित करने पर ध्यान केंद्रित किया गया। दिसंबर 2023 में एक अनंतिम समझौता हुआ, जिसने इसके औपचारिक अनुमोदन का मार्ग प्रशस्त किया और वैश्विक एआई शासन में एक महत्वपूर्ण मील का पत्थर साबित हुआ।

मुख्य प्रावधान

12 points
  • 1.

    The Act adopts a risk-based approach, meaning AI systems are categorized into four levels based on their potential harm: unacceptable risk, high risk, limited risk, and minimal risk. Rules vary for each category, making the regulation as strict as the risk warrants.

  • 2.

    Unacceptable risk AI systems are completely prohibited. This includes systems that manipulate human behavior, conduct governmental 'social scoring', or use real-time remote biometric identification in public spaces, except for certain strict law enforcement exceptions.

  • 3.

    High-risk AI systems face the strictest requirements. These include AI systems used in critical infrastructure, education, employment, law enforcement, migration management, and administration of justice. For example, an AI that screens job applications or determines credit scores would fall into this category.

दृश्य सामग्री

Legislative Journey of the EU AI Act

This timeline outlines the key stages in the development and adoption of the European Union's landmark AI Act, from its initial proposal to its final approval and implementation phases.

EU AI कानून वैश्विक AI विनियमन में एक अग्रणी प्रयास का प्रतिनिधित्व करता है, जो डिजिटल मानकों (जैसे GDPR) को स्थापित करने के EU के इतिहास पर आधारित है। इसकी विधायी यात्रा में व्यापक बातचीत शामिल थी, जो सुरक्षित और नैतिक AI परिनियोजन सुनिश्चित करने के लिए डिज़ाइन किए गए जोखिम-आधारित ढांचे में परिणत हुई।

  • April 2021यूरोपीय आयोग ने AI कानून का प्रस्ताव रखा
  • Dec 2023अंतिम पाठ पर अनंतिम राजनीतिक समझौता हुआ
  • March 13, 2024यूरोपीय संसद ने औपचारिक रूप से AI कानून अपनाया
  • May 21, 2024EU परिषद ने AI कानून को अंतिम मंजूरी दी
  • 20 days after publicationप्रकाशन के 20 दिन बाद कानून लागू होता है
  • 6 months after entryअस्वीकार्य AI प्रणालियों पर प्रतिबंध लागू होते हैं
  • 24 months after entryउच्च-जोखिम वाले AI के लिए अधिकांश नियम पूरी तरह से लागू हो जाते हैं

वास्तविक दुनिया के उदाहरण

1 उदाहरण

यह अवधारणा 1 वास्तविक उदाहरणों में दिखाई दी है अवधि: Mar 2026 से Mar 2026

China Pushes Society-Wide AI Adoption to Counter Job Displacement Fears

11 Mar 2026

खबर चीन की व्यापक एआई अपनाने की रणनीति पर प्रकाश डालती है ताकि नौकरी विस्थापन का मुकाबला किया जा सके और उत्पादकता बढ़ाई जा सके। यह यूरोपीय संघ के एआई कानून के बिल्कुल विपरीत है, जो सुरक्षा, पारदर्शिता और मौलिक अधिकारों को सुनिश्चित करने के लिए एआई को विनियमित करने को प्राथमिकता देता है। जबकि चीन आर्थिक विकास और रोजगार स्थिरता के लिए एआई का लाभ उठाने पर ध्यान केंद्रित करता है, यूरोपीय संघ का कानून ऐसे तेजी से अपनाने से होने वाले संभावित नुकसान और सामाजिक चुनौतियों का समाधान करता है, जिसका लक्ष्य विश्वास बनाना और दुरुपयोग को रोकना है।

संबंधित अवधारणाएं

Job DisplacementUpskillingEconomic Growth

स्रोत विषय

China Pushes Society-Wide AI Adoption to Counter Job Displacement Fears

Science & Technology

UPSC महत्व

एआई कानून यूपीएससी परीक्षाओं के लिए बहुत महत्वपूर्ण है, खासकर जीएस-2 (शासन और अंतर्राष्ट्रीय संबंध) और जीएस-3 (विज्ञान और प्रौद्योगिकी, अर्थव्यवस्था) के लिए। प्रारंभिक परीक्षा में, प्रश्न इसके मुख्य प्रावधानों, जोखिम-आधारित दृष्टिकोण, प्रतिबंधित एआई उपयोगों या इसके कार्यान्वयन की समय-सीमा पर केंद्रित हो सकते हैं। मुख्य परीक्षा के लिए, एआई के नैतिक आयामों, तकनीकी प्रगति में विनियमन की भूमिका, और यूरोपीय संघ के दृष्टिकोण की भारत, अमेरिका या चीन जैसी अन्य प्रमुख अर्थव्यवस्थाओं के साथ तुलना का विश्लेषण करने के लिए यह महत्वपूर्ण है। यह प्रौद्योगिकी और समाज पर निबंध के पेपर में भी आ सकता है। इस कानून को समझना छात्रों को उभरती प्रौद्योगिकियों के वैश्विक शासन, नवाचार और मानवाधिकारों के बीच संतुलन, और एआई-संचालित दुनिया में काम के भविष्य पर अच्छी तरह से तैयार उत्तर देने में मदद करता है।
❓

सामान्य प्रश्न

12
1. एआई एक्ट के तहत "अस्वीकार्य जोखिम" और "उच्च जोखिम" वाली एआई प्रणालियों के बीच एक मुख्य अंतर क्या है जिसे यूपीएससी अक्सर पूछता है?

मुख्य अंतर 'पूर्ण प्रतिबंध' और 'सख्त विनियमन' का है। अस्वीकार्य जोखिम वाली एआई प्रणालियों पर पूरी तरह से प्रतिबंध है (जैसे सोशल स्कोरिंग), जबकि उच्च जोखिम वाली एआई प्रणालियों को बाजार में लाने से पहले सख्त नियमों और अनुरूपता मूल्यांकन से गुजरना पड़ता है (जैसे क्रेडिट स्कोरिंग के लिए एआई)। भ्रम अक्सर एक अत्यधिक विनियमित प्रणाली को प्रतिबंधित प्रणाली मान लेने में होता है।

परीक्षा युक्ति

याद रखें: "अस्वीकार्य" का मतलब "पूरी तरह से मना", "उच्च" का मतलब "अनुमति है, लेकिन बहुत सावधानी और जाँच के साथ"।

2. एआई एक्ट के चरणबद्ध कार्यान्वयन को देखते हुए, विशेष रूप से प्रतिबंधों और उच्च जोखिम वाले एआई से संबंधित कौन सी समय-सीमाएं प्रीलिम्स के लिए महत्वपूर्ण हैं?

प्रीलिम्स के लिए, दो मुख्य समय-सीमाएं याद रखें: अस्वीकार्य एआई प्रणालियों पर प्रतिबंध एक्ट के लागू होने के 6 महीने बाद लागू होंगे। उच्च जोखिम वाले एआई के लिए अधिकांश अन्य नियम 24 महीने बाद पूरी तरह से लागू होंगे। भ्रम अक्सर इन दो अलग-अलग अवधियों को मिलाने में होता है।

On This Page

DefinitionHistorical BackgroundKey PointsVisual InsightsReal-World ExamplesRelated ConceptsUPSC RelevanceSource TopicFAQs

Source Topic

China Pushes Society-Wide AI Adoption to Counter Job Displacement FearsScience & Technology

Related Concepts

Job DisplacementUpskillingEconomic Growth
  1. होम
  2. /
  3. अवधारणाएं
  4. /
  5. Act/Law
  6. /
  7. एआई कानून
Act/Law

एआई कानून

एआई कानून क्या है?

एआई कानून यूरोपीय संघ (EU) का एक महत्वपूर्ण कानून है, जिसे आर्टिफिशियल इंटेलिजेंस (AI) प्रणालियों के विकास और उपयोग को विनियमित करने के लिए बनाया गया है। इसका मुख्य उद्देश्य यह सुनिश्चित करना है कि यूरोपीय संघ के बाजार में आने वाली एआई प्रणालियाँ सुरक्षित, पारदर्शी, भेदभाव रहित हों और निजता तथा मानवीय गरिमा जैसे मौलिक अधिकारों का सम्मान करें। यह कानून जोखिम-आधारित दृष्टिकोण अपनाता है, जिसमें उन एआई प्रणालियों पर सख्त नियम लागू होते हैं जिनसे लोगों की सुरक्षा या मौलिक अधिकारों को अधिक खतरा होता है। इस कानून का लक्ष्य एआई में विश्वास बढ़ाना और नवाचार को बढ़ावा देना है, साथ ही जिम्मेदार एआई शासन के लिए एक वैश्विक मानक स्थापित करना और इस तेजी से विकसित हो रही तकनीक से उत्पन्न संभावित सामाजिक चुनौतियों का समाधान करना है।

ऐतिहासिक पृष्ठभूमि

एआई कानून की यात्रा अप्रैल 2021 में शुरू हुई, जब यूरोपीय आयोग ने पहली बार इस कानून का प्रस्ताव रखा। यह कदम एआई की परिवर्तनकारी क्षमता और इससे जुड़े नैतिक और सामाजिक जोखिमों, जैसे पूर्वाग्रह, भेदभाव और जवाबदेही की कमी के बारे में बढ़ती वैश्विक जागरूकता के बीच आया। यूरोपीय संघ, जिसने पहले जनरल डेटा प्रोटेक्शन रेगुलेशन (GDPR) के साथ वैश्विक मानक स्थापित किए थे, का लक्ष्य एआई विनियमन में भी अग्रणी बनना था। अगले दो वर्षों में, यूरोपीय संसद, यूरोपीय संघ परिषद और आयोग के बीच व्यापक बातचीत हुई। इन चर्चाओं में जोखिम श्रेणियों को परिष्कृत करने, प्रतिबंधित एआई प्रथाओं को परिभाषित करने और डेवलपर्स तथा उपयोग करने वालों के लिए स्पष्ट दायित्व स्थापित करने पर ध्यान केंद्रित किया गया। दिसंबर 2023 में एक अनंतिम समझौता हुआ, जिसने इसके औपचारिक अनुमोदन का मार्ग प्रशस्त किया और वैश्विक एआई शासन में एक महत्वपूर्ण मील का पत्थर साबित हुआ।

मुख्य प्रावधान

12 points
  • 1.

    The Act adopts a risk-based approach, meaning AI systems are categorized into four levels based on their potential harm: unacceptable risk, high risk, limited risk, and minimal risk. Rules vary for each category, making the regulation as strict as the risk warrants.

  • 2.

    Unacceptable risk AI systems are completely prohibited. This includes systems that manipulate human behavior, conduct governmental 'social scoring', or use real-time remote biometric identification in public spaces, except for certain strict law enforcement exceptions.

  • 3.

    High-risk AI systems face the strictest requirements. These include AI systems used in critical infrastructure, education, employment, law enforcement, migration management, and administration of justice. For example, an AI that screens job applications or determines credit scores would fall into this category.

दृश्य सामग्री

Legislative Journey of the EU AI Act

This timeline outlines the key stages in the development and adoption of the European Union's landmark AI Act, from its initial proposal to its final approval and implementation phases.

EU AI कानून वैश्विक AI विनियमन में एक अग्रणी प्रयास का प्रतिनिधित्व करता है, जो डिजिटल मानकों (जैसे GDPR) को स्थापित करने के EU के इतिहास पर आधारित है। इसकी विधायी यात्रा में व्यापक बातचीत शामिल थी, जो सुरक्षित और नैतिक AI परिनियोजन सुनिश्चित करने के लिए डिज़ाइन किए गए जोखिम-आधारित ढांचे में परिणत हुई।

  • April 2021यूरोपीय आयोग ने AI कानून का प्रस्ताव रखा
  • Dec 2023अंतिम पाठ पर अनंतिम राजनीतिक समझौता हुआ
  • March 13, 2024यूरोपीय संसद ने औपचारिक रूप से AI कानून अपनाया
  • May 21, 2024EU परिषद ने AI कानून को अंतिम मंजूरी दी
  • 20 days after publicationप्रकाशन के 20 दिन बाद कानून लागू होता है
  • 6 months after entryअस्वीकार्य AI प्रणालियों पर प्रतिबंध लागू होते हैं
  • 24 months after entryउच्च-जोखिम वाले AI के लिए अधिकांश नियम पूरी तरह से लागू हो जाते हैं

वास्तविक दुनिया के उदाहरण

1 उदाहरण

यह अवधारणा 1 वास्तविक उदाहरणों में दिखाई दी है अवधि: Mar 2026 से Mar 2026

China Pushes Society-Wide AI Adoption to Counter Job Displacement Fears

11 Mar 2026

खबर चीन की व्यापक एआई अपनाने की रणनीति पर प्रकाश डालती है ताकि नौकरी विस्थापन का मुकाबला किया जा सके और उत्पादकता बढ़ाई जा सके। यह यूरोपीय संघ के एआई कानून के बिल्कुल विपरीत है, जो सुरक्षा, पारदर्शिता और मौलिक अधिकारों को सुनिश्चित करने के लिए एआई को विनियमित करने को प्राथमिकता देता है। जबकि चीन आर्थिक विकास और रोजगार स्थिरता के लिए एआई का लाभ उठाने पर ध्यान केंद्रित करता है, यूरोपीय संघ का कानून ऐसे तेजी से अपनाने से होने वाले संभावित नुकसान और सामाजिक चुनौतियों का समाधान करता है, जिसका लक्ष्य विश्वास बनाना और दुरुपयोग को रोकना है।

संबंधित अवधारणाएं

Job DisplacementUpskillingEconomic Growth

स्रोत विषय

China Pushes Society-Wide AI Adoption to Counter Job Displacement Fears

Science & Technology

UPSC महत्व

एआई कानून यूपीएससी परीक्षाओं के लिए बहुत महत्वपूर्ण है, खासकर जीएस-2 (शासन और अंतर्राष्ट्रीय संबंध) और जीएस-3 (विज्ञान और प्रौद्योगिकी, अर्थव्यवस्था) के लिए। प्रारंभिक परीक्षा में, प्रश्न इसके मुख्य प्रावधानों, जोखिम-आधारित दृष्टिकोण, प्रतिबंधित एआई उपयोगों या इसके कार्यान्वयन की समय-सीमा पर केंद्रित हो सकते हैं। मुख्य परीक्षा के लिए, एआई के नैतिक आयामों, तकनीकी प्रगति में विनियमन की भूमिका, और यूरोपीय संघ के दृष्टिकोण की भारत, अमेरिका या चीन जैसी अन्य प्रमुख अर्थव्यवस्थाओं के साथ तुलना का विश्लेषण करने के लिए यह महत्वपूर्ण है। यह प्रौद्योगिकी और समाज पर निबंध के पेपर में भी आ सकता है। इस कानून को समझना छात्रों को उभरती प्रौद्योगिकियों के वैश्विक शासन, नवाचार और मानवाधिकारों के बीच संतुलन, और एआई-संचालित दुनिया में काम के भविष्य पर अच्छी तरह से तैयार उत्तर देने में मदद करता है।
❓

सामान्य प्रश्न

12
1. एआई एक्ट के तहत "अस्वीकार्य जोखिम" और "उच्च जोखिम" वाली एआई प्रणालियों के बीच एक मुख्य अंतर क्या है जिसे यूपीएससी अक्सर पूछता है?

मुख्य अंतर 'पूर्ण प्रतिबंध' और 'सख्त विनियमन' का है। अस्वीकार्य जोखिम वाली एआई प्रणालियों पर पूरी तरह से प्रतिबंध है (जैसे सोशल स्कोरिंग), जबकि उच्च जोखिम वाली एआई प्रणालियों को बाजार में लाने से पहले सख्त नियमों और अनुरूपता मूल्यांकन से गुजरना पड़ता है (जैसे क्रेडिट स्कोरिंग के लिए एआई)। भ्रम अक्सर एक अत्यधिक विनियमित प्रणाली को प्रतिबंधित प्रणाली मान लेने में होता है।

परीक्षा युक्ति

याद रखें: "अस्वीकार्य" का मतलब "पूरी तरह से मना", "उच्च" का मतलब "अनुमति है, लेकिन बहुत सावधानी और जाँच के साथ"।

2. एआई एक्ट के चरणबद्ध कार्यान्वयन को देखते हुए, विशेष रूप से प्रतिबंधों और उच्च जोखिम वाले एआई से संबंधित कौन सी समय-सीमाएं प्रीलिम्स के लिए महत्वपूर्ण हैं?

प्रीलिम्स के लिए, दो मुख्य समय-सीमाएं याद रखें: अस्वीकार्य एआई प्रणालियों पर प्रतिबंध एक्ट के लागू होने के 6 महीने बाद लागू होंगे। उच्च जोखिम वाले एआई के लिए अधिकांश अन्य नियम 24 महीने बाद पूरी तरह से लागू होंगे। भ्रम अक्सर इन दो अलग-अलग अवधियों को मिलाने में होता है।

On This Page

DefinitionHistorical BackgroundKey PointsVisual InsightsReal-World ExamplesRelated ConceptsUPSC RelevanceSource TopicFAQs

Source Topic

China Pushes Society-Wide AI Adoption to Counter Job Displacement FearsScience & Technology

Related Concepts

Job DisplacementUpskillingEconomic Growth
4.

For high-risk AI systems, there are requirements for human oversight, data quality and governance, transparency, robustness, and accuracy. These systems must undergo a conformity assessment before being placed on the market, to ensure they comply with the rules.

  • 5.

    Limited risk AI systems have transparency obligations. This means that when a person is interacting with an AI system, such as a chatbot, they must be informed that they are interacting with AI. This helps users make informed choices.

  • 6.

    Most AI systems fall into the minimal risk category, such as spam filters or video games. These are not subject to strict regulations, but developers are encouraged to adhere to voluntary codes of conduct.

  • 7.

    The Act also addresses General Purpose AI (GPAI) models, such as ChatGPT. These models are subject to different obligations based on their capabilities and risks, especially if they pose 'systemic risks'.

  • 8.

    Non-compliance can lead to significant penalties. For instance, violations of prohibited AI practices can result in fines of up to €35 million or 7% of the company's global annual turnover, whichever is higher.

  • 9.

    To foster innovation, the Act also provides for regulatory sandboxes. These are controlled environments where companies can safely test new AI systems under regulatory supervision, helping smaller businesses and startups.

  • 10.

    EU member states will have to establish national supervisory authorities for AI systems, ensuring effective enforcement of the Act. A European Artificial Intelligence Board will also be created to oversee consistent application of the rules across the Union.

  • 11.

    For the UPSC exam, students should specifically understand the risk-based classification of AI and know what rules apply to different categories. It's also crucial to compare this with India's own approach to AI regulation.

  • 12.

    A key aspect of this Act is that it mandates human oversight for AI systems, especially in high-risk areas. This means AI will not be allowed to make fully autonomous decisions, and humans will always have the ability to intervene.

  • EU AI Act: Risk-Based Approach & Key Provisions

    This mind map illustrates the core principles of the EU AI Act, focusing on its risk-based classification of AI systems, the different regulatory requirements for each category, and other significant provisions like penalties and innovation support.

    EU AI Act

    • ●Core Purpose: Safe, Transparent, Ethical AI
    • ●Key Principle: Risk-Based Approach
    • ●Key Provisions
    • ●Fostering Innovation
    • ●Governance Structure

    EU AI Act: Risk Categories and Regulations

    This table compares the four risk categories defined by the EU AI Act, outlining the types of AI systems falling under each category and the corresponding regulatory requirements, which is crucial for understanding the Act's implementation.

    Risk CategoryType of AI SystemRegulatory Requirements
    Unacceptable RiskAI systems that pose a clear threat to fundamental rights (e.g., social scoring, manipulative AI, real-time biometric identification in public spaces with few exceptions).Strictly Prohibited
    High-RiskAI systems used in critical sectors (e.g., fundamental rights, education, employment, law enforcement, migration, justice). Examples: AI for job application screening, credit scoring, medical devices.Strict obligations: Human oversight, data quality & governance, transparency, robustness, accuracy, cybersecurity, conformity assessment before market launch.
    Limited RiskAI systems with specific transparency risks (e.g., chatbots, deepfakes).Transparency obligations: Users must be informed they are interacting with AI or that content is AI-generated.
    Minimal RiskMost AI systems (e.g., spam filters, video games).No strict rules; encouraged to adhere to voluntary codes of conduct.

    परीक्षा युक्ति

    "अस्वीकार्य" को छोटी अवधि "6 महीने" (जल्दी प्रतिबंध) से और "उच्च जोखिम" को लंबी अवधि "24 महीने" (जटिल कार्यान्वयन) से जोड़ें।

    3. एआई एक्ट, जीडीपीआर और डिजिटल सेवा अधिनियम से अपने नियामक फोकस में मौलिक रूप से कैसे भिन्न है, जो स्टेटमेंट-आधारित MCQs के लिए भ्रम का एक सामान्य बिंदु है?

    एआई एक्ट मौलिक अधिकारों और सुरक्षा के लिए उनके जोखिम के आधार पर एआई प्रणालियों को विनियमित करने पर केंद्रित है। जीडीपीआर मुख्य रूप से व्यक्तिगत डेटा प्रसंस्करण को विनियमित करता है, गोपनीयता सुनिश्चित करता है। डिजिटल सेवा अधिनियम ऑनलाइन प्लेटफॉर्म और सामग्री मॉडरेशन और पारदर्शिता के लिए उनकी जिम्मेदारी को लक्षित करता है। जबकि वे सभी डिजिटल शासन से संबंधित हैं, उनके मुख्य नियामक उद्देश्य अलग-अलग हैं।

    परीक्षा युक्ति

    इसे ऐसे समझें: एआई एक्ट = एआई तकनीक, जीडीपीआर = डेटा, डीएसए = प्लेटफॉर्म।

    4. एआई एक्ट का पालन न करने पर, विशेष रूप से प्रतिबंधित एआई प्रथाओं का उल्लंघन करने पर अधिकतम दंड क्या हैं, और यह आंकड़ा यूपीएससी प्रीलिम्स के लिए क्यों महत्वपूर्ण है?

    एआई एक्ट अनुपालन सुनिश्चित करने के लिए भारी जुर्माना लगाता है। प्रतिबंधित एआई प्रथाओं (जैसे सोशल स्कोरिंग) का उल्लंघन करने पर, अधिकतम दंड €35 मिलियन या कंपनी के वैश्विक वार्षिक कारोबार का 7% हो सकता है, जो भी अधिक हो। यह आंकड़ा प्रीलिम्स के लिए महत्वपूर्ण है क्योंकि यह एक ठोस, उच्च-मूल्य वाली संख्या है जो यूरोपीय संघ के गंभीर इरादे को दर्शाती है और जीडीपीआर के जुर्माने के बराबर है, जिससे यह एक संभावित MCQ विवरण बन जाता है।

    परीक्षा युक्ति

    "35 मिलियन या 7%" को जीडीपीआर के उच्च जुर्माने के सीधे समानांतर याद रखें, जो डिजिटल विनियमन पर यूरोपीय संघ के कड़े रुख को दर्शाता है।

    5. जब जीडीपीआर जैसे मौजूदा नियम पहले से ही डेटा गोपनीयता को संबोधित करते हैं, तो एक समर्पित एआई एक्ट की आवश्यकता क्यों थी, और यह कौन सी अनूठी समस्या हल करता है?

    एआई एक्ट डेटा गोपनीयता (जो जीडीपीआर द्वारा कवर की जाती है) से आगे बढ़कर एआई प्रणालियों द्वारा उत्पन्न व्यापक सामाजिक जोखिमों को संबोधित करता है, भले ही वे व्यक्तिगत डेटा संसाधित करते हों या नहीं। यह एल्गोरिथम पूर्वाग्रह, भेदभाव, सुरक्षा विफलताओं और महत्वपूर्ण अनुप्रयोगों में मानवीय पर्यवेक्षण की कमी जैसे मुद्दों से निपटता है। जीडीपीआर यह सुनिश्चित करता है कि डेटा का उपयोग कैसे किया जाता है; एआई एक्ट यह सुनिश्चित करता है कि एआई कैसे व्यवहार करता है और मौलिक अधिकारों और सुरक्षा पर इसका क्या प्रभाव पड़ता है।

    6. क्या आप "उच्च जोखिम" वाली एआई प्रणाली का एक ठोस उदाहरण दे सकते हैं और समझा सकते हैं कि इसे उपयोग करने से पहले एआई एक्ट की आवश्यकताएं इस पर व्यावहारिक रूप से कैसे लागू होंगी?

    एक बैंक द्वारा ऋण आवेदनों के लिए क्रेडिट योग्यता का आकलन करने के लिए उपयोग की जाने वाली एआई प्रणाली पर विचार करें। यह "उच्च जोखिम" के अंतर्गत आता है क्योंकि यह आवश्यक सेवाओं तक पहुंच को प्रभावित करता है। इसे लागू करने से पहले, बैंक को यह सुनिश्चित करना होगा: पूर्वाग्रह को रोकने के लिए मजबूत डेटा शासन और उच्च गुणवत्ता वाले प्रशिक्षण डेटा का उपयोग। मानवीय पर्यवेक्षण तंत्र लागू करना, जिससे एक इंसान एआई के निर्णयों की समीक्षा कर सके और उन्हें बदल सके। एआई कैसे निर्णय लेता है, इसके बारे में स्पष्ट दस्तावेज और पारदर्शिता प्रदान करना। एक्ट की सभी आवश्यकताओं के अनुपालन को साबित करने के लिए एक अनुरूपता मूल्यांकन करना। मजबूत साइबर सुरक्षा उपाय लागू करना और त्रुटियों के खिलाफ सटीकता और मजबूती सुनिश्चित करना।

    • •पूर्वाग्रह को रोकने के लिए मजबूत डेटा शासन और उच्च गुणवत्ता वाले प्रशिक्षण डेटा का उपयोग।
    • •मानवीय पर्यवेक्षण तंत्र लागू करना, जिससे एक इंसान एआई के निर्णयों की समीक्षा कर सके और उन्हें बदल सके।
    • •एआई कैसे निर्णय लेता है, इसके बारे में स्पष्ट दस्तावेज और पारदर्शिता प्रदान करना।
    • •एक्ट की सभी आवश्यकताओं के अनुपालन को साबित करने के लिए एक अनुरूपता मूल्यांकन करना।
    • •मजबूत साइबर सुरक्षा उपाय लागू करना और त्रुटियों के खिलाफ सटीकता और मजबूती सुनिश्चित करना।
    7. एआई एक्ट विशेष रूप से चैटजीपीटी जैसे जनरल पर्पस एआई (GPAI) मॉडलों को कैसे संबोधित करता है, और कानून का मसौदा तैयार करने में यह एक अलग चुनौती क्यों थी?

    एआई एक्ट GPAI मॉडलों पर विशिष्ट दायित्व लगाता है, खासकर उन पर जो अपनी व्यापक क्षमताओं और व्यापक प्रभाव की संभावना के कारण "प्रणालीगत जोखिम" पैदा करते हैं। यह चुनौतीपूर्ण था क्योंकि GPAI मॉडल कई उपयोगों के लिए अनुकूलनीय होते हैं, जिससे सभी जोखिमों का पहले से अनुमान लगाना मुश्किल हो जाता है। एक्ट GPAI प्रदाताओं को जोखिमों का आकलन और उन्हें कम करने, पारदर्शिता सुनिश्चित करने और डेटा शासन नियमों का पालन करने की आवश्यकता है, भले ही उनके विशिष्ट अनुप्रयोगों को अभी तक उच्च जोखिम के रूप में वर्गीकृत न किया गया हो।

    8. एआई एक्ट एआई के कुछ महत्वपूर्ण क्षेत्रों या अनुप्रयोगों को स्पष्ट रूप से कवर नहीं करता है, जिससे इसकी सीमा के बारे में आलोचनाएं होती हैं?

    एआई एक्ट मुख्य रूप से यूरोपीय संघ के बाजार में नागरिक उपयोग के लिए रखी गई एआई प्रणालियों पर केंद्रित है। यह आम तौर पर कवर नहीं करता: विशेष रूप से सैन्य, रक्षा या राष्ट्रीय सुरक्षा उद्देश्यों के लिए विकसित या उपयोग की जाने वाली एआई प्रणालियाँ। बाजार में रखे जाने से पहले केवल अनुसंधान और विकास के लिए उपयोग की जाने वाली एआई प्रणालियाँ। व्यक्तिगत गैर-पेशेवर गतिविधियों के लिए व्यक्तियों द्वारा पूरी तरह से उपयोग की जाने वाली एआई प्रणालियाँ। एआई प्रणालियाँ जो महत्वपूर्ण जोखिम पैदा नहीं करती हैं, "न्यूनतम जोखिम" श्रेणी में आती हैं, जिन्हें काफी हद तक स्वैच्छिक आचार संहिता पर छोड़ दिया जाता है। आलोचकों का तर्क है कि यह महत्वपूर्ण अंतराल छोड़ देता है, खासकर निगरानी या सैन्य अनुप्रयोगों के लिए एआई के राज्य उपयोग के संबंध में।

    • •विशेष रूप से सैन्य, रक्षा या राष्ट्रीय सुरक्षा उद्देश्यों के लिए विकसित या उपयोग की जाने वाली एआई प्रणालियाँ।
    • •बाजार में रखे जाने से पहले केवल अनुसंधान और विकास के लिए उपयोग की जाने वाली एआई प्रणालियाँ।
    • •व्यक्तिगत गैर-पेशेवर गतिविधियों के लिए व्यक्तियों द्वारा पूरी तरह से उपयोग की जाने वाली एआई प्रणालियाँ।
    • •एआई प्रणालियाँ जो महत्वपूर्ण जोखिम पैदा नहीं करती हैं, 'न्यूनतम जोखिम' श्रेणी में आती हैं, जिन्हें काफी हद तक स्वैच्छिक आचार संहिता पर छोड़ दिया जाता है।
    9. एआई एक्ट के खिलाफ आलोचकों का सबसे मजबूत तर्क क्या है, खासकर नवाचार पर इसके संभावित प्रभाव के संबंध में, और आप इस चिंता का जवाब कैसे देंगे?

    आलोचकों का तर्क है कि एआई एक्ट की कड़ी आवश्यकताएं, विशेष रूप से उच्च जोखिम वाले एआई के लिए, उच्च अनुपालन लागत और नौकरशाही बाधाओं के कारण नवाचार को रोक सकती हैं, खासकर छोटे यूरोपीय स्टार्टअप के लिए। उन्हें डर है कि यह यूरोपीय संघ की कंपनियों को कम विनियमित क्षेत्रों की तुलना में नुकसान में डाल सकता है। हालांकि यह चिंता वैध है, यह विश्वास और सुरक्षा के दीर्घकालिक लाभों को नजरअंदाज करती है। स्पष्ट नियम स्थापित करके, एक्ट का उद्देश्य एक अनुमानित और भरोसेमंद वातावरण बनाना है, जो निवेश को आकर्षित कर सकता है और जिम्मेदार नवाचार को बढ़ावा दे सकता है। इसके अलावा, स्तरीय जोखिम-आधारित दृष्टिकोण का मतलब है कि अधिकांश एआई प्रणालियों को न्यूनतम विनियमन का सामना करना पड़ता है, और एक्ट में एसएमई (छोटे और मध्यम उद्यमों) का समर्थन करने के प्रावधान शामिल हैं। "ब्रसेल्स प्रभाव" भी वैश्विक मानकों को यूरोपीय संघ की ओर धकेल सकता है, अंततः प्रतिस्पर्धा को समान कर सकता है।

    • •हालांकि यह चिंता वैध है, यह विश्वास और सुरक्षा के दीर्घकालिक लाभों को नजरअंदाज करती है। स्पष्ट नियम स्थापित करके, एक्ट का उद्देश्य एक अनुमानित और भरोसेमंद वातावरण बनाना है, जो निवेश को आकर्षित कर सकता है और जिम्मेदार नवाचार को बढ़ावा दे सकता है।
    • •इसके अलावा, स्तरीय जोखिम-आधारित दृष्टिकोण का मतलब है कि अधिकांश एआई प्रणालियों को न्यूनतम विनियमन का सामना करना पड़ता है, और एक्ट में एसएमई (छोटे और मध्यम उद्यमों) का समर्थन करने के प्रावधान शामिल हैं।
    • •'ब्रसेल्स प्रभाव' भी वैश्विक मानकों को यूरोपीय संघ की ओर धकेल सकता है, अंततः प्रतिस्पर्धा को समान कर सकता है।
    10. भारत अपने स्वयं के एआई नियामक ढांचे को तैयार करते समय यूरोपीय संघ के एआई एक्ट से क्या सबक ले सकता है, भारत के अद्वितीय सामाजिक-आर्थिक संदर्भ को ध्यान में रखते हुए?

    भारत कई सबक ले सकता है: एक समान स्तरीय जोखिम-आधारित दृष्टिकोण अपनाने से नियामक प्रयासों को प्राथमिकता देने और कम जोखिम वाले एआई को अत्यधिक विनियमित करने से बचने में मदद मिल सकती है, जो भारत के विविध नवाचार पारिस्थितिकी तंत्र के लिए महत्वपूर्ण है। मानवीय पर्यवेक्षण, पारदर्शिता और गैर-भेदभाव पर जोर देना, जैसा कि एआई एक्ट करता है, एक बड़े, विविध लोकतंत्र में नागरिकों के अधिकारों की रक्षा के लिए महत्वपूर्ण है। भारत को अपना संतुलन खोजना होगा, शायद शुरुआत में स्टार्टअप के लिए अनुपालन के लिए अधिक प्रोत्साहन और कम दंडात्मक उपाय, ताकि अपने बढ़ते तकनीकी क्षेत्र को बढ़ावा मिल सके। GPAI मॉडलों को विनियमित करने की चुनौतियाँ और समाधान भारत के लिए अत्यधिक प्रासंगिक हैं, ऐसी प्रौद्योगिकियों के व्यापक उपयोग को देखते हुए। यह सुनिश्चित करना कि कोई भी भारतीय ढाँचा वैश्विक मानकों (जैसे एआई एक्ट) के साथ अंतर-संचालनीय हो, अंतर्राष्ट्रीय व्यापार और सहयोग को सुविधाजनक बना सकता है।

    • •एक समान स्तरीय जोखिम-आधारित दृष्टिकोण अपनाने से नियामक प्रयासों को प्राथमिकता देने और कम जोखिम वाले एआई को अत्यधिक विनियमित करने से बचने में मदद मिल सकती है, जो भारत के विविध नवाचार पारिस्थितिकी तंत्र के लिए महत्वपूर्ण है।
    • •मानवीय पर्यवेक्षण, पारदर्शिता और गैर-भेदभाव पर जोर देना, जैसा कि एआई एक्ट करता है, एक बड़े, विविध लोकतंत्र में नागरिकों के अधिकारों की रक्षा के लिए महत्वपूर्ण है।
    • •भारत को अपना संतुलन खोजना होगा, शायद शुरुआत में स्टार्टअप के लिए अनुपालन के लिए अधिक प्रोत्साहन और कम दंडात्मक उपाय, ताकि अपने बढ़ते तकनीकी क्षेत्र को बढ़ावा मिल सके।
    • •GPAI मॉडलों को विनियमित करने की चुनौतियाँ और समाधान भारत के लिए अत्यधिक प्रासंगिक हैं, ऐसी प्रौद्योगिकियों के व्यापक उपयोग को देखते हुए।
    • •यह सुनिश्चित करना कि कोई भी भारतीय ढाँचा वैश्विक मानकों (जैसे एआई एक्ट) के साथ अंतर-संचालनीय हो, अंतर्राष्ट्रीय व्यापार और सहयोग को सुविधाजनक बना सकता है।
    11. यूरोपीय संघ का लक्ष्य है कि एआई एक्ट "वैश्विक मानक" स्थापित करे। इसका दृष्टिकोण अमेरिका या चीन से कैसे भिन्न है, और भारत के लिए इसके क्या निहितार्थ हैं?

    यूरोपीय संघ का एआई एक्ट एक व्यापक, निर्देशात्मक और जोखिम-आधारित पूर्व-बाजार (बाजार में आने से पहले) नियामक ढाँचा है। इसके विपरीत, अमेरिका काफी हद तक अधिक स्वैच्छिक, क्षेत्र-विशिष्ट और पश्चात्-हानि (हानि होने के बाद) दृष्टिकोण का समर्थन करता है, जो मौजूदा कानूनों और उद्योग दिशानिर्देशों पर निर्भर करता है। चीन ने डीपफेक और एल्गोरिथम सिफारिशों जैसे विशिष्ट क्षेत्रों पर ध्यान केंद्रित किया है, जिसमें राज्य नियंत्रण और राष्ट्रीय सुरक्षा पर जोर दिया गया है। भारत के लिए, यूरोपीय संघ का मॉडल अपनी स्वयं की एआई नीति पर विचार करने के लिए एक संरचित ढाँचा प्रदान करता है, जो नवाचार, नैतिकता और शासन को संतुलित करने के अपने दृष्टिकोण को प्रभावित कर सकता है, साथ ही नियामक विखंडन से भी बच सकता है।

    12. एआई एक्ट नवाचार को बढ़ावा देने और मौलिक अधिकारों और सुरक्षा की रक्षा की आवश्यकता को कितनी प्रभावी ढंग से संतुलित करता है, और संभावित व्यापार-बंद (trade-offs) क्या हैं?

    एआई एक्ट अपने जोखिम-आधारित दृष्टिकोण के माध्यम से इस संतुलन को साधने का प्रयास करता है। केवल उच्च जोखिम वाली प्रणालियों पर सख्त नियमों को केंद्रित करके, इसका उद्देश्य कम जोखिम वाले क्षेत्रों में नवाचार को न्यूनतम बोझ के साथ फलने-फूलने देना है। लक्ष्य "विश्वसनीय एआई" को बढ़ावा देना है, जिससे सिद्धांत रूप में, अधिक अपनाने और दीर्घकालिक नवाचार होना चाहिए। संभावित व्यापार-बंद: नवाचार बनाम अनुपालन लागत: उच्च जोखिम वाले एआई के लिए सख्त अनुपालन से लागत बढ़ सकती है, जिससे छोटे नवाचारों की गति धीमी हो सकती है। सुरक्षा बनाम गति: अनुरूपता मूल्यांकन प्रक्रिया, सुरक्षा सुनिश्चित करते हुए, नए एआई उत्पादों के लिए बाजार में प्रवेश में देरी कर सकती है। लचीलापन बनाम पूर्वानुमेयता: जबकि नियम पूर्वानुमेयता प्रदान करते हैं, एआई की तेजी से विकसित होने वाली प्रकृति कुछ प्रावधानों को जल्दी पुराना कर सकती है, जिससे लगातार अपडेट की आवश्यकता होगी। एक्ट की प्रभावशीलता इसके कार्यान्वयन और अनुकूलनशीलता पर निर्भर करेगी।

    • •नवाचार बनाम अनुपालन लागत: उच्च जोखिम वाले एआई के लिए सख्त अनुपालन से लागत बढ़ सकती है, जिससे छोटे नवाचारों की गति धीमी हो सकती है।
    • •सुरक्षा बनाम गति: अनुरूपता मूल्यांकन प्रक्रिया, सुरक्षा सुनिश्चित करते हुए, नए एआई उत्पादों के लिए बाजार में प्रवेश में देरी कर सकती है।
    • •लचीलापन बनाम पूर्वानुमेयता: जबकि नियम पूर्वानुमेयता प्रदान करते हैं, एआई की तेजी से विकसित होने वाली प्रकृति कुछ प्रावधानों को जल्दी पुराना कर सकती है, जिससे लगातार अपडेट की आवश्यकता होगी।
    4.

    For high-risk AI systems, there are requirements for human oversight, data quality and governance, transparency, robustness, and accuracy. These systems must undergo a conformity assessment before being placed on the market, to ensure they comply with the rules.

  • 5.

    Limited risk AI systems have transparency obligations. This means that when a person is interacting with an AI system, such as a chatbot, they must be informed that they are interacting with AI. This helps users make informed choices.

  • 6.

    Most AI systems fall into the minimal risk category, such as spam filters or video games. These are not subject to strict regulations, but developers are encouraged to adhere to voluntary codes of conduct.

  • 7.

    The Act also addresses General Purpose AI (GPAI) models, such as ChatGPT. These models are subject to different obligations based on their capabilities and risks, especially if they pose 'systemic risks'.

  • 8.

    Non-compliance can lead to significant penalties. For instance, violations of prohibited AI practices can result in fines of up to €35 million or 7% of the company's global annual turnover, whichever is higher.

  • 9.

    To foster innovation, the Act also provides for regulatory sandboxes. These are controlled environments where companies can safely test new AI systems under regulatory supervision, helping smaller businesses and startups.

  • 10.

    EU member states will have to establish national supervisory authorities for AI systems, ensuring effective enforcement of the Act. A European Artificial Intelligence Board will also be created to oversee consistent application of the rules across the Union.

  • 11.

    For the UPSC exam, students should specifically understand the risk-based classification of AI and know what rules apply to different categories. It's also crucial to compare this with India's own approach to AI regulation.

  • 12.

    A key aspect of this Act is that it mandates human oversight for AI systems, especially in high-risk areas. This means AI will not be allowed to make fully autonomous decisions, and humans will always have the ability to intervene.

  • EU AI Act: Risk-Based Approach & Key Provisions

    This mind map illustrates the core principles of the EU AI Act, focusing on its risk-based classification of AI systems, the different regulatory requirements for each category, and other significant provisions like penalties and innovation support.

    EU AI Act

    • ●Core Purpose: Safe, Transparent, Ethical AI
    • ●Key Principle: Risk-Based Approach
    • ●Key Provisions
    • ●Fostering Innovation
    • ●Governance Structure

    EU AI Act: Risk Categories and Regulations

    This table compares the four risk categories defined by the EU AI Act, outlining the types of AI systems falling under each category and the corresponding regulatory requirements, which is crucial for understanding the Act's implementation.

    Risk CategoryType of AI SystemRegulatory Requirements
    Unacceptable RiskAI systems that pose a clear threat to fundamental rights (e.g., social scoring, manipulative AI, real-time biometric identification in public spaces with few exceptions).Strictly Prohibited
    High-RiskAI systems used in critical sectors (e.g., fundamental rights, education, employment, law enforcement, migration, justice). Examples: AI for job application screening, credit scoring, medical devices.Strict obligations: Human oversight, data quality & governance, transparency, robustness, accuracy, cybersecurity, conformity assessment before market launch.
    Limited RiskAI systems with specific transparency risks (e.g., chatbots, deepfakes).Transparency obligations: Users must be informed they are interacting with AI or that content is AI-generated.
    Minimal RiskMost AI systems (e.g., spam filters, video games).No strict rules; encouraged to adhere to voluntary codes of conduct.

    परीक्षा युक्ति

    "अस्वीकार्य" को छोटी अवधि "6 महीने" (जल्दी प्रतिबंध) से और "उच्च जोखिम" को लंबी अवधि "24 महीने" (जटिल कार्यान्वयन) से जोड़ें।

    3. एआई एक्ट, जीडीपीआर और डिजिटल सेवा अधिनियम से अपने नियामक फोकस में मौलिक रूप से कैसे भिन्न है, जो स्टेटमेंट-आधारित MCQs के लिए भ्रम का एक सामान्य बिंदु है?

    एआई एक्ट मौलिक अधिकारों और सुरक्षा के लिए उनके जोखिम के आधार पर एआई प्रणालियों को विनियमित करने पर केंद्रित है। जीडीपीआर मुख्य रूप से व्यक्तिगत डेटा प्रसंस्करण को विनियमित करता है, गोपनीयता सुनिश्चित करता है। डिजिटल सेवा अधिनियम ऑनलाइन प्लेटफॉर्म और सामग्री मॉडरेशन और पारदर्शिता के लिए उनकी जिम्मेदारी को लक्षित करता है। जबकि वे सभी डिजिटल शासन से संबंधित हैं, उनके मुख्य नियामक उद्देश्य अलग-अलग हैं।

    परीक्षा युक्ति

    इसे ऐसे समझें: एआई एक्ट = एआई तकनीक, जीडीपीआर = डेटा, डीएसए = प्लेटफॉर्म।

    4. एआई एक्ट का पालन न करने पर, विशेष रूप से प्रतिबंधित एआई प्रथाओं का उल्लंघन करने पर अधिकतम दंड क्या हैं, और यह आंकड़ा यूपीएससी प्रीलिम्स के लिए क्यों महत्वपूर्ण है?

    एआई एक्ट अनुपालन सुनिश्चित करने के लिए भारी जुर्माना लगाता है। प्रतिबंधित एआई प्रथाओं (जैसे सोशल स्कोरिंग) का उल्लंघन करने पर, अधिकतम दंड €35 मिलियन या कंपनी के वैश्विक वार्षिक कारोबार का 7% हो सकता है, जो भी अधिक हो। यह आंकड़ा प्रीलिम्स के लिए महत्वपूर्ण है क्योंकि यह एक ठोस, उच्च-मूल्य वाली संख्या है जो यूरोपीय संघ के गंभीर इरादे को दर्शाती है और जीडीपीआर के जुर्माने के बराबर है, जिससे यह एक संभावित MCQ विवरण बन जाता है।

    परीक्षा युक्ति

    "35 मिलियन या 7%" को जीडीपीआर के उच्च जुर्माने के सीधे समानांतर याद रखें, जो डिजिटल विनियमन पर यूरोपीय संघ के कड़े रुख को दर्शाता है।

    5. जब जीडीपीआर जैसे मौजूदा नियम पहले से ही डेटा गोपनीयता को संबोधित करते हैं, तो एक समर्पित एआई एक्ट की आवश्यकता क्यों थी, और यह कौन सी अनूठी समस्या हल करता है?

    एआई एक्ट डेटा गोपनीयता (जो जीडीपीआर द्वारा कवर की जाती है) से आगे बढ़कर एआई प्रणालियों द्वारा उत्पन्न व्यापक सामाजिक जोखिमों को संबोधित करता है, भले ही वे व्यक्तिगत डेटा संसाधित करते हों या नहीं। यह एल्गोरिथम पूर्वाग्रह, भेदभाव, सुरक्षा विफलताओं और महत्वपूर्ण अनुप्रयोगों में मानवीय पर्यवेक्षण की कमी जैसे मुद्दों से निपटता है। जीडीपीआर यह सुनिश्चित करता है कि डेटा का उपयोग कैसे किया जाता है; एआई एक्ट यह सुनिश्चित करता है कि एआई कैसे व्यवहार करता है और मौलिक अधिकारों और सुरक्षा पर इसका क्या प्रभाव पड़ता है।

    6. क्या आप "उच्च जोखिम" वाली एआई प्रणाली का एक ठोस उदाहरण दे सकते हैं और समझा सकते हैं कि इसे उपयोग करने से पहले एआई एक्ट की आवश्यकताएं इस पर व्यावहारिक रूप से कैसे लागू होंगी?

    एक बैंक द्वारा ऋण आवेदनों के लिए क्रेडिट योग्यता का आकलन करने के लिए उपयोग की जाने वाली एआई प्रणाली पर विचार करें। यह "उच्च जोखिम" के अंतर्गत आता है क्योंकि यह आवश्यक सेवाओं तक पहुंच को प्रभावित करता है। इसे लागू करने से पहले, बैंक को यह सुनिश्चित करना होगा: पूर्वाग्रह को रोकने के लिए मजबूत डेटा शासन और उच्च गुणवत्ता वाले प्रशिक्षण डेटा का उपयोग। मानवीय पर्यवेक्षण तंत्र लागू करना, जिससे एक इंसान एआई के निर्णयों की समीक्षा कर सके और उन्हें बदल सके। एआई कैसे निर्णय लेता है, इसके बारे में स्पष्ट दस्तावेज और पारदर्शिता प्रदान करना। एक्ट की सभी आवश्यकताओं के अनुपालन को साबित करने के लिए एक अनुरूपता मूल्यांकन करना। मजबूत साइबर सुरक्षा उपाय लागू करना और त्रुटियों के खिलाफ सटीकता और मजबूती सुनिश्चित करना।

    • •पूर्वाग्रह को रोकने के लिए मजबूत डेटा शासन और उच्च गुणवत्ता वाले प्रशिक्षण डेटा का उपयोग।
    • •मानवीय पर्यवेक्षण तंत्र लागू करना, जिससे एक इंसान एआई के निर्णयों की समीक्षा कर सके और उन्हें बदल सके।
    • •एआई कैसे निर्णय लेता है, इसके बारे में स्पष्ट दस्तावेज और पारदर्शिता प्रदान करना।
    • •एक्ट की सभी आवश्यकताओं के अनुपालन को साबित करने के लिए एक अनुरूपता मूल्यांकन करना।
    • •मजबूत साइबर सुरक्षा उपाय लागू करना और त्रुटियों के खिलाफ सटीकता और मजबूती सुनिश्चित करना।
    7. एआई एक्ट विशेष रूप से चैटजीपीटी जैसे जनरल पर्पस एआई (GPAI) मॉडलों को कैसे संबोधित करता है, और कानून का मसौदा तैयार करने में यह एक अलग चुनौती क्यों थी?

    एआई एक्ट GPAI मॉडलों पर विशिष्ट दायित्व लगाता है, खासकर उन पर जो अपनी व्यापक क्षमताओं और व्यापक प्रभाव की संभावना के कारण "प्रणालीगत जोखिम" पैदा करते हैं। यह चुनौतीपूर्ण था क्योंकि GPAI मॉडल कई उपयोगों के लिए अनुकूलनीय होते हैं, जिससे सभी जोखिमों का पहले से अनुमान लगाना मुश्किल हो जाता है। एक्ट GPAI प्रदाताओं को जोखिमों का आकलन और उन्हें कम करने, पारदर्शिता सुनिश्चित करने और डेटा शासन नियमों का पालन करने की आवश्यकता है, भले ही उनके विशिष्ट अनुप्रयोगों को अभी तक उच्च जोखिम के रूप में वर्गीकृत न किया गया हो।

    8. एआई एक्ट एआई के कुछ महत्वपूर्ण क्षेत्रों या अनुप्रयोगों को स्पष्ट रूप से कवर नहीं करता है, जिससे इसकी सीमा के बारे में आलोचनाएं होती हैं?

    एआई एक्ट मुख्य रूप से यूरोपीय संघ के बाजार में नागरिक उपयोग के लिए रखी गई एआई प्रणालियों पर केंद्रित है। यह आम तौर पर कवर नहीं करता: विशेष रूप से सैन्य, रक्षा या राष्ट्रीय सुरक्षा उद्देश्यों के लिए विकसित या उपयोग की जाने वाली एआई प्रणालियाँ। बाजार में रखे जाने से पहले केवल अनुसंधान और विकास के लिए उपयोग की जाने वाली एआई प्रणालियाँ। व्यक्तिगत गैर-पेशेवर गतिविधियों के लिए व्यक्तियों द्वारा पूरी तरह से उपयोग की जाने वाली एआई प्रणालियाँ। एआई प्रणालियाँ जो महत्वपूर्ण जोखिम पैदा नहीं करती हैं, "न्यूनतम जोखिम" श्रेणी में आती हैं, जिन्हें काफी हद तक स्वैच्छिक आचार संहिता पर छोड़ दिया जाता है। आलोचकों का तर्क है कि यह महत्वपूर्ण अंतराल छोड़ देता है, खासकर निगरानी या सैन्य अनुप्रयोगों के लिए एआई के राज्य उपयोग के संबंध में।

    • •विशेष रूप से सैन्य, रक्षा या राष्ट्रीय सुरक्षा उद्देश्यों के लिए विकसित या उपयोग की जाने वाली एआई प्रणालियाँ।
    • •बाजार में रखे जाने से पहले केवल अनुसंधान और विकास के लिए उपयोग की जाने वाली एआई प्रणालियाँ।
    • •व्यक्तिगत गैर-पेशेवर गतिविधियों के लिए व्यक्तियों द्वारा पूरी तरह से उपयोग की जाने वाली एआई प्रणालियाँ।
    • •एआई प्रणालियाँ जो महत्वपूर्ण जोखिम पैदा नहीं करती हैं, 'न्यूनतम जोखिम' श्रेणी में आती हैं, जिन्हें काफी हद तक स्वैच्छिक आचार संहिता पर छोड़ दिया जाता है।
    9. एआई एक्ट के खिलाफ आलोचकों का सबसे मजबूत तर्क क्या है, खासकर नवाचार पर इसके संभावित प्रभाव के संबंध में, और आप इस चिंता का जवाब कैसे देंगे?

    आलोचकों का तर्क है कि एआई एक्ट की कड़ी आवश्यकताएं, विशेष रूप से उच्च जोखिम वाले एआई के लिए, उच्च अनुपालन लागत और नौकरशाही बाधाओं के कारण नवाचार को रोक सकती हैं, खासकर छोटे यूरोपीय स्टार्टअप के लिए। उन्हें डर है कि यह यूरोपीय संघ की कंपनियों को कम विनियमित क्षेत्रों की तुलना में नुकसान में डाल सकता है। हालांकि यह चिंता वैध है, यह विश्वास और सुरक्षा के दीर्घकालिक लाभों को नजरअंदाज करती है। स्पष्ट नियम स्थापित करके, एक्ट का उद्देश्य एक अनुमानित और भरोसेमंद वातावरण बनाना है, जो निवेश को आकर्षित कर सकता है और जिम्मेदार नवाचार को बढ़ावा दे सकता है। इसके अलावा, स्तरीय जोखिम-आधारित दृष्टिकोण का मतलब है कि अधिकांश एआई प्रणालियों को न्यूनतम विनियमन का सामना करना पड़ता है, और एक्ट में एसएमई (छोटे और मध्यम उद्यमों) का समर्थन करने के प्रावधान शामिल हैं। "ब्रसेल्स प्रभाव" भी वैश्विक मानकों को यूरोपीय संघ की ओर धकेल सकता है, अंततः प्रतिस्पर्धा को समान कर सकता है।

    • •हालांकि यह चिंता वैध है, यह विश्वास और सुरक्षा के दीर्घकालिक लाभों को नजरअंदाज करती है। स्पष्ट नियम स्थापित करके, एक्ट का उद्देश्य एक अनुमानित और भरोसेमंद वातावरण बनाना है, जो निवेश को आकर्षित कर सकता है और जिम्मेदार नवाचार को बढ़ावा दे सकता है।
    • •इसके अलावा, स्तरीय जोखिम-आधारित दृष्टिकोण का मतलब है कि अधिकांश एआई प्रणालियों को न्यूनतम विनियमन का सामना करना पड़ता है, और एक्ट में एसएमई (छोटे और मध्यम उद्यमों) का समर्थन करने के प्रावधान शामिल हैं।
    • •'ब्रसेल्स प्रभाव' भी वैश्विक मानकों को यूरोपीय संघ की ओर धकेल सकता है, अंततः प्रतिस्पर्धा को समान कर सकता है।
    10. भारत अपने स्वयं के एआई नियामक ढांचे को तैयार करते समय यूरोपीय संघ के एआई एक्ट से क्या सबक ले सकता है, भारत के अद्वितीय सामाजिक-आर्थिक संदर्भ को ध्यान में रखते हुए?

    भारत कई सबक ले सकता है: एक समान स्तरीय जोखिम-आधारित दृष्टिकोण अपनाने से नियामक प्रयासों को प्राथमिकता देने और कम जोखिम वाले एआई को अत्यधिक विनियमित करने से बचने में मदद मिल सकती है, जो भारत के विविध नवाचार पारिस्थितिकी तंत्र के लिए महत्वपूर्ण है। मानवीय पर्यवेक्षण, पारदर्शिता और गैर-भेदभाव पर जोर देना, जैसा कि एआई एक्ट करता है, एक बड़े, विविध लोकतंत्र में नागरिकों के अधिकारों की रक्षा के लिए महत्वपूर्ण है। भारत को अपना संतुलन खोजना होगा, शायद शुरुआत में स्टार्टअप के लिए अनुपालन के लिए अधिक प्रोत्साहन और कम दंडात्मक उपाय, ताकि अपने बढ़ते तकनीकी क्षेत्र को बढ़ावा मिल सके। GPAI मॉडलों को विनियमित करने की चुनौतियाँ और समाधान भारत के लिए अत्यधिक प्रासंगिक हैं, ऐसी प्रौद्योगिकियों के व्यापक उपयोग को देखते हुए। यह सुनिश्चित करना कि कोई भी भारतीय ढाँचा वैश्विक मानकों (जैसे एआई एक्ट) के साथ अंतर-संचालनीय हो, अंतर्राष्ट्रीय व्यापार और सहयोग को सुविधाजनक बना सकता है।

    • •एक समान स्तरीय जोखिम-आधारित दृष्टिकोण अपनाने से नियामक प्रयासों को प्राथमिकता देने और कम जोखिम वाले एआई को अत्यधिक विनियमित करने से बचने में मदद मिल सकती है, जो भारत के विविध नवाचार पारिस्थितिकी तंत्र के लिए महत्वपूर्ण है।
    • •मानवीय पर्यवेक्षण, पारदर्शिता और गैर-भेदभाव पर जोर देना, जैसा कि एआई एक्ट करता है, एक बड़े, विविध लोकतंत्र में नागरिकों के अधिकारों की रक्षा के लिए महत्वपूर्ण है।
    • •भारत को अपना संतुलन खोजना होगा, शायद शुरुआत में स्टार्टअप के लिए अनुपालन के लिए अधिक प्रोत्साहन और कम दंडात्मक उपाय, ताकि अपने बढ़ते तकनीकी क्षेत्र को बढ़ावा मिल सके।
    • •GPAI मॉडलों को विनियमित करने की चुनौतियाँ और समाधान भारत के लिए अत्यधिक प्रासंगिक हैं, ऐसी प्रौद्योगिकियों के व्यापक उपयोग को देखते हुए।
    • •यह सुनिश्चित करना कि कोई भी भारतीय ढाँचा वैश्विक मानकों (जैसे एआई एक्ट) के साथ अंतर-संचालनीय हो, अंतर्राष्ट्रीय व्यापार और सहयोग को सुविधाजनक बना सकता है।
    11. यूरोपीय संघ का लक्ष्य है कि एआई एक्ट "वैश्विक मानक" स्थापित करे। इसका दृष्टिकोण अमेरिका या चीन से कैसे भिन्न है, और भारत के लिए इसके क्या निहितार्थ हैं?

    यूरोपीय संघ का एआई एक्ट एक व्यापक, निर्देशात्मक और जोखिम-आधारित पूर्व-बाजार (बाजार में आने से पहले) नियामक ढाँचा है। इसके विपरीत, अमेरिका काफी हद तक अधिक स्वैच्छिक, क्षेत्र-विशिष्ट और पश्चात्-हानि (हानि होने के बाद) दृष्टिकोण का समर्थन करता है, जो मौजूदा कानूनों और उद्योग दिशानिर्देशों पर निर्भर करता है। चीन ने डीपफेक और एल्गोरिथम सिफारिशों जैसे विशिष्ट क्षेत्रों पर ध्यान केंद्रित किया है, जिसमें राज्य नियंत्रण और राष्ट्रीय सुरक्षा पर जोर दिया गया है। भारत के लिए, यूरोपीय संघ का मॉडल अपनी स्वयं की एआई नीति पर विचार करने के लिए एक संरचित ढाँचा प्रदान करता है, जो नवाचार, नैतिकता और शासन को संतुलित करने के अपने दृष्टिकोण को प्रभावित कर सकता है, साथ ही नियामक विखंडन से भी बच सकता है।

    12. एआई एक्ट नवाचार को बढ़ावा देने और मौलिक अधिकारों और सुरक्षा की रक्षा की आवश्यकता को कितनी प्रभावी ढंग से संतुलित करता है, और संभावित व्यापार-बंद (trade-offs) क्या हैं?

    एआई एक्ट अपने जोखिम-आधारित दृष्टिकोण के माध्यम से इस संतुलन को साधने का प्रयास करता है। केवल उच्च जोखिम वाली प्रणालियों पर सख्त नियमों को केंद्रित करके, इसका उद्देश्य कम जोखिम वाले क्षेत्रों में नवाचार को न्यूनतम बोझ के साथ फलने-फूलने देना है। लक्ष्य "विश्वसनीय एआई" को बढ़ावा देना है, जिससे सिद्धांत रूप में, अधिक अपनाने और दीर्घकालिक नवाचार होना चाहिए। संभावित व्यापार-बंद: नवाचार बनाम अनुपालन लागत: उच्च जोखिम वाले एआई के लिए सख्त अनुपालन से लागत बढ़ सकती है, जिससे छोटे नवाचारों की गति धीमी हो सकती है। सुरक्षा बनाम गति: अनुरूपता मूल्यांकन प्रक्रिया, सुरक्षा सुनिश्चित करते हुए, नए एआई उत्पादों के लिए बाजार में प्रवेश में देरी कर सकती है। लचीलापन बनाम पूर्वानुमेयता: जबकि नियम पूर्वानुमेयता प्रदान करते हैं, एआई की तेजी से विकसित होने वाली प्रकृति कुछ प्रावधानों को जल्दी पुराना कर सकती है, जिससे लगातार अपडेट की आवश्यकता होगी। एक्ट की प्रभावशीलता इसके कार्यान्वयन और अनुकूलनशीलता पर निर्भर करेगी।

    • •नवाचार बनाम अनुपालन लागत: उच्च जोखिम वाले एआई के लिए सख्त अनुपालन से लागत बढ़ सकती है, जिससे छोटे नवाचारों की गति धीमी हो सकती है।
    • •सुरक्षा बनाम गति: अनुरूपता मूल्यांकन प्रक्रिया, सुरक्षा सुनिश्चित करते हुए, नए एआई उत्पादों के लिए बाजार में प्रवेश में देरी कर सकती है।
    • •लचीलापन बनाम पूर्वानुमेयता: जबकि नियम पूर्वानुमेयता प्रदान करते हैं, एआई की तेजी से विकसित होने वाली प्रकृति कुछ प्रावधानों को जल्दी पुराना कर सकती है, जिससे लगातार अपडेट की आवश्यकता होगी।