AI में पारदर्शिता और निष्पक्षता क्या है?
ऐतिहासिक पृष्ठभूमि
मुख्य प्रावधान
12 points- 1.
प्वाइंट 1: व्याख्या करने की क्षमता: AI सिस्टम को अपने फैसलों के लिए स्पष्टीकरण देना चाहिए। इससे उपयोगकर्ताओं को यह समझने में मदद मिलती है कि कोई विशेष परिणाम क्यों आया।
- 2.
प्वाइंट 2: पूर्वाग्रह का पता लगाना और कम करना: AI सिस्टम में पूर्वाग्रहों की पहचान करने और उन्हें कम करने के लिए उपकरणों और तकनीकों का उपयोग किया जाना चाहिए। इसमें AI को प्रशिक्षित करने के लिए उपयोग किए गए डेटा और एल्गोरिदम की जांच करना शामिल है।
- 3.
प्वाइंट 3: डेटा गोपनीयता: AI सिस्टम को उपयोगकर्ता की गोपनीयता का सम्मान करना चाहिए और GDPR जैसे डेटा सुरक्षा नियमों का पालन करना चाहिए। इसमें डेटा संग्रह और उपयोग के लिए सहमति प्राप्त करना शामिल है।
- 4.
प्वाइंट 4: जवाबदेही: AI सिस्टम के लिए जिम्मेदारी की स्पष्ट रेखाएं स्थापित की जानी चाहिए। इसका मतलब है कि अगर AI सिस्टम कोई गलती करता है या नुकसान पहुंचाता है तो कौन जिम्मेदार है, यह पहचानना।
- 5.
प्वाइंट 5: लेखा परीक्षा: AI सिस्टम का ऑडिट किया जाना चाहिए, जिसका मतलब है कि उनकी निर्णय लेने की प्रक्रियाओं की समीक्षा और मूल्यांकन स्वतंत्र विशेषज्ञों द्वारा किया जा सकता है।
- 6.
प्वाइंट 6: निष्पक्षता मेट्रिक्स: AI सिस्टम में निष्पक्षता को मापने के लिए विभिन्न मेट्रिक्स का उपयोग किया जा सकता है, जैसे समान अवसर, जनसांख्यिकीय समानता और भविष्य कहनेवाला दर समानता। सही मीट्रिक का चुनाव विशिष्ट एप्लिकेशन पर निर्भर करता है।
- 7.
प्वाइंट 7: पारदर्शिता रिपोर्ट: संगठनों को पारदर्शिता रिपोर्ट प्रकाशित करनी चाहिए जो उनके AI सिस्टम के बारे में जानकारी का खुलासा करती है, जिसमें उनका उद्देश्य, डेटा स्रोत और संभावित पूर्वाग्रह शामिल हैं।
- 8.
प्वाइंट 8: उपयोगकर्ता नियंत्रण: उपयोगकर्ताओं को इस बात पर नियंत्रण होना चाहिए कि AI सिस्टम द्वारा उनके डेटा का उपयोग कैसे किया जाता है। इसमें उनके डेटा तक पहुंचने, उसे सही करने और हटाने की क्षमता शामिल है।
- 9.
प्वाइंट 9: नैतिक दिशानिर्देश: संगठनों को AI के विकास और उपयोग के लिए नैतिक दिशानिर्देश विकसित और कार्यान्वित करने चाहिए। इन दिशानिर्देशों में निष्पक्षता, पारदर्शिता और जवाबदेही जैसे मुद्दों को संबोधित किया जाना चाहिए।
- 10.
प्वाइंट 10: मानव निरीक्षण: AI सिस्टम को मानव निरीक्षण के अधीन किया जाना चाहिए, खासकर उच्च जोखिम वाले अनुप्रयोगों में। इसका मतलब है कि मनुष्यों को AI के फैसलों की समीक्षा करने और उन्हें रद्द करने में सक्षम होना चाहिए।
- 11.
प्वाइंट 11: नियमित मूल्यांकन: AI सिस्टम का नियमित रूप से मूल्यांकन किया जाना चाहिए ताकि यह सुनिश्चित किया जा सके कि वे इच्छानुसार प्रदर्शन कर रहे हैं और वे अनपेक्षित नुकसान नहीं पहुंचा रहे हैं।
- 12.
प्वाइंट 12: शिक्षा और जागरूकता: AI के नैतिक निहितार्थों के बारे में जागरूकता बढ़ाना महत्वपूर्ण है। इसमें डेवलपर्स, नीति निर्माताओं और आम जनता को शिक्षित करना शामिल है।
दृश्य सामग्री
Building Blocks of Trustworthy AI
Key elements ensuring transparency and fairness in AI systems.
Transparency and Fairness in AI
- ●Explainability
- ●Bias Mitigation
- ●Accountability
- ●Data Governance
हालिया विकास
5 विकासThe European Union is working on the AI Act (2024), which will set strict rules for high-risk AI systems, including requirements for transparency and fairness.
There are ongoing debates about how to define and measure fairness in AI. Different fairness metrics can lead to different outcomes, so it's important to choose the right metric for the specific application.
Governments around the world are investing in research and development to promote ethical AI. This includes funding for projects that focus on explainable AI and bias detection.
Many companies are developing their own internal guidelines and policies for ethical AI. This reflects a growing awareness of the importance of responsible AI development.
The development of AI ethics frameworks and standards is an ongoing process. Organizations like the IEEE and the ISO are working to create standards that can be used to guide the development and deployment of AI systems.
विभिन्न समाचारों में यह अवधारणा
1 विषयसामान्य प्रश्न
61. आर्टिफिशियल इंटेलिजेंस (AI) में ट्रांसपेरेंसी (पारदर्शिता) और फेयरनेस (निष्पक्षता) क्या है, और ये यूपीएससी की तैयारी के लिए क्यों ज़रूरी है?
आर्टिफिशियल इंटेलिजेंस (AI) में ट्रांसपेरेंसी (पारदर्शिता) का मतलब है कि AI सिस्टम को समझना आसान होना चाहिए. हमें ये पता होना चाहिए कि वो कैसे फैसले लेता है, कौन सा डेटा इस्तेमाल करता है और उसके नियम क्या हैं. फेयरनेस (निष्पक्षता) का मतलब है कि AI सिस्टम किसी के साथ भेदभाव न करे और सभी को बराबर समझे, चाहे वो किसी भी जाति, लिंग या रंग के हों. ये यूपीएससी के लिए ज़रूरी है क्योंकि GS-3 और निबंध (Essay) में अक्सर पूछा जाता है कि AI का समाज पर क्या असर होता है और इससे जुड़े नैतिक मुद्दे क्या हैं. प्रीलिम्स में डेटा प्राइवेसी और एल्गोरिदम से जुड़े सवाल भी आ सकते हैं.
परीक्षा युक्ति
'ट्रांसपेरेंसी' और 'फेयरनेस' दोनों को अलग-अलग समझें और फिर उन्हें AI में नैतिकता से जोड़कर देखें. इससे आपको परीक्षा में आसानी होगी।
2. आर्टिफिशियल इंटेलिजेंस (AI) में ट्रांसपेरेंसी (पारदर्शिता) और फेयरनेस (निष्पक्षता) से जुड़े मुख्य नियम क्या हैं?
इसके मुख्य नियम हैं: * एक्सप्लेनेबिलिटी (समझाने की क्षमता): AI सिस्टम को अपने फैसलों को समझाना चाहिए. * बायस डिटेक्शन एंड मिटिगेशन (भेदभाव पहचानना और कम करना): भेदभाव को पहचानने और कम करने के लिए तरीके होने चाहिए. * डेटा प्राइवेसी (डेटा की सुरक्षा): लोगों की डेटा की सुरक्षा का ध्यान रखना चाहिए और डेटा से जुड़े नियमों का पालन करना चाहिए. * अकाउंटेबिलिटी (जवाबदेही): AI सिस्टम के कामों के लिए कौन जिम्मेदार है, ये साफ होना चाहिए. * ऑडिटेबिलिटी (जांच करने की क्षमता): AI सिस्टम की जांच स्वतंत्र एक्सपर्ट (expert) से कराई जा सके.
- •एक्सप्लेनेबिलिटी (समझाने की क्षमता): AI सिस्टम को अपने फैसलों को समझाना चाहिए।
- •बायस डिटेक्शन एंड मिटिगेशन (भेदभाव पहचानना और कम करना): AI सिस्टम में भेदभाव को पहचानने और कम करने के लिए तरीके होने चाहिए।
- •डेटा प्राइवेसी (डेटा की सुरक्षा): AI सिस्टम को लोगों की डेटा की सुरक्षा का ध्यान रखना चाहिए और डेटा से जुड़े नियमों का पालन करना चाहिए।
- •अकाउंटेबिलिटी (जवाबदेही): AI सिस्टम के कामों के लिए कौन जिम्मेदार है, ये साफ होना चाहिए।
- •ऑडिटेबिलिटी (जांच करने की क्षमता): AI सिस्टम की जांच स्वतंत्र एक्सपर्ट (expert) से कराई जा सके।
परीक्षा युक्ति
मुख्य नियमों को याद रखने के लिए EBDAA (एक्सप्लेनेबिलिटी, बायस डिटेक्शन, डेटा प्राइवेसी, अकाउंटेबिलिटी, ऑडिटेबिलिटी) याद रखें।
3. आर्टिफिशियल इंटेलिजेंस (AI) में ट्रांसपेरेंसी (पारदर्शिता) और फेयरनेस (निष्पक्षता) असल में कैसे काम करते हैं?
असल में, ट्रांसपेरेंसी (पारदर्शिता) का मतलब है कि हम AI मॉडल (model) के फैसलों को समझने के लिए 'एक्सप्लेनेबल AI' (XAI) जैसे तरीके इस्तेमाल करें. उदाहरण के लिए, अगर कोई लोन (loan) के लिए अप्लाई (apply) करता है, तो XAI बता सकता है कि किन वजहों से (जैसे, इनकम, क्रेडिट स्कोर) उसका एप्लीकेशन (application) पास हुआ या रिजेक्ट (reject) हुआ. फेयरनेस (निष्पक्षता) का मतलब है कि हम ऐसे एल्गोरिदम (algorithm) और डेटा (data) इस्तेमाल करें जिनमें कोई भेदभाव न हो. इसके लिए ज़रूरी है कि हम ट्रेनिंग (training) के लिए डेटा (data) को ध्यान से चुनें और ऐसे तरीके इस्तेमाल करें जो निष्पक्ष हों. उदाहरण के लिए, अगर AI सिस्टम का इस्तेमाल नौकरी के लिए लोगों को चुनने में किया जाता है, तो उसे लिंग या जाति के आधार पर भेदभाव नहीं करना चाहिए.
4. आर्टिफिशियल इंटेलिजेंस (AI) में ट्रांसपेरेंसी (पारदर्शिता) और फेयरनेस (निष्पक्षता) को लागू करने में क्या दिक्कतें आती हैं?
दिक्कतें ये हैं: * फेयरनेस (निष्पक्षता) को परिभाषित करना: अलग-अलग तरीकों से फेयरनेस (निष्पक्षता) को मापने पर अलग-अलग नतीजे आ सकते हैं, जिससे सही तरीका चुनना मुश्किल हो जाता है. * डेटा बायस (डेटा में भेदभाव): AI सिस्टम को डेटा (data) से सिखाया जाता है, और अगर उस डेटा (data) में पहले से ही भेदभाव है, तो AI सिस्टम भी वही भेदभाव करेगा. * एक्सप्लेनेबिलिटी ट्रेड-ऑफ (समझाने की क्षमता में समझौता): AI सिस्टम को ज्यादा समझाने लायक बनाने से कभी-कभी उसकी सटीकता कम हो जाती है. * मानकों की कमी: AI में ट्रांसपेरेंसी (पारदर्शिता) और फेयरनेस (निष्पक्षता) के लिए कोई तय नियम नहीं हैं जो सभी को मान्य हों.
- •फेयरनेस (निष्पक्षता) को परिभाषित करना: अलग-अलग तरीकों से फेयरनेस (निष्पक्षता) को मापने पर अलग-अलग नतीजे आ सकते हैं।
- •डेटा बायस (डेटा में भेदभाव): AI सिस्टम को भेदभाव वाले डेटा (data) से सिखाया जाता है, जिससे समाज में पहले से मौजूद भेदभाव बना रहता है।
- •एक्सप्लेनेबिलिटी ट्रेड-ऑफ (समझाने की क्षमता में समझौता): AI सिस्टम को ज्यादा समझाने लायक बनाने से कभी-कभी उसकी सटीकता कम हो जाती है।
- •मानकों की कमी: AI में ट्रांसपेरेंसी (पारदर्शिता) और फेयरनेस (निष्पक्षता) के लिए कोई तय नियम नहीं हैं जो सभी को मान्य हों।
परीक्षा युक्ति
असली दुनिया के उदाहरणों के बारे में सोचें जहाँ AI सिस्टम ने भेदभाव दिखाया है (जैसे, चेहरे पहचानने या लोन एप्लीकेशन में) ताकि इन दिक्कतों को समझाया जा सके।
5. आर्टिफिशियल इंटेलिजेंस (AI) में ट्रांसपेरेंसी (पारदर्शिता) और फेयरनेस (निष्पक्षता) से जुड़े हाल के बदलाव क्या हैं?
हाल के बदलाव ये हैं: * EU AI एक्ट (कानून): यूरोपियन यूनियन (European Union) AI एक्ट (कानून) (2024) पर काम कर रहा है, जो खतरे वाले AI सिस्टम के लिए सख्त नियम बनाएगा. * फेयरनेस (निष्पक्षता) को मापने पर बहस: AI में फेयरनेस (निष्पक्षता) को कैसे मापा जाए, इस पर अभी भी बहस चल रही है. * सरकारी निवेश: सरकारें एथिकल (ethical) AI को बढ़ावा देने के लिए रिसर्च (research) और डेवलपमेंट (development) में पैसा लगा रही हैं.
- •EU AI एक्ट (कानून): खतरे वाले AI सिस्टम के लिए सख्त नियम बनाता है।
- •फेयरनेस (निष्पक्षता) को मापने पर बहस: फेयरनेस (निष्पक्षता) को परिभाषित करने और मापने पर अभी भी बातचीत चल रही है।
- •सरकारी निवेश: एथिकल (ethical) AI में रिसर्च (research) और डेवलपमेंट (development) के लिए सरकार पैसा लगा रही है।
परीक्षा युक्ति
EU AI एक्ट (कानून) और दुनिया भर में AI नियमों पर इसके असर के बारे में जानकारी रखें।
6. आर्टिफिशियल इंटेलिजेंस (AI) में ट्रांसपेरेंसी (पारदर्शिता) और फेयरनेस (निष्पक्षता) के मामले में भारत का नज़रिया दूसरे देशों से कैसे अलग है?
भारत के पास AI पर EU AI एक्ट (कानून) जैसा कोई एक कानून नहीं है, लेकिन ये सूचना प्रौद्योगिकी कानून, 2000 और उपभोक्ता संरक्षण कानून, 2019 जैसे कानूनों पर निर्भर करता है. AI के लिए खास नियम बनाने वाले देशों के मुकाबले, भारत का नज़रिया थोड़ा अलग है. हालाँकि, AI को चलाने के लिए एक बेहतर ढांचा बनाने के लिए बातचीत और कोशिशें जारी हैं, जिसमें नैतिक मुद्दों और ज़िम्मेदारी से AI को विकसित करने पर ध्यान दिया जा रहा है.
