बच्चों को 'एआई स्लोप' वीडियो से बचाने के लिए यूट्यूब से आग्रह
अधिवक्ता समूह और विशेषज्ञ यूट्यूब से हानिकारक, निम्न-गुणवत्ता वाले एआई-जनित वीडियो को विनियमित करने की मांग कर रहे हैं जो बच्चों के विकास को नकारात्मक रूप से प्रभावित करते हैं।
त्वरित संशोधन
200 से ज़्यादा वकालत करने वाले संगठनों और बाल विकास विशेषज्ञों ने YouTube और Google से "AI स्लोप" के खिलाफ कार्रवाई करने का आग्रह किया।
"AI स्लोप" बच्चों को लक्षित कम गुणवत्ता वाले, AI-जनरेटेड कंटेंट को कहते हैं।
वकालत करने वाले समूहों का तर्क है कि यह कंटेंट बच्चों के संज्ञानात्मक विकास को नुकसान पहुँचाता है और उनकी वास्तविकता की भावना को बिगाड़ता है।
मांगों में सभी AI-जनरेटेड कंटेंट की अनिवार्य लेबलिंग शामिल है।
मांगों में YouTube Kids से AI-जनरेटेड कंटेंट पर पूरी तरह से प्रतिबंध भी शामिल है।
18 साल से कम उम्र के यूज़र्स के लिए ऐसे वीडियो को ब्लॉक करने के लिए पैरेंटल कंट्रोल की भी मांग की गई है।
YouTube की मौजूदा नीति के तहत क्रिएटर्स को "वास्तविक" AI कंटेंट का खुलासा करना ज़रूरी है, लेकिन एनिमेटेड वीडियो जैसे "अवास्तविक" कंटेंट का नहीं।
Google के AI फ्यूचर्स फंड ने बच्चों के लिए एक AI एनिमेशन स्टूडियो Animaj में $1 million का निवेश किया।
कैलिफ़ोर्निया की एक जूरी ने सोशल मीडिया की लत के एक मुकदमे में YouTube को दोषी पाया कि उसने युवा यूज़र्स को फंसाने के लिए अपना प्लेटफॉर्म डिज़ाइन किया था।
महत्वपूर्ण संख्याएं
दृश्य सामग्री
Key Statistics on AI Slop Content Concerns
Highlights the scale of advocacy and the recent legal precedent regarding platform liability for harm to minors.
- कार्रवाई की मांग करने वाले वकालत संगठन
- 200+
- प्लेटफ़ॉर्म की लापरवाही के लिए हालिया कानूनी पुरस्कार
- $6 Million
यह AI-जनित सामग्री के संबंध में बाल विकास विशेषज्ञों और वकालत समूहों के बीच व्यापक चिंता को दर्शाता है।
यह प्लेटफ़ॉर्म डिज़ाइन के माध्यम से नाबालिगों को हुए नुकसान के संबंध में प्लेटफ़ॉर्म की बढ़ती कानूनी जवाबदेही को दर्शाता है।
मुख्य परीक्षा और साक्षात्कार फोकस
इसे ज़रूर पढ़ें!
The proliferation of AI-generated "slop" content, particularly targeting children on platforms like YouTube, presents a significant regulatory challenge. This issue transcends mere content moderation; it delves into the fundamental principles of child protection, digital ethics, and the evolving landscape of platform accountability. Advocacy groups rightly highlight the potential for cognitive harm and distortion of reality, underscoring a critical gap in current content governance frameworks.
Existing regulatory mechanisms, primarily the Information Technology (Intermediary Guidelines and Digital Media Ethics Code) Rules, 2021, offer a foundational framework for platform responsibility. However, these rules were largely conceived before the widespread adoption of generative AI. They mandate due diligence and grievance redressal but lack specific provisions for the unique characteristics of AI-generated content, such as its scale, speed of production, and often subtle manipulative qualities. The current voluntary disclosure policy by YouTube, which exempts "unrealistic" AI content, is clearly insufficient and creates a loophole that bad actors exploit.
A more robust approach requires mandatory, clear labeling of all AI-generated content, irrespective of its perceived realism. This aligns with global efforts, such as those being explored under the proposed EU AI Act, to ensure transparency in AI systems. Furthermore, platforms must implement stringent age-gating and content filtering, especially for dedicated children's platforms like YouTube Kids. The argument that children cannot comprehend disclosures necessitates a proactive ban on such content from these spaces, rather than relying on parental controls that place an undue burden on caregivers.
The recent California jury verdict, finding YouTube liable for designing its platform to hook young users, reinforces the imperative for platforms to prioritize well-being over engagement metrics. This legal precedent signals a shift towards holding digital intermediaries accountable for the societal impact of their design choices. India, with its vast young population and rapidly expanding digital footprint, must learn from these international developments and proactively strengthen its regulatory stance. Merely blocking channels, as YouTube suggests, is a reactive measure; a systemic overhaul of content policies for AI-generated media is essential.
Moving forward, the government should consider establishing a dedicated regulatory body or expanding the mandate of existing ones, like the Ministry of Electronics and Information Technology (MeitY), to specifically address AI content governance. This body could develop clear guidelines for AI content, mandate technical standards for detection and labeling, and impose penalties for non-compliance. Such proactive measures are not about stifling innovation but about ensuring that technological progress serves societal good, particularly for the most vulnerable.
परीक्षा के दृष्टिकोण
GS Paper I: Society - Impact of technology on children, social issues related to digital media.
GS Paper II: Governance - Role of technology companies, regulatory challenges, child protection laws, digital governance.
GS Paper III: Science & Technology - Artificial Intelligence, its applications and societal implications, ethical considerations in AI.
Potential Mains Question: Analyze the challenges posed by AI-generated content on digital platforms, particularly concerning child development, and discuss the regulatory measures required to address these issues.
विस्तृत सारांश देखें
सारांश
Groups are asking YouTube to protect kids from confusing, low-quality videos made by AI, which they call "AI slop." These videos can harm children's minds and make it hard for them to tell what's real. The groups want YouTube to label all AI content, ban it from YouTube Kids, and give parents better tools to block it.
200 से ज़्यादा वकालत करने वाले संगठनों और बाल विकास विशेषज्ञों ने YouTube और Google से बच्चों को निशाना बनाने वाली AI (आर्टिफिशियल इंटेलिजेंस) से बनी 'स्लॉप' (बेकार) सामग्री की बढ़ती समस्या से निपटने का आग्रह किया है। एक पत्र में, इन समूहों ने इस बात पर प्रकाश डाला कि यह निम्न-गुणवत्ता वाली, अक्सर बेतुकी सामग्री, जो आर्टिफिशियल इंटेलिजेंस का उपयोग करके बनाई जाती है, बच्चों के संज्ञानात्मक विकास के लिए महत्वपूर्ण जोखिम पैदा करती है और वास्तविकता की उनकी समझ को विकृत कर सकती है। वे ठोस कार्रवाई की मांग कर रहे हैं, जिसमें सभी AI-जनित सामग्री की अनिवार्य लेबलिंग, YouTube Kids से ऐसी सामग्री पर पूर्ण प्रतिबंध, और इन वीडियो को ब्लॉक करने के लिए माता-पिता के नियंत्रण को बेहतर बनाना शामिल है। यह आह्वान AI तकनीकों के विनियमन और युवा उपयोगकर्ताओं की सुरक्षा में प्रमुख तकनीकी प्लेटफार्मों की जवाबदेही के आसपास चल रही वैश्विक बहस को रेखांकित करता है।
यह विकास भारत के लिए विशेष रूप से प्रासंगिक है, क्योंकि यह डिजिटल सामग्री का एक प्रमुख उपभोक्ता और YouTube जैसे प्लेटफार्मों के लिए एक महत्वपूर्ण बाजार है। ऐसी सामग्री के संपर्क में आने वाले लाखों भारतीय बच्चों के संज्ञानात्मक विकास पर संभावित प्रभाव, मजबूत डिजिटल सुरक्षा नियमों की आवश्यकता के साथ मिलकर, इसे नीति निर्माताओं और माता-पिता के लिए एक महत्वपूर्ण मुद्दा बनाता है। यह डिजिटल शासन, बाल संरक्षण कानूनों और देश के भीतर काम करने वाली प्रौद्योगिकी कंपनियों की नैतिक जिम्मेदारियों पर व्यापक चर्चाओं से जुड़ता है, जो UPSC सिविल सेवा परीक्षा के शासन और सामाजिक मुद्दों के पेपर के लिए प्रासंगिक है।
पृष्ठभूमि
AI-जनित सामग्री का उदय, जिसे अक्सर 'AI स्लॉप' कहा जाता है, YouTube जैसे प्लेटफार्मों पर सामग्री मॉडरेशन के लिए नई चुनौतियां पेश करता है। इस प्रकार की सामग्री की पहचान उसकी निम्न गुणवत्ता, दोहराव वाली प्रकृति और अक्सर निरर्थक या भ्रामक जानकारी से होती है, जिसे न्यूनतम मानवीय प्रयास से बड़े पैमाने पर उत्पादित किया जा सकता है। यह चिंता तब और बढ़ जाती है जब यह सामग्री विशेष रूप से बच्चों जैसे कमजोर दर्शकों को लक्षित करती है, जिनमें इसकी प्रामाणिकता या संभावित नुकसान को समझने के लिए आलोचनात्मक सोच कौशल की कमी हो सकती है।
Google के स्वामित्व वाले YouTube का सामग्री मॉडरेशन के मुद्दों से निपटने का एक लंबा इतिहास रहा है, जिसमें गलत सूचना से लेकर हानिकारक सामग्री तक शामिल है। उपयोगकर्ता जुड़ाव को अधिकतम करने के लिए डिज़ाइन किए गए प्लेटफ़ॉर्म के सिफ़ारिश एल्गोरिदम अनजाने में ऐसी निम्न-गुणवत्ता वाली सामग्री को बढ़ावा दे सकते हैं यदि वह पर्याप्त दृश्य या देखने का समय प्राप्त करती है, भले ही उसका शैक्षिक या विकासात्मक मूल्य कुछ भी हो। उन्नत AI उपकरणों की शुरुआत ने इस सामग्री की विशाल मात्रा उत्पन्न करना आसान और सस्ता बना दिया है, जिससे मौजूदा मॉडरेशन सिस्टम अभिभूत हो गए हैं और प्लेटफ़ॉर्म की जिम्मेदारी पर सवाल उठ रहे हैं।
ऑनलाइन बाल संरक्षण विश्व स्तर पर चिंता का एक बढ़ता हुआ क्षेत्र है। अंतर्राष्ट्रीय निकाय और राष्ट्रीय सरकारें नाबालिगों को शोषण, अनुचित सामग्री और हानिकारक प्रभावों से बचाने के लिए ऑनलाइन स्थानों को विनियमित करने के तरीकों की लगातार तलाश कर रही हैं। बहस अक्सर अभिव्यक्ति की स्वतंत्रता, प्लेटफ़ॉर्म नवाचार और बच्चों की सुरक्षा के अनिवार्य के बीच संतुलन पर केंद्रित होती है, जिससे प्लेटफ़ॉर्म की कड़ी जवाबदेही और नियामक निरीक्षण की मांग होती है।
नवीनतम घटनाक्रम
200 से अधिक संगठनों द्वारा औपचारिक पत्र AI-जनित सामग्री के लिए प्लेटफार्मों को जवाबदेह ठहराने के प्रयासों में एक महत्वपूर्ण वृद्धि का प्रतिनिधित्व करता है। यह कोई अलग घटना नहीं है; विभिन्न प्रकार के मीडिया और सूचना प्रसार पर AI के प्रभाव के बारे में विश्व स्तर पर इसी तरह की चिंताएं जताई जा रही हैं।
विशिष्ट मांगें - अनिवार्य लेबलिंग, YouTube Kids पर प्रतिबंध, और बेहतर माता-पिता नियंत्रण - पारदर्शिता और सक्रिय सुरक्षा उपायों दोनों की इच्छा को दर्शाती हैं। इन प्रस्तावों का उद्देश्य AI-जनित सामग्री को पहचानने योग्य बनाकर और बच्चों के लिए सुरक्षित डिजिटल वातावरण बनाकर उपयोगकर्ताओं और नियामकों को सशक्त बनाना है।
आगे देखते हुए, YouTube और Google की प्रतिक्रिया पर बारीकी से नजर रखी जाएगी। इन टेक दिग्गजों द्वारा संभावित नियामक कार्रवाई या नीति परिवर्तन व्यापक उद्योग के लिए मिसाल कायम कर सकते हैं। चल रही चर्चाएं अनुकूली नियामक ढांचे की आवश्यकता को उजागर करती हैं जो AI जैसी तीव्र तकनीकी प्रगति के साथ तालमेल बिठा सकें, यह सुनिश्चित करते हुए कि नवाचार बाल सुरक्षा और संज्ञानात्मक कल्याण की कीमत पर न आए।
अक्सर पूछे जाने वाले सवाल
1. 200 से ज़्यादा संगठन अचानक YouTube से बच्चों को टारगेट करने वाले 'AI स्लैप' कंटेंट को रेगुलेट करने की मांग क्यों कर रहे हैं?
इस मांग का तात्कालिक कारण बच्चों के विकास विशेषज्ञों और वकालत समूहों के बीच YouTube जैसे प्लेटफॉर्म पर AI द्वारा बनाए गए 'स्लैप' कंटेंट के तेजी से बढ़ते प्रसार को लेकर बढ़ती चिंता है। यह कंटेंट, जो अक्सर निम्न-गुणवत्ता वाला और बेतुका होता है, AI का उपयोग करके बड़े पैमाने पर बनाया जाता है और यह तेजी से बच्चों को निशाना बना रहा है। विशेषज्ञों को डर है कि यह बच्चों के संज्ञानात्मक विकास पर नकारात्मक प्रभाव डाल सकता है और वास्तविकता की उनकी समझ को विकृत कर सकता है, जिससे इन समूहों ने YouTube और Google से तत्काल कार्रवाई की मांग की है।
2. Prelims में UPSC इस 'AI स्लैप' मुद्दे के बारे में कौन सा खास तथ्य पूछ सकती है?
UPSC प्रीलिम्स में 'AI स्लैप' के खिलाफ कार्रवाई के लिए YouTube और Google से आग्रह करने वाले संगठनों की संख्या के बारे में पूछ सकती है। मुख्य तथ्य है '200 से अधिक वकालत संगठन और बाल विकास विशेषज्ञ'। एक संभावित डिस्ट्रेक्टर थोड़ी अलग संख्या हो सकती है या केवल 'बाल विकास विशेषज्ञों' पर ध्यान केंद्रित करना हो सकता है, जिसमें वकालत समूहों का उल्लेख न हो।
परीक्षा युक्ति
200+ के आंकड़े को याद रखें क्योंकि यह एक महत्वपूर्ण सामूहिक आवाज का प्रतिनिधित्व करता है। साथ ही, हस्ताक्षरकर्ताओं की दोहरी प्रकृति पर ध्यान दें: वकालत समूह और विशेषज्ञ।
3. 'AI स्लैप' कंटेंट और सामान्य AI-जनित कंटेंट में क्या अंतर है?
हालांकि दोनों आर्टिफिशियल इंटेलिजेंस का उपयोग करके बनाए जाते हैं, 'AI स्लैप' विशेष रूप से निम्न-गुणवत्ता, अक्सर बेतुके और दोहराव वाले कंटेंट को संदर्भित करता है जो न्यूनतम मानवीय निरीक्षण के साथ बड़े पैमाने पर उत्पन्न होता है। इसकी विशेषता इसके सार की कमी और भ्रामक या हानिकारक होने की क्षमता है, खासकर जब बच्चों जैसे कमजोर दर्शकों को लक्षित किया जाता है। सामान्य AI-जनित कंटेंट परिष्कृत रचनात्मक कार्यों से लेकर सूचनात्मक लेखों तक हो सकता है, और यह स्वाभाविक रूप से 'स्लैप' नहीं होता है। मुख्य अंतर गुणवत्ता, इरादा और प्रभाव है।
4. YouTube पर 'AI स्लैप' कंटेंट का यह मुद्दा भारत के हितों या नीति से कैसे संबंधित है?
हालांकि विनियमन के लिए तत्काल आह्वान अंतरराष्ट्रीय वकालत समूहों से आया है, भारत की इस मुद्दे में महत्वपूर्ण हिस्सेदारी है। एक विशाल युवा आबादी और तेजी से बढ़ते डिजिटल उपयोगकर्ता आधार के साथ, बच्चों को ऑनलाइन सुरक्षित रखना एक राष्ट्रीय प्राथमिकता है। भारत अपनी AI नीतियों और विनियमों को भी सक्रिय रूप से विकसित कर रहा है। इसलिए, AI-जनित कंटेंट पर वैश्विक रुझान और प्लेटफॉर्म की प्रतिक्रियाएं, विशेष रूप से बाल सुरक्षा से संबंधित, भारत के अपने नियामक दृष्टिकोण और डिजिटल नीति चर्चाओं को प्रभावित करेंगी। डिजिटल प्लेटफॉर्म पर कंटेंट मॉडरेशन और बाल संरक्षण पर सरकार का रुख भी प्रासंगिक है।
5. YouTube पर AI कंटेंट के संबंध में वकालत समूहों द्वारा क्या विशिष्ट मांगें की गई हैं?
The advocacy groups and experts have put forth three primary demands to YouTube and Google:
- •सभी AI-जनित कंटेंट की अनिवार्य लेबलिंग ताकि पारदर्शिता सुनिश्चित हो सके।
- •YouTube Kids से AI-जनित कंटेंट पर पूर्ण प्रतिबंध।
- •बेहतर पेरेंटल कंट्रोल, जिससे उपयोगकर्ता ऐसे वीडियो को ब्लॉक कर सकें।
6. 250 शब्दों के मेंस उत्तर के लिए 'AI स्लैप' और बाल संरक्षण पर क्या संरचना और मुख्य बिंदु होने चाहिए?
250 शब्दों के उत्तर के लिए, इसे इस प्रकार संरचित करें: 1. परिचय (लगभग 40 शब्द): संक्षेप में 'AI स्लैप' को परिभाषित करें और मुख्य मुद्दे को बताएं - बच्चों को लक्षित करना और विशेषज्ञों द्वारा उठाई गई चिंताएं। 2. मुख्य भाग पैराग्राफ 1 (लगभग 80 शब्द): जोखिमों पर विस्तार से बताएं। चर्चा करें कि कैसे निम्न-गुणवत्ता वाला, AI-जनित कंटेंट बच्चों के संज्ञानात्मक विकास पर नकारात्मक प्रभाव डाल सकता है, वास्तविकता की उनकी धारणा को विकृत कर सकता है, और यह किस पैमाने पर उत्पादित किया जा सकता है। 3. मुख्य भाग पैराग्राफ 2 (लगभग 80 शब्द): मांगों का विवरण दें। अनिवार्य लेबलिंग, YouTube Kids पर प्रतिबंध और बेहतर पेरेंटल कंट्रोल की मांग का उल्लेख करें। YouTube और Google जैसे प्लेटफार्मों की भूमिका पर प्रकाश डालें। 4. निष्कर्ष (लगभग 50 शब्द): AI विनियमन, प्लेटफॉर्म की जिम्मेदारी और तकनीकी नवाचार को बढ़ावा देते हुए कमजोर उपयोगकर्ताओं की सुरक्षा के लिए संतुलित दृष्टिकोण की आवश्यकता के व्यापक निहितार्थों पर संक्षेप में चर्चा करें। भारत की संभावित नीतिगत विचारों का उल्लेख करें। शामिल करने के लिए मुख्य बिंदु: * 'AI स्लैप' की परिभाषा (निम्न-गुणवत्ता, AI-जनित, बड़े पैमाने पर)। * लक्षित दर्शक: बच्चे। * जोखिम: संज्ञानात्मक नुकसान, विकृत वास्तविकता की धारणा। * मुख्य मांगें: लेबलिंग, YouTube Kids पर प्रतिबंध, पेरेंटल कंट्रोल। * अभिनेता: वकालत समूह, बाल विशेषज्ञ, YouTube, Google। * व्यापक संदर्भ: AI विनियमन, प्लेटफॉर्म जवाबदेही, बच्चों की ऑनलाइन सुरक्षा।
परीक्षा युक्ति
'क्या' (AI स्लैप), 'क्यों' (बच्चों के लिए जोखिम), और 'कैसे' (विनियमन के लिए मांगें) पर ध्यान केंद्रित करें। 'संज्ञानात्मक विकास', 'प्लेटफ़ॉर्म की जिम्मेदारी', और 'बच्चों की ऑनलाइन सुरक्षा' जैसे कीवर्ड का उपयोग करें।
बहुविकल्पीय प्रश्न (MCQ)
1. YouTube पर AI-जनित सामग्री के विनियमन के लिए हालिया आह्वान के संबंध में निम्नलिखित कथनों पर विचार करें:
- A.पत्र पर केवल बाल विकास विशेषज्ञों ने हस्ताक्षर किए।
- B.पत्र में YouTube से सभी AI-जनित सामग्री पर पूर्ण प्रतिबंध की मांग की गई।
- C.200 से अधिक वकालत संगठनों और बाल विकास विशेषज्ञों ने YouTube और Google से कार्रवाई का आग्रह किया।
- D.उठाई गई मुख्य चिंता वयस्कों के बीच गलत सूचना का प्रसार थी।
उत्तर देखें
सही उत्तर: C
कथन C सही है। सारांश में स्पष्ट रूप से कहा गया है कि '200 से अधिक वकालत करने वाले संगठनों और बाल विकास विशेषज्ञों ने YouTube और Google से कार्रवाई का आग्रह किया है'। कथन A गलत है क्योंकि सारांश में वकालत संगठनों और बाल विकास विशेषज्ञों दोनों का उल्लेख है। कथन B गलत है क्योंकि मांग YouTube Kids पर प्रतिबंध लगाने की थी, न कि पूरे YouTube पर। कथन D गलत है क्योंकि उठाई गई मुख्य चिंता बच्चों के संज्ञानात्मक विकास और वास्तविकता की समझ को होने वाली हानि थी, न कि वयस्कों के बीच गलत सूचना।
2. YouTube पर AI-जनित सामग्री के संबंध में वकालत समूहों द्वारा की गई विशिष्ट मांगों में निम्नलिखित में से कौन सी शामिल हैं?
- A.सभी AI-जनित सामग्री की अनिवार्य लेबलिंग और YouTube Kids से इसका प्रतिबंध।
- B.AI-जनित सामग्री के निर्माताओं के लिए विज्ञापन राजस्व में वृद्धि।
- C.AI विकास को विनियमित करने के लिए एक वैश्विक संधि।
- D.AI द्वारा सभी उपयोगकर्ता-अपलोड किए गए वीडियो की अनिवार्य तथ्य-जांच।
उत्तर देखें
सही उत्तर: A
कथन A सही है। सारांश में कहा गया है कि समूह 'सभी AI-जनित सामग्री की अनिवार्य लेबलिंग, YouTube Kids से इसका पूर्ण प्रतिबंध, और बेहतर माता-पिता नियंत्रण' की मांग कर रहे हैं। कथन B गलत है क्योंकि ध्यान AI सामग्री निर्माताओं के लिए राजस्व बढ़ाने पर नहीं, बल्कि विनियमन पर है। कथन C बहुत व्यापक है; मांग YouTube सामग्री के लिए विशिष्ट है। कथन D का भी उल्लेख नहीं किया गया है; मांग लेबलिंग के लिए है, न कि सभी अपलोड की AI-संचालित तथ्य-जांच के लिए।
3. डिजिटल सामग्री विनियमन के संदर्भ में, बच्चों को लक्षित करने वाली AI-जनित 'स्लॉप' सामग्री के बारे में उठाई गई चिंताओं से निम्नलिखित में से कौन सी अवधारणा सबसे सीधे संबंधित है?
- A.नेट न्यूट्रैलिटी
- B.डिजिटल डिवाइड
- C.एल्गोरिथम पूर्वाग्रह
- D.बाल ऑनलाइन संरक्षण
उत्तर देखें
सही उत्तर: D
विकल्प D सही है। मुख्य चिंता निम्न-गुणवत्ता वाली AI सामग्री के संपर्क में आने से बच्चों के संज्ञानात्मक विकास और वास्तविकता की समझ को होने वाला संभावित नुकसान है, जो सीधे बाल ऑनलाइन संरक्षण के दायरे में आता है। विकल्प A (नेट न्यूट्रैलिटी) इंटरनेट ट्रैफ़िक तक समान पहुंच से संबंधित है। विकल्प B (डिजिटल डिवाइड) प्रौद्योगिकी तक पहुंच रखने वालों और न रखने वालों के बीच के अंतर को संदर्भित करता है। विकल्प C (एल्गोरिथम पूर्वाग्रह) AI सिस्टम द्वारा अनुचित परिणाम उत्पन्न करने से संबंधित है, लेकिन यहां मुख्य चिंता बच्चों पर सामग्री का *प्रकार* और *प्रभाव* है, न कि स्वयं AI की निर्णय लेने की प्रक्रिया में पूर्वाग्रह, हालांकि यह एक संबंधित मुद्दा हो सकता है।
Source Articles
Advocacy groups urge YouTube to protect kids from ’AI slop’ videos - The Hindu
India’s crèche scheme and the laws that govern childcare facilities | Explained - The Hindu
Rare disease patients and advocacy groups appeal to PM Modi for sustainable funding for treatment - The Hindu
Public participation sought for child protection - The Hindu
लेखक के बारे में
Richa SinghScience Policy Enthusiast & UPSC Analyst
Richa Singh GKSolver पर Science & Technology विषयों पर लिखते हैं।
सभी लेख पढ़ें →