website average bounce rate

सरकारी सलाहकार सेवाओं को AI मॉडल पर MeitY अनुमोदन की आवश्यकता है: रिपोर्ट

AI Models in India Will Require MeitY Approval, Government Says in Advisory: Report

कृत्रिम होशियारी (एआई) मॉडल और जेनरेटिव एआई मॉडल जो परीक्षण चरण में हैं या किसी भी तरह से अविश्वसनीय हैं, उन्हें भारत में तैनात होने से पहले “भारत सरकार से स्पष्ट अनुमति” प्राप्त करनी होगी, मंत्रालय ने कहा कि भारतीय इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी (MeitY) रिपोर्ट्स के मुताबिक, एक नोटिस में प्रकाशित किया गया है। यह नोटिस कुछ दिनों बाद आया है जब कुछ उपयोगकर्ताओं को पता चला कि Google मिथुन राशि एआई चैटबॉट देश के प्रधानमंत्री के संबंध में गलत और भ्रामक जानकारी दे रहा था।

Table of Contents

एक के अनुसार प्रतिवेदन द इकोनॉमिक टाइम्स के मुताबिक, यह एडवाइजरी 1 मार्च को जारी की गई थी और व्यवसायों को भविष्य में इसका अनुपालन करने के लिए कहा गया है। एडवाइजरी में उन कंपनियों से यह सुनिश्चित करने के लिए कहा गया है कि उन्होंने पहले से ही देश में एआई प्लेटफॉर्म तैनात कर दिया है कि “उनके आईटी संसाधन पूर्वाग्रह या भेदभाव को सक्षम नहीं करते हैं या चुनावी प्रक्रिया की अखंडता को खतरा नहीं पहुंचाते हैं।” इसके अतिरिक्त, MeitY ने कथित तौर पर AI प्लेटफार्मों से मेटाडेटा जोड़ने के लिए भी कहा है, यदि AI-जनित सामग्री का उपयोग गलत सूचना फैलाने या डीपफेक बनाने के लिए किया जा सकता है।

कंपनियों से यह भी कहा गया था कि यदि प्लेटफॉर्म अविश्वसनीय व्यवहार कर सकता है और गलत जानकारी उत्पन्न कर सकता है तो स्पष्ट अस्वीकरण जोड़ें। इसके अतिरिक्त, रिपोर्ट के अनुसार, प्लेटफार्मों को उपयोगकर्ताओं को डीपफेक या चुनावों को प्रभावित करने वाली कोई भी सामग्री बनाने के लिए एआई का उपयोग न करने की चेतावनी देने की भी आवश्यकता होगी। हालाँकि यह सलाह फिलहाल कानूनी रूप से बाध्यकारी नहीं है, लेकिन यह इंगित करती है कि यह भारत में एआई विनियमन का भविष्य है।

अविश्वसनीयता का मुद्दा पहली बार तब सामने आया जब कुछ उपयोगकर्ताओं ने प्रधानमंत्री नरेंद्र मोदी के बारे में गलत जानकारी प्रकाशित करने वाले Google जेमिनी के स्क्रीनशॉट पोस्ट किए। केंद्रीय इलेक्ट्रॉनिक्स एवं सूचना प्रौद्योगिकी राज्य मंत्री राजीव चन्द्रशेखर 23 फरवरी को उत्तर दिया दंड संहिता पर. »

नोटिस जारी होने पर उद्यमियों और प्रौद्योगिकी क्षेत्र से मिली-जुली प्रतिक्रिया मिली। जबकि कुछ ने इस कदम का स्वागत किया, इसे गलत सूचना को कम करने की आवश्यकता बताया, दूसरों ने बताया कि नियम उभरते क्षेत्र के विकास पर नकारात्मक प्रभाव डाल सकते हैं। अरविंद श्रीनिवास, पर्प्लेक्सिटी एआई के सह-संस्थापक और सीईओ बुलाया एक पोस्ट में इसे “भारत का बुरा कदम” बताया गया है।

इसी भावना में, KissanAI के संस्थापक प्रतीक देसाई कहा, “मैं यह सोचकर मूर्ख था कि मैं एसएफ से भारतीय कृषि में जेनएआई लाने पर काम करने जा रहा हूं। हम कम लागत वाले कीट और रोग नियंत्रण का एक मल्टीमॉडल मॉडल बना रहे थे और हम इसे लेकर बहुत उत्साहित थे। भारत में इस क्षेत्र में एआई लाने के लिए 4 साल तक पूर्णकालिक काम करने के बाद यह भयानक और निराशाजनक है।

पोस्टों की एक शृंखला में आलोचना का जवाब देते हुए, चन्द्रशेखर को रेखांकित करता है यह नोटिस देश के मौजूदा कानूनों के मद्देनजर जारी किया गया था जो प्लेटफार्मों को अवैध सामग्री को सक्रिय करने या उत्पन्न करने से रोकते हैं। “[..]आईटी और आपराधिक मामलों में प्लेटफ़ॉर्म के स्पष्ट दायित्व हैं। इसलिए खुद को सुरक्षित रखने का सबसे अच्छा तरीका लेबलिंग और स्पष्ट सहमति का उपयोग करना है और, यदि आप एक प्रमुख मंच हैं, तो त्रुटि-प्रवण प्लेटफार्मों को तैनात करने से पहले सरकारी अनुमति प्राप्त करना है, ”उन्होंने कहा।

केंद्रीय मंत्री भी व्याख्या करना यह नोटिस “बड़े प्लेटफार्मों” को संबोधित है और केवल “बड़े प्लेटफार्मों” को MeitY से प्राधिकरण का अनुरोध करने की आवश्यकता होगी। यह सलाह स्टार्टअप्स पर लागू नहीं होती. उन्होंने आगे कहा कि नोटिस के निर्देशों का पालन करना व्यवसायों के सर्वोत्तम हित में है क्योंकि यह उन उपयोगकर्ताओं के लिए आश्वासन देता है जो अन्यथा प्लेटफ़ॉर्म के खिलाफ कानूनी कार्रवाई कर सकते हैं। उन्होंने कहा, “भारतीय इंटरनेट की सुरक्षा और विश्वास सरकार, उपयोगकर्ताओं और प्लेटफार्मों के लिए एक साझा और सामान्य लक्ष्य है।”


संबद्ध लिंक स्वचालित रूप से उत्पन्न हो सकते हैं – हमारी जाँच करें नैतिक वक्तव्य अधिक जानकारी के लिए।

बार्सिलोना में मोबाइल वर्ल्ड कांग्रेस में उपस्थित सैमसंग, श्याओमी, रियलमी, वनप्लस, ओप्पो और अन्य कंपनियों के नवीनतम लॉन्च और समाचारों के बारे में अधिक जानकारी के लिए, हमारी वेबसाइट पर जाएँ। एमडब्ल्यूसी 2024 केंद्र.

Source link

About Author

यह भी पढ़े …