facebookmetapixel
Advertisement
अब पैकेट बंद खाने पर रहेगी चीनी, नमक और वसा के मात्रा की चेतावनी, SC ने FSSAI को लगाई कड़ी फटकारबारामती हादसे के बाद DGCA का बड़ा एक्शन: 14 चार्टर विमान कंपनियों का शुरू हुआ ‘स्पेशल सेफ्टी ऑडिट’लोक सभा में थमा एक हफ्ते का गतिरोध, अध्यक्ष ओम बिरला को हटाने के लिए विपक्ष ने दिया नोटिसमहत्वपूर्ण खनिजों को लेकर नीति आयोग की केंद्र को बड़ी चेतावनी, कहा: पर्यावरण की कीमत पर न हो माइनिंगअमेरिकी बाजार में भारतीय कृषि उत्पादों की मचेगी धूम! 46 अरब डॉलर के मार्केट में मिलेगी ‘ड्यूटी-फ्री एंट्री’CBSE का बड़ा फैसला: अब कंप्यूटर पर जांची जाएंगी 12वीं की कॉपियां, OSM सिस्टम होगा लागूसियासी जंग का बमगोला बना तिरुपति का लड्डू, TDP और YSRCP में सियासी जंगब्रांड की दुनिया में स्मृति मंधाना का जलवा: पुरुषों के दबदबे वाले विज्ञापन बाजार में लिख रहीं नई इबादतभारत-अमेरिका ट्रेड डील में डिजिटल व्यापार नियमों पर बातचीत का वादा, शुल्क मुक्त ई-ट्रांसमिशन पर होगी बात!IPO, QIP और राइट्स इश्यू से जुटाई रकम पर सेबी की नजर, नियम होंगे सख्त

PM मोदी ने AI के गलत हाथों में जाने के खतरों के प्रति आगाह किया

Advertisement

AI से लेकर डिजिटल पब्लिक इन्फ्रास्ट्रक्चर तक कई विषयों पर चर्चा के दौरान, मोदी ने कहा कि डीपफेक के मामले में यह पहचानना महत्वपूर्ण है कि एक विशेष डीपफेक सामग्री एआई-जनित है।

Last Updated- March 29, 2024 | 2:32 PM IST
pm modi
File Photo: Prime Minister Narendra Modi

प्रधानमंत्री नरेन्द्र मोदी (Prime Minister Narendra Modi) ने शुक्रवार को अकुशल और अप्रशिक्षित हाथों में कृत्रिम मेधा (एआई) जैसी शक्तिशाली प्रौद्योगिकी के जाने और इसके दुरुपयोग के खतरे के प्रति आगाह किया और समाज में गलत सूचना और ‘डीपफेक’ से संबंधित नुकसान पर अंकुश लगाने के लिए एआई-जनित सामग्री के लिए ‘क्या करें और क्या न करें’ को लेकर एक स्पष्ट प्रावधान की वकालत की।

माइक्रोसॉफ्ट के सह-संस्थापक और अरबपति समाजसेवी बिल गेट्स के साथ एक संवाद में मोदी ने इस पर विस्तार से बात की कि कैसे भारत ने अपने नागरिकों के हित में प्रौद्योगिकी का लोकतांत्रिकरण किया है, जीवन में सुधार के लिए डिजिटल की शक्ति को अपनाया है।

उन्होंने यह विश्वास भी जताया कि देश चौथी औद्योगिक क्रांति में उल्लेखनीय प्रगति करेगा, जिसके मूल में डिजिटल है। एआई से लेकर डिजिटल पब्लिक इन्फ्रास्ट्रक्चर तक कई विषयों पर चर्चा के दौरान, मोदी ने कहा कि डीपफेक के मामले में यह पहचानना महत्वपूर्ण है कि एक विशेष डीपफेक सामग्री एआई-जनित है। इसके साथ ही इसके स्रोत के बारे में उचित जानकारी होनी चाहिए। एक समाज में एआई के नुकसान और डीपफेक के खतरों का हवाला देते हुए उन्होंने उदाहरण के तौर पर बताया कि उनकी आवाज का भी दुरुपयोग हो सकता है और इसके जरिए लोगों को धोखा दिया जा सकता, उन्हें गुमराह किया जा सकता है, जिससे व्यापक हंगामा हो सकता है।

उन्होंने कहा, ‘‘इसकी पहचान करना महत्वपूर्ण है कि डीपफेक सामग्री एआई-जनित है और साथ ही इसके स्रोत का भी। शुरुआती दिनों में ये उपाय महत्वपूर्ण हैं। हमें, ‘क्या करें और क्या न करें’ तय करने की आवश्यकता है … हमें इस बारे में गंभीरता से सोचना होगा।’’ प्रधानमंत्री ने एआई जैसी शक्तिशाली प्रौद्योगिकी को अकुशल और अप्रशिक्षित हाथों में जाने पर इसके दुरुपयोग के खतरों के बारे में भी बात की। उन्होंने कहा, ‘‘मेरा सुझाव है कि हमें गलत सूचना को रोकने के लिए एआई-जनित सामग्री पर स्पष्ट प्रावधान करने होंगे।’’

कृत्रिम मेधा (एआई) के मुद्दे पर चर्चा करते हुए उन्होंने कहा कि इसे कोई जादुई उपकरण या कुछ काम करने के लिए लोगों के आलस्य के विकल्प के रूप में नहीं देखा जाना चाहिए। मोदी ने बताया कि कैसे उन्होंने जी20 शिखर सम्मेलन में एआई का इस्तेमाल दुभाषिए के रूप में किया और विभिन्न भाषाओं में अपने संबोधन को विभिन्न कार्यक्रमों में प्रसारित किया। उन्होंने कहा कि चैट-जीपीटी जैसी तकनीक का उपयोग लगातार खुद को बेहतर बनाने के लिए किया जाना चाहिए।

उन्होंने एआई के इस्तेमाल को रेखांकित करते हुए गेट्स से नमो ऐप के जरिए सेल्फी लेने को कहा और फिर दिखाया कि चेहरा पहचानने वाली प्रौद्योगिकी के जरिए इसका पता कैसे लगाया जा सकता है।

एआई के बारे में मजाकिया अंदाज में प्रधानमंत्री ने कहा कि भारत में माताओं को ‘आई’ (एआई से मिलता-जुलता एक शब्द) कहा जाता है और यहां बच्चे इतने उन्नत हो गए हैं कि वे जीवन में बहुत पहले ही हाई-टेक शब्द का उपयोग करना शुरू कर देते हैं।

Advertisement
First Published - March 29, 2024 | 2:32 PM IST (बिजनेस स्टैंडर्ड के स्टाफ ने इस रिपोर्ट की हेडलाइन और फोटो ही बदली है, बाकी खबर एक साझा समाचार स्रोत से बिना किसी बदलाव के प्रकाशित हुई है।)

संबंधित पोस्ट

Advertisement
Advertisement
Advertisement