facebookmetapixel
Earthquake Today: अंडमान में धरती डोली! 5.4 तीव्रता के झटकों से दहशतFPIs ने फिर खोला बिकवाली का सिलसिला, नवंबर में निकाले ₹12,569 करोड़Market Outlook: इस हफ्ते शेयर बाजार की दिशा तय करेंगे महंगाई डेटा और तिमाही नतीजेMCap: टॉप-10 कंपनियों की मार्केट कैप में भारी गिरावट, Airtel-TCS सबसे ज्यादा प्रभावितथाईलैंड जाने वाले सावधान! शराब पीना अब महंगा, नियम तोड़ा तो लगेगा 27,000 रुपये तक का जुर्मानाDelhi AQI Today: दिल्ली में जहरीली धुंध! AQI 400 पार, सांस लेना हुआ मुश्किल; GRAP 3 हो सकता है लागू!डिजिटल गोल्ड के झांसे से बचें! सेबी ने बताया, क्यों खतरे में है आपका पैसाकेंद्र सरकार ने चीनी निर्यात पर लगाई मुहर, मोलासेस टैक्स खत्म होने से चीनी मिलों को मिलेगी राहतCDSCO का दवा कंपनियों पर लगाम: रिवाइज्ड शेड्यूल एम के तहत शुरू होंगी जांचें; अब नहीं चलेगी लापरवाहीपूर्वोत्तर की शिक्षा में ₹21 हजार करोड़ का निवेश, असम को मिली कनकलता बरुआ यूनिवर्सिटी की सौगात

ASCI: विज्ञापन में AI के लिए अनुमति जरूरी

श्वेत पत्र में विज्ञापन उद्योग में एआई के इस्तेमाल से जुड़े छह जोखिमों का जिक्र किया गया है।

Last Updated- August 01, 2023 | 11:48 PM IST
Pan masala promotion and advertisements need to be banned

जेनरेटिव आर्टिफिशल इंटेलिजेंस (एआई) का इस्तेमाल उत्पादक सामग्री (इनपुट) के रूप में करने वाले विज्ञापनदाताओं के लिए इससे संबंधित लाइसेंस एवं अनुमति हासिल करना अनिवार्य होगा। भारतीय विज्ञापन मानक ब्यूरो (एएससीआई) ने मंगलवार को यह निर्देश जारी किया।

‘जेनरेटिव एआई ऐंड एडवर्टाइजिंग’ शीर्षक नाम से प्रकाशित एक श्वेत पत्र में एएससीआई ने कहा कि अगर कोई सामग्री तैयार करने में किसी तकनीक का इस्तेमाल हो रहा है तो उसके (तकनीक) व्यावसायिक इस्तेमाल के लिए पूर्व अनुमति लेना जरूरी होगा।

इस श्वेत पत्र में विज्ञापन उद्योग में एआई के इस्तेमाल से जुड़े छह जोखिमों का जिक्र किया गया है। इनके अलावा इसमें उन कानूनी प्रावधानों का भी जिक्र किया गया है, जिनके तहत उल्लंघन का मामला बनता है। एएससीआई में मुख्य कार्याधिकारी (सीईओ) एवं महासचिव मनीषा कपूर ने बिज़नेस स्टैंडर्ड को बताया कि सबसे बड़ा जोखिम किसी विषय-वस्तु के कॉपीराइट अधिकार से जुड़ा है।

उन्होंने कहा, ‘एआई उन चीजों का इस्तेमाल करता है जो इंटरनेट पर पहले से उपलब्ध हैं। एआई इन सामग्री को उठाकर अपनी व्याख्या के साथ उपलब्ध करा रहा है। ऐसे में प्रश्न यह उठता है कि क्या इसका कानूनी या कॉपीराइट से जुड़ा कोई जोखिम हो सकता है? क्या उस स्थिति में इसे मूल कार्य माना जाएगा?’

कपूर ने कहा कि अगर दो लोग जेनरेटिव एआई से समान प्रॉम्प्ट हासिल कर लेते हैं तो तैयार सामग्री के मालिकाना हक से जुड़े जोखिम की आशंका तो जरूर रहेगी। उन्होंने कहा, ‘ऐसे में यह प्रश्न उठता है कि किसी तैयार सामग्री को किस तरह संरक्षित या सुरक्षित रखा जा सकता है।‘

कपूर ने यह भी कहा कि उपभोक्ताओं के लिए भी जोखिम होने से इनकार नहीं किया जा सकता है। उन्होंने कहा, ‘ किसी विषय-वस्तु के संबंध में आवश्यक खुलासे या उससे जुड़ी जानकारियां महत्त्वपूर्ण होते हैं। उपभोक्ताओं को सभी पहलुओं पर विचार करने के बाद ही कोई निर्णय लेना चाहिए।‘

श्वेत पत्र में जिन अन्य जोखिमों का उल्लेख किया गया है उनमें एआई से तैयार विज्ञापनों में प्रतिबंधित सामग्री दिखाया, निजता का हनन, एआई मॉडल से जुड़े पूर्वग्रह और सृजनात्मक श्रम का विस्थापन जैसे विषय भी शामिल हैं। पत्र में यह सलाह दी गई है कि विज्ञापनदाताओं को एआई तकनीक पर पैनी नजर रखनी चाहिए ताकि तैयार सामग्री में निजी सूचनाएं या प्रतिबंधित सामग्री डालने की रत्ती भर भी गुंजाइश नहीं रह जाए। पत्र में यह भी सुझाया गया है कि एआई के प्रतिकूल प्रभावों से निपटने के लिए मानव श्रम को और अधिक हुनरमंद बनाया जाना चाहिए।

नियमन की मांग

खेतान ऐंड कंपनी में पार्टनर तनु बनर्जी ने बिज़नेस स्टैंडर्ड को बताया कि भारत के कानूनी ढांचे में कई ऐसे प्रावधान मौजूद हैं जो कॉपीराइट का उल्लंघन एवं निजता का हनन रोकते हैं। इनमें 1999 में तैयार ट्रेड मार्क्स ऐक्ट, सूचना एवं प्रौद्योगिकी अधिनियम, 2000 और 1957 में बना कॉपीराइट ऐक्ट शामिल हैं। हालांकि, तनु ने कहा कि ये प्रावधान इस बात पर ध्यान नहीं देते हैं कि विज्ञापन मानव द्वारा तैयार किए गए हैं या एआई द्वारा। उन्होंने कहा कि इसे देखते हुए व्यापक कानूनों की जरूरत है।

तनु ने कहा, ‘नए एवं व्यापक नियम आने तक फिलहाल हम मौजूदा प्रावधानों का इस्तेमाल कर सकते हैं। मगर एआई एवं इससे जुड़े विषयों पर केंद्रित व्यापक ढांचा वाकई मददगार होगा।’ इस पर कपूर ने कहा, ‘हमने श्वेत पत्र में जिन पहलुओं का जिक्र किया गया है वे स्व-नियमन या विज्ञापन ब्रांडिंग के लिए शुरुआती आधार हो सकते हैं।’

First Published - August 1, 2023 | 11:42 PM IST

संबंधित पोस्ट