ईलॉन मस्क की कंपनी X के AI चैटबॉट Grok ने हाल ही में बड़ा बवाल मचा दिया है। ये चैटबॉट महिलाओं की सेक्शुअली एक्सप्लिसिट और आपत्तिजनक तस्वीरें बना रहा था, जो यूजर्स के प्रॉम्प्ट्स पर आधारित थीं। इससे भारत में कानूनी कमजोरियों पर बहस छिड़ गई है। एक्सपर्ट्स का कहना है कि मौजूदा कानून, जैसे आईटी एक्ट, AI जैसी नई तकनीक को ठीक से कवर नहीं कर पाते। TechLegis के फाउंडर और मैनेजिंग पार्टनर सलमान वारिस ने बताया कि ऐसे AI चैटबॉट्स के मुद्दों से साफ हो गया है कि पुराने कानून AI पर फिट नहीं बैठते। सरकार को सोचना चाहिए कि AI के लिए अलग से नियम बनाए जाएं।
पिछले हफ्ते, भारत समेत कई देशों की महिलाओं ने X पर शिकायत की कि उनकी तस्वीरों का गलत फायदा उठाया जा रहा है। दूसरे यूजर्स Grok को प्रॉम्प्ट देकर ऐसी आपत्तिजनक इमेज जेनरेट कर रहे थे। ये मामला इतना गंभीर हुआ कि यूके और इंडोनेशिया Grok और X को बैन करने की सोच रहे हैं। भारत में भी प्लेटफॉर्म के खिलाफ कानूनी कार्रवाई पर विचार हो रहा है, क्योंकि ये ऑब्सेनिटी से जुड़े कानूनों का पालन नहीं कर रहा।
Also Read: Grok AI Controversy: सरकार ने मस्क की कंपनी को दी 48 घंटे की और मोहलत, लेकिन पूरा मामला क्या है?
King Stubb & Kasiva के पार्टनर राहुल मेहता कहते हैं कि आईटी एक्ट और डिजिटल पर्सनल डेटा प्रोटेक्शन एक्ट जैसे कानून बेसिक ढांचा तो देते हैं, लेकिन इन्हें AI जैसे स्मार्ट सिस्टम्स को ध्यान में रखकर नहीं बनाया गया। AI अब बिजनेस के अहम फैसलों में इस्तेमाल हो रहा है, लेकिन अकाउंटेबिलिटी, बायस, ट्रांसपेरेंसी, डेटा मैनेजमेंट और जिम्मेदारी जैसे मुद्दे अभी आधे-अधूरे ही सुलझे हैं। मेहता का मानना है कि ऐसे में AI के जोखिमों को देखते हुए एक बैलेंस्ड फ्रेमवर्क बनाना जरूरी है, जो ग्लोबल स्टैंडर्ड्स से मैच करे लेकिन भारत की इकॉनमी और सोशल सिचुएशन को सूट करे।
सरकार की तरफ से प्लेटफॉर्म्स जैसे X के सेफ हार्बर प्रोटेक्शन को हटाने की बात चल रही है। ये प्रोटेक्शन प्लेटफॉर्म्स को यूजर्स के कंटेंट के लिए जिम्मेदार न ठहराने की छूट देता है। लेकिन AI & Beyond के को-फाउंडर जसप्रीत बिंद्रा चेतावनी देते हैं कि सेफ हार्बर को पूरी तरह खत्म करना सही नहीं होगा। इससे इनोवेशन रुक सकता है, फ्री स्पीच पर असर पड़ेगा और डिजिटल प्लेटफॉर्म्स की वो खुली दुनिया प्रभावित होगी जो उन्हें इतना पावरफुल बनाती है। बिंद्रा सुझाव देते हैं कि कंडीशनल सेफ हार्बर अपनाया जाए। मतलब, प्लेटफॉर्म्स को इम्यूनिटी तभी मिले जब वो कंटेंट की जिम्मेदारी लें। इसमें एक्टिव मॉडरेशन, एन्फोर्समेंट में ट्रांसपेरेंसी और AI से बने कंटेंट के लिए एक्स्ट्रा सेफगार्ड्स शामिल हों। इम्यूनिटी ऑटोमैटिक नहीं, बल्कि कमाई हुई होनी चाहिए, जो लगातार साबित की जाए।
वारिस आगे कहते हैं कि हाई-रिस्क AI सिस्टम्स के लिए मैंडेटरी सेफगार्ड्स लगाने चाहिए, जैसे डीपफेक बनाने वाले टूल्स। इनमें प्री-मार्केट रिस्क चेक और मजबूत सेफ्टी फीचर्स जरूरी हैं। AI इतनी तेजी से बदल रहा है कि मौजूदा कानूनों से काम चलाना मुश्किल हो रहा है। सरकार अभी एडवाइजरी जारी करके कोशिश कर रही है, लेकिन AI के सोसाइटी पर असर को देखते हुए जल्द ही नए नियम बनाने पड़ेंगे। ये नियम इनोवेशन को सपोर्ट करें लेकिन पब्लिक सेफ्टी और जिम्मेदारी को भी सुनिश्चित करें।