ज्योफ्रे हिंटन ने हाल ही में गूगल छोड़ने की घोषणा की और जब उनसे पूछा गया कि वह ऐसा क्यों कर रहे हैं तो उन्होंने जवाब दिया, ‘मैंने इसलिए छोड़ा ताकि मैं आर्टिफिशल इंटेलिजेंस (एआई) के खतरों के बारे में बिना यह सोचे बात कर सकूं कि इसका गूगल पर क्या असर होगा।’ उनकी इस बात ने हम सभी को यह सोचने पर विवश कर दिया कि आखिर हमारे सामने क्या कुछ आने वाला है। हम सभी हिंटन की टिप्पणी को इसलिए बहुत गंभीरता से लेते हैं क्योंकि उन्हें वैज्ञानिक हलकों में एआई के संरक्षक के तौर पर जाना जाता है। ‘न्यूट्रल नेटवर्क’ के पीछे उन्हीं का दिमाग है।
यह एक गणितीय अवधारणा है जो इंसानी भाषाओं के भारी-भरकम डेटाबेस से खास किस्म के रुझानों को अलग करती है। ऐसे में आप कह सकते हैं कि चैटजीपीटी जैसे कार्यक्रम बिना न्यूट्रल नेटवर्क के अस्तित्व में नहीं आ सकते थे और हिंटन ने इसे इस्तेमाल लायक बनाने में योगदान किया है।
ज्योफ्रे हिंटन की बातों और उनके कदमों का शायद वही प्रभाव हो जो उस समय होता अगर होमी भाभा ने सन् 1950 के दशक में यह कहते हुए परमाणु ऊर्जा आयोग छोड़ दिया होता कि, ‘मैंने इसलिए छोड़ दिया ताकि मैं बिना यह सोचे परमाणु ऊर्जा के खतरों के बारे में बात कर सकूं कि इन बातों का भारत के परमाणु कार्यक्रम पर क्या असर होगा?’
अगर वैसा होता तो भारत शायद परमाणु ऊर्जा को लेकर अपने बड़े-बड़े सपने पहले ही त्याग देता। या फिर मानो ईएमएस नंबूदरीपाद मार्क्सवादी कम्युनिस्ट पार्टी छोड़ते हुए यह कहते, ‘मैंने इसलिए पार्टी छोड़ी ताकि मैं मार्क्सवाद के खतरों के बारे में बात कर सकूं..वगैरह।’
आमतौर पर तकनीकी क्षेत्र में किसी भी नई पहल के समय कुछ लोग आशंका जताते हैं कि इससे नौकरियों को नुकसान होगा। इस बार रहस्यमय बात यह है कि एक नई तकनीक के सह रचयिता ने चेतावनी दी है। ऐसे में हमारे लिए जरूरी है कि हम उसकी बात सुनें।
तकनीक पर अगर निगरानी न रखी जाए तो वह मुश्किल हालात पैदा कर सकती है। उदाहरण के लिए भोपाल में सन 1984 में यूनियन कार्बाइड (एवरेडी बैटरी की निर्माता) के कारखाने में घटित भोपाल गैस त्रासदी को याद कीजिए। तीन दिसंबर, 1984 को करीब 45 टन खतरनाक मिथाइल आइसोसाइनेट गैस इस कीटनाशक संयंत्र से रिसी और करीब 15,000 लोगों को अपनी जान गंवानी पड़ी। तकरीबन पांच लाख बचे हुए लोग दृष्टिहीनता तथा कई प्रकार की अन्य बीमारियों के शिकार हुए क्योंकि वे विषाक्त गैस के संपर्क में आए थे।
इनसाइक्लोपीडिया ब्रिटानिका के अनुसार इस बात पर सहमति बनी कि कमतर परिचालन और सुरक्षा प्रक्रिया की कमी के कारण यह त्रासदी घटित हुई। दूसरे शब्दों में कहें तो यह मामला बिना समुचित निगरानी के तकनीक के इस्तेमाल का था। हिंटन ने सार्वजनिक रूप से जो चिंताएं जताईं उनमें एक प्रमुख चिंता यह थी कि ‘बुरे काम करने वाले’ एआई का इस्तेमाल करके गलत काम कर सकते हैं।
ऐसे काम जो मासूम नागरिकों को प्रभावित करें। वह उदाहरण देते हैं कि अधिनायकवादी नेता कृत्रिम ढंग से तैयार भाषणों और लेखन का उपयोग करके मतदाताओं को प्रभावित करते हैं। कुछ ऐसे उदाहरण भी हैं जिन्हें कहीं अधिक आसानी से समझा जा सकता है। एक उदाहरण है चालकरहित बस का एक यातायात संचालित पथ पर घुस जाना या सैन्य ड्रोन का मासूम लोगों पर हमला कर देना।
सवाल यह है कि ऐसे में केवल चिंतित होने के अलावा हम नीतिगत स्तर पर क्या कदम उठा सकते हैं? हाल के सप्ताहों में कई शोधकर्ताओं और सिलिकन वैली के कई थिंकटैंक्स ने दुनिया भर के लोगों से यह अपील करनी आरंभ की है कि वे एक ऐसे खुले पत्र पर हस्ताक्षर करें जो जीपीटी4 (चैटबॉट जीपीटी के निर्माताओं द्वारा निर्मित) से अधिक शक्तिशाली एआई प्रयोगों को छह माह के लिए रोकने की मांग करता है।
फ्यूचर ऑफ लाइफ इंस्टीट्यूट ने 28,000 लोगों से ऐसी एक अपील पर हस्ताक्षर कराए। हस्ताक्षर करने वालों में टेस्ला के संस्थापक और ट्विटर के मालिक ईलॉन मस्क, ऐपल के सह-संस्थापक स्टीव वोजनियाक और डीप लर्निंग और टूरिंग अवार्ड विजेता योशिओ बेंजियो शामिल थे।
इन लोगों की कुछ अनुशंसाएं इस प्रकार हैं:
ऐसे तरीके निकालें जो एआई से तैयार सामग्री को पहचान सकें, एआई से होने वाले नुकसान की जवाबदेही तय हो, एआई प्रणाली के लिए तीसरे पक्ष द्वारा अंकेक्षण और प्रमाणन की व्यवस्था हो (पूरी रिपोर्ट ‘एफएलआई रिपोर्ट: पॉलिसी मेकिंग इन द पॉज’)।
हम खुद को जिस स्थिति में आते हैं वह सन 1990 के दशक के इंटरनेट के शुरुआती समय की याद दिलाती है। उस समय भी ऐसी ही चेतावनी दी जाती थी और कहा जाता था कि इंटरनेट तकनीक के कारण लोग घृणा फैलाने वाले या अश्लील संदेशों का प्रसार करेंगे या सूचनाओं की चोरी करेंगे। कहा जाता था कि इंटरनेट नवाचार के कारण मानवता का नष्ट होना तय है। हमने उन चिंताओं को दूर करने के लिए कानून बनाए और मध्यवर्ती प्लेटफॉर्म का निर्माण किया जो ऐसे मंच मुहैया कराते थे जहां लोग सामग्री तैयार कर सकते थे और अन्य लोग उन पर टिप्पणियां कर सकते थे।
इसके चलते रचनाकारों और टीकाकारों को गलत व्यवहार से जुड़ी तमाम तरह की कानूनी जवाबदेहियों से मुक्ति हासिल हुई और मध्यवर्ती कंपनियों और प्लेटफॉर्म को निरंतर नवाचार करने का अवसर मिला। इस क्षेत्र में भी विभिन्न प्रकार के कानून लाकर जवाबदेहियों को इसी प्रकार बांटा जा सकता है।
इन तमाम विषयों पर विचार करते हुए यह संभव है कि उन शोधकर्ताओं, निवेशकों और उद्यमियों के लिए कठिनाई पैदा हो जाए जो अपने काम को बढ़ाचढ़ाकर बताने के लिए आर्टिफिशल इंटेलिजेंस की अभिव्यक्ति का इस्तेमाल कर बैठते हों। क्या ऐसी तकनीक को ‘मशीन लर्निंग’ का नाम देना अधिक उचित होगा?
आर्टिफिशल इंटेलिजेंस का इस्तेमाल करने से यह संकेत मिलता है कि वे जिस अलगोरिद्म या गैजेट का विकास कर रहे हैं उसमें खास तर्क शक्ति है। यही बात दिक्कत पैदा करती है।ऐसे में क्या हमें ऐसा कानून लाने की आवश्यकता है जिसके तहत आर्टिफिशल इंटेलिजेंस पर रोक लगा दी जाए और ऐसे तमाम कामों को मशीन लर्निंग कहा जाए? (लेखक इंटरनेट उद्यमी हैं)