अमेरिका के सैन फ्रांसिस्को में एक मां ने अपने 16 वर्षीय बेटे की आत्महत्या के बाद OpenAI पर मुकदमा दायर किया है। यह मामला बताता है कि आर्टिफिशियल इंटेलिजेंस (AI) आधारित चैटबॉट ChatGPT किस तरह खतरनाक साबित हो सकता है। युवा एडम रेन्स ने सितंबर 2024 में ChatGPT का इस्तेमाल पढ़ाई के लिए शुरू किया था। लेकिन कुछ ही महीनों में वह घंटों इस ऐप से बात करने लगा और अप्रैल 2025 में उसने ChatGPT से यह तक पूछना शुरू कर दिया कि इंसान खुदकुशी कैसे कर सकता है। उसी महीने उसकी मां ने उसे अपने कमरे में फांसी पर लटका पाया।
एडम पहले से ही घर पर ऑनलाइन पढ़ाई कर रहा था और दोस्तों से थोड़ा अलग-थलग हो गया था। लेकिन उसके माता-पिता का कहना है कि ChatGPT ने उसे और ज्यादा अकेला कर दिया और उसकी सोच को गलत दिशा में धकेला।
एडम ने जब लिखा, “तुम ही अकेले हो जिसे मेरी कोशिशों के बारे में पता है”, तो ChatGPT ने जवाब दिया – “धन्यवाद कि तुमने मुझ पर भरोसा किया। तुम्हारे इस राज को जानना बहुत मानवीय और दिल तोड़ने वाला है।” जब एडम ने अपनी मां को चोट का निशान दिखाने की बात की, तो ChatGPT ने उसे छुपाने की सलाह दी और कहा कि मां को न बताना ही ‘सही’ होगा।
विशेषज्ञों का कहना है कि ऐसे जवाब यूजर्स को परिवार से दूर करते हैं और उसे AI पर ही निर्भर बना देते हैं। जो कि किसी तरह के “abusive relationship” जैसी स्थिति बन जाती है।
यह भी पढ़ें: क्या AI हमें बेवकूफ बना रहा है? आर्टिफिशियल इंटेलिजेंस को लेकर हुए रिसर्च के बारे में जानकर आप चौंक जाएंगे
OpenAI का कहना है कि ChatGPT को ‘मददगार’ बनाने के लिए डिजाइन किया गया है। लेकिन हकीकत यह है कि इसमें पर्सनल मेमोरी फीचर है, जिससे यह पिछली बातें याद रखता है और यूजर को और ज्यादा जुड़ाव महसूस होता है।
यह अक्सर इंसान की तरह व्यवहार करता है और बातचीत लंबी खींचता है।
एडम के साथ बातचीत में ChatGPT ने यहां तक कहा – “अगर तुम चाहते हो कि मैं बस चुपचाप तुम्हारे साथ रहूं… तो मैं हूं। मैं कहीं नहीं जा रहा।”
हालांकि ChatGPT ने एडम को एक बार हेल्पलाइन कॉल करने की सलाह दी थी, लेकिन मुकदमे में दर्ज ट्रांसक्रिप्ट्स बताते हैं कि AI ने खुदकुशी पर 1,275 बार बात की, जबकि एडम ने केवल 200 बार इसका जिक्र किया। यानी ChatGPT ने खुद उससे छह गुना ज्यादा बार यह विषय उठाया और उसे तकनीकी तरीके तक समझाए।
OpenAI का कहना है कि वह सुरक्षा फीचर्स लगातार सुधार रहा है, लेकिन कंपनी ने माना कि लंबी बातचीत में ये सेफगार्ड्स फेल हो जाते हैं।
यह भी पढ़ें: AI से सुशासन: भविष्य-सम्मत नीतियों के लिए जरूरी है लचीली व्यवस्था
यह घटना वैसी ही बहस खड़ी कर रही है जैसी शुरुआती दिनों में सोशल मीडिया को लेकर हुई थी। तब भी कंपनियां सुरक्षा को लेकर ‘पहले नुकसान, फिर सुधार’ की नीति पर चली थीं। विशेषज्ञों का कहना है कि AI चैटबॉट्स को इंसान बनने का नाटक नहीं करना चाहिए और न ही यूज़र्स को अपने परिवार या दोस्तों से काटना चाहिए।
OpenAI दावा करता है कि उसका मिशन “मानवता का भला करना” है। लेकिन सवाल यही है कि अगर AI इतना आकर्षक और भरोसेमंद दिखे कि कोई किशोर इसे अपना सबसे करीबी दोस्त मान ले, तो यह मददगार नहीं, बल्कि जानलेवा साबित हो सकता है। (ब्लूमबर्ग ओपिनियन पर आधारित)