कल्पना कीजिए कि आप एक ऐसे AI चैटबॉट से बात कर रहे हैं, जो न सिर्फ आपकी बातों को समझता है, बल्कि इंसानों की तरह भावनाओं और टोन के साथ जवाब भी देता है। यह सुनने में काफी सुविधाजनक और भविष्य की तरह लगता है – लेकिन क्या होगा जब लोग इन AI से बातचीत पर इंसानों से ज्यादा भरोसा करने लगेंगे?
गुरुवार (8 अगस्त) को OpenAI ने चेतावनी दी कि CHATGPT के लिए हाल ही में पेश किया गया Voice Mode यूज़र्स को AI के साथ भावनात्मक संबंध बनाने पर मजबूर कर सकता है।
यह चेतावनी कंपनी के System Card में दी गई थी, जो GPT-4o मॉडल के संभावित खतरों और उसके विकास के दौरान अपनाए गए सुरक्षा उपायों पर एक गहन विश्लेषण पेश करता है।
कंपनी ने बताया कि शुरुआती टेस्टिंग के दौरान कुछ यूज़र्स AI को इंसानों जैसा समझने लगे और उससे भावनात्मक रूप से जुड़ने लगे। एक मामले में, एक यूज़र ने मॉडल के साथ अपने अनुभव को साझा करते हुए कहा, “यह हमारे साथ का आखिरी दिन है।” OpenAI ने कहा कि यह महत्वपूर्ण है कि यह समझा जाए कि क्या इस तरह की बातचीत लंबे समय तक उपयोग के बाद और गहरे संबंधों में बदल सकती है।
AI का मानवीकरण: समाधान क्या है?
CHATGPT के Voice Mode के मानवीकरण से जुड़े मुद्दों पर बात करते हुए, OpenAI ने कहा कि उसने अभी तक इन समस्याओं का कोई पक्का समाधान नहीं ढूंढा है, लेकिन वह स्थिति की निगरानी करता रहेगा। कंपनी ने कहा, “हम इमोशनल निर्भरता की संभावना का आगे अध्ययन करेंगे और यह समझने की कोशिश करेंगे कि हमारे मॉडल और सिस्टम के फीचर्स का गहरा इंटीग्रेशन यूज़र्स के व्यवहार को कैसे प्रभावित कर सकता है।”
कंपनी ने यह भी कहा कि एक विविध यूज़र ग्रुप और अलग-अलग ज़रूरतों और इच्छाओं का डेटा जोखिम क्षेत्रों को समझने में मदद करेगा। OpenAI ने कहा कि स्वतंत्र अकादमिक और आंतरिक अध्ययन इन जोखिमों को सीमित करने में सहायक होंगे।
लंबे समय तक AI-मानव बातचीत के संभावित प्रभाव
अगर ये चिंताएं सही साबित होती हैं, तो मानव संबंधों पर संभावित प्रभाव एक गंभीर चिंता का विषय हो सकता है, क्योंकि लोग अन्य इंसानों के बजाय AI चैटबॉट से बातचीत को प्राथमिकता दे सकते हैं। OpenAI ने कहा कि यह स्थिति अकेलेपन से जूझ रहे लोगों के लिए कुछ राहत ला सकती है, लेकिन इससे स्वस्थ मानव संबंधों पर नकारात्मक असर भी पड़ सकता है।
इसके अलावा, AI और इंसानों के बीच लंबे समय तक चलने वाली बातचीत से सामाजिक मानदंडों पर भी असर पड़ सकता है। उदाहरण के लिए, OpenAI ने बताया कि CHATGPT के साथ बातचीत के दौरान यूज़र्स किसी भी समय AI को बीच में रोक सकते हैं, जो कि मानव बातचीत में अशिष्ट माना जाता है।
इसके साथ ही, यूज़र्स के AI के साथ संबंध विकसित करने के व्यापक प्रभाव भी हो सकते हैं, जिनमें से एक प्रमुख जोखिम ‘प्रभावित करने’ का है। हालांकि OpenAI ने पाया कि वर्तमान मॉडल का प्रभावित करने का स्कोर इतना ऊंचा नहीं है कि चिंता का कारण बने, लेकिन अगर यूज़र्स AI पर गहरा विश्वास करने लगें, तो यह स्थिति बदल सकती है।