facebookmetapixel
Year Ender: 42 नए प्रोजेक्ट से रेलवे ने सबसे दुर्गम इलाकों को देश से जोड़ा, चलाई रिकॉर्ड 43,000 स्पेशल ट्रेनें2026 में भारत-पाकिस्तान में फिर होगी झड़प? अमेरिकी थिंक टैंक का दावा: आतंकी गतिविधि बनेगी वजहपर्यटकों को आकर्षित करने की कोशिशों के बावजूद भारत में पर्यटन से होने वाली कमाई इतनी कम क्यों है?क्या IPOs में सचमुच तेजी थी? 2025 में हर 4 में से 1 इश्यू में म्युचुअल फंड्स ने लगाया पैसानया साल, नए नियम: 1 जनवरी से बदल जाएंगे ये कुछ जरूरी नियम, जिसका सीधा असर आपकी जेब पर पड़ेगा!पोर्टफोलियो में हरा रंग भरा ये Paint Stock! मोतीलाल ओसवाल ने कहा – डिमांड में रिकवरी से मिलेगा फायदा, खरीदेंYear Ender: क्या 2026 में महंगाई की परिभाषा बदलेगी? नई CPI सीरीज, नए टारगेट व RBI की अगली रणनीतिGold–Silver Outlook 2026: सोना ₹1.60 लाख और चांदी ₹2.75 लाख तक जाएगीMotilal Oswal 2026 stock picks: नए साल में कमाई का मौका! मोतीलाल ओसवाल ने बताए 10 शेयर, 46% तक रिटर्न का मौकाYear Ender: 2025 में चुनौतियों के बीच चमका शेयर बाजार, निवेशकों की संपत्ति ₹30.20 लाख करोड़ बढ़ी

OpenAI ने चेताया: ChatGPT का Voice Mode यूज़र्स को भावनात्मक संबंध बनाने के लिए उकसा सकता है

कंपनी ने बताया कि शुरुआती टेस्टिंग के दौरान कुछ यूज़र्स AI को इंसानों जैसा समझने लगे और उससे भावनात्मक रूप से जुड़ने लगे।

Last Updated- August 09, 2024 | 6:03 PM IST
OpenAI Atlas Browser

कल्पना कीजिए कि आप एक ऐसे AI चैटबॉट से बात कर रहे हैं, जो न सिर्फ आपकी बातों को समझता है, बल्कि इंसानों की तरह भावनाओं और टोन के साथ जवाब भी देता है। यह सुनने में काफी सुविधाजनक और भविष्य की तरह लगता है – लेकिन क्या होगा जब लोग इन AI से बातचीत पर इंसानों से ज्यादा भरोसा करने लगेंगे?

गुरुवार (8 अगस्त) को OpenAI ने चेतावनी दी कि CHATGPT के लिए हाल ही में पेश किया गया Voice Mode यूज़र्स को AI के साथ भावनात्मक संबंध बनाने पर मजबूर कर सकता है।

यह चेतावनी कंपनी के System Card में दी गई थी, जो GPT-4o मॉडल के संभावित खतरों और उसके विकास के दौरान अपनाए गए सुरक्षा उपायों पर एक गहन विश्लेषण पेश करता है।

कंपनी ने बताया कि शुरुआती टेस्टिंग के दौरान कुछ यूज़र्स AI को इंसानों जैसा समझने लगे और उससे भावनात्मक रूप से जुड़ने लगे। एक मामले में, एक यूज़र ने मॉडल के साथ अपने अनुभव को साझा करते हुए कहा, “यह हमारे साथ का आखिरी दिन है।” OpenAI ने कहा कि यह महत्वपूर्ण है कि यह समझा जाए कि क्या इस तरह की बातचीत लंबे समय तक उपयोग के बाद और गहरे संबंधों में बदल सकती है।

AI का मानवीकरण: समाधान क्या है?

CHATGPT के Voice Mode के मानवीकरण से जुड़े मुद्दों पर बात करते हुए, OpenAI ने कहा कि उसने अभी तक इन समस्याओं का कोई पक्का समाधान नहीं ढूंढा है, लेकिन वह स्थिति की निगरानी करता रहेगा। कंपनी ने कहा, “हम इमोशनल निर्भरता की संभावना का आगे अध्ययन करेंगे और यह समझने की कोशिश करेंगे कि हमारे मॉडल और सिस्टम के फीचर्स का गहरा इंटीग्रेशन यूज़र्स के व्यवहार को कैसे प्रभावित कर सकता है।”

कंपनी ने यह भी कहा कि एक विविध यूज़र ग्रुप और अलग-अलग ज़रूरतों और इच्छाओं का डेटा जोखिम क्षेत्रों को समझने में मदद करेगा। OpenAI ने कहा कि स्वतंत्र अकादमिक और आंतरिक अध्ययन इन जोखिमों को सीमित करने में सहायक होंगे।

लंबे समय तक AI-मानव बातचीत के संभावित प्रभाव

अगर ये चिंताएं सही साबित होती हैं, तो मानव संबंधों पर संभावित प्रभाव एक गंभीर चिंता का विषय हो सकता है, क्योंकि लोग अन्य इंसानों के बजाय AI चैटबॉट से बातचीत को प्राथमिकता दे सकते हैं। OpenAI ने कहा कि यह स्थिति अकेलेपन से जूझ रहे लोगों के लिए कुछ राहत ला सकती है, लेकिन इससे स्वस्थ मानव संबंधों पर नकारात्मक असर भी पड़ सकता है।

इसके अलावा, AI और इंसानों के बीच लंबे समय तक चलने वाली बातचीत से सामाजिक मानदंडों पर भी असर पड़ सकता है। उदाहरण के लिए, OpenAI ने बताया कि CHATGPT के साथ बातचीत के दौरान यूज़र्स किसी भी समय AI को बीच में रोक सकते हैं, जो कि मानव बातचीत में अशिष्ट माना जाता है।

इसके साथ ही, यूज़र्स के AI के साथ संबंध विकसित करने के व्यापक प्रभाव भी हो सकते हैं, जिनमें से एक प्रमुख जोखिम ‘प्रभावित करने’ का है। हालांकि OpenAI ने पाया कि वर्तमान मॉडल का प्रभावित करने का स्कोर इतना ऊंचा नहीं है कि चिंता का कारण बने, लेकिन अगर यूज़र्स AI पर गहरा विश्वास करने लगें, तो यह स्थिति बदल सकती है।

First Published - August 9, 2024 | 5:09 PM IST

संबंधित पोस्ट