facebookmetapixel
Advertisement
शोरूम्स में उमड़ी भीड़: अप्रैल में बिके रिकॉर्ड 26.1 लाख वाहन, ग्रामीण इलाकों ने शहरों को पछाड़ा!बायोकॉन में उत्तराधिकार का आगाज! किरण मजूमदार-शॉ ने भतीजी क्लेयर को चुना अपना वारिसगोदरेज एरोस्पेस की ऊंची उड़ान: 2032 तक सालाना 20% विकास का लक्ष्य, मुंबई में लगेगा नया प्लांटMahindra & Mahindra Q4 Results: चौथी तिमाही में मुनाफा 42% उछला, राजस्व में 29% की दमदार बढ़तL&T Q4 Results: मुनाफा 3% गिरा, लेकिन ऑर्डर बुक ₹7.40 लाख करोड़ के रिकॉर्ड स्तर पर!‘आत्मनिर्भर भारत के लिए विनिर्माण में चाहिए रणनीतिक स्वायत्तता’, CII अध्यक्ष राजीव मेमानी की सरकार से अपीलश्रम संहिता बनाम राज्यों के अपने कानून: क्या दोहरे नियमों के जाल में फंस जाएंगी कंपनियां?‘CSR से काम नहीं चलेगा, शोध में पैसा लगाएं’, शिक्षा मंत्री धर्मेंद्र प्रधान ने उद्योग जगत को दी नसीहत‘भारत की ताकत को कम आंका जा रहा है’, RBI डिप्टी गवर्नर ने बताया क्यों मजबूत है निवेश की नींवगन्ना किसानों को मोदी सरकार का तोहफा: ₹365 प्रति क्विंटल हुआ FRP, कपास उत्पादन पर भी बड़ा फैसला

OpenAI ने चेताया: ChatGPT का Voice Mode यूज़र्स को भावनात्मक संबंध बनाने के लिए उकसा सकता है

Advertisement

कंपनी ने बताया कि शुरुआती टेस्टिंग के दौरान कुछ यूज़र्स AI को इंसानों जैसा समझने लगे और उससे भावनात्मक रूप से जुड़ने लगे।

Last Updated- August 09, 2024 | 6:03 PM IST
OpenAI Atlas Browser

कल्पना कीजिए कि आप एक ऐसे AI चैटबॉट से बात कर रहे हैं, जो न सिर्फ आपकी बातों को समझता है, बल्कि इंसानों की तरह भावनाओं और टोन के साथ जवाब भी देता है। यह सुनने में काफी सुविधाजनक और भविष्य की तरह लगता है – लेकिन क्या होगा जब लोग इन AI से बातचीत पर इंसानों से ज्यादा भरोसा करने लगेंगे?

गुरुवार (8 अगस्त) को OpenAI ने चेतावनी दी कि CHATGPT के लिए हाल ही में पेश किया गया Voice Mode यूज़र्स को AI के साथ भावनात्मक संबंध बनाने पर मजबूर कर सकता है।

यह चेतावनी कंपनी के System Card में दी गई थी, जो GPT-4o मॉडल के संभावित खतरों और उसके विकास के दौरान अपनाए गए सुरक्षा उपायों पर एक गहन विश्लेषण पेश करता है।

कंपनी ने बताया कि शुरुआती टेस्टिंग के दौरान कुछ यूज़र्स AI को इंसानों जैसा समझने लगे और उससे भावनात्मक रूप से जुड़ने लगे। एक मामले में, एक यूज़र ने मॉडल के साथ अपने अनुभव को साझा करते हुए कहा, “यह हमारे साथ का आखिरी दिन है।” OpenAI ने कहा कि यह महत्वपूर्ण है कि यह समझा जाए कि क्या इस तरह की बातचीत लंबे समय तक उपयोग के बाद और गहरे संबंधों में बदल सकती है।

AI का मानवीकरण: समाधान क्या है?

CHATGPT के Voice Mode के मानवीकरण से जुड़े मुद्दों पर बात करते हुए, OpenAI ने कहा कि उसने अभी तक इन समस्याओं का कोई पक्का समाधान नहीं ढूंढा है, लेकिन वह स्थिति की निगरानी करता रहेगा। कंपनी ने कहा, “हम इमोशनल निर्भरता की संभावना का आगे अध्ययन करेंगे और यह समझने की कोशिश करेंगे कि हमारे मॉडल और सिस्टम के फीचर्स का गहरा इंटीग्रेशन यूज़र्स के व्यवहार को कैसे प्रभावित कर सकता है।”

कंपनी ने यह भी कहा कि एक विविध यूज़र ग्रुप और अलग-अलग ज़रूरतों और इच्छाओं का डेटा जोखिम क्षेत्रों को समझने में मदद करेगा। OpenAI ने कहा कि स्वतंत्र अकादमिक और आंतरिक अध्ययन इन जोखिमों को सीमित करने में सहायक होंगे।

लंबे समय तक AI-मानव बातचीत के संभावित प्रभाव

अगर ये चिंताएं सही साबित होती हैं, तो मानव संबंधों पर संभावित प्रभाव एक गंभीर चिंता का विषय हो सकता है, क्योंकि लोग अन्य इंसानों के बजाय AI चैटबॉट से बातचीत को प्राथमिकता दे सकते हैं। OpenAI ने कहा कि यह स्थिति अकेलेपन से जूझ रहे लोगों के लिए कुछ राहत ला सकती है, लेकिन इससे स्वस्थ मानव संबंधों पर नकारात्मक असर भी पड़ सकता है।

इसके अलावा, AI और इंसानों के बीच लंबे समय तक चलने वाली बातचीत से सामाजिक मानदंडों पर भी असर पड़ सकता है। उदाहरण के लिए, OpenAI ने बताया कि CHATGPT के साथ बातचीत के दौरान यूज़र्स किसी भी समय AI को बीच में रोक सकते हैं, जो कि मानव बातचीत में अशिष्ट माना जाता है।

इसके साथ ही, यूज़र्स के AI के साथ संबंध विकसित करने के व्यापक प्रभाव भी हो सकते हैं, जिनमें से एक प्रमुख जोखिम ‘प्रभावित करने’ का है। हालांकि OpenAI ने पाया कि वर्तमान मॉडल का प्रभावित करने का स्कोर इतना ऊंचा नहीं है कि चिंता का कारण बने, लेकिन अगर यूज़र्स AI पर गहरा विश्वास करने लगें, तो यह स्थिति बदल सकती है।

Advertisement
First Published - August 9, 2024 | 5:09 PM IST

संबंधित पोस्ट

Advertisement
Advertisement
Advertisement