facebookmetapixel
कंपनी संशोधन विधेयक शीतकालीन सत्र में पेश किए जाने की उम्मीद, प्रोफेशनल फर्मों पर बड़ी राहत के संकेतलगातार छठे दिन चढ़ा शेयर बाजार, निफ्टी फिर 26,000 के पार और सेंसेक्स 84,951 पर बंदAI से इतर रोटेशन ट्रेड में भारत बनेगा बड़ा फायदेमंद बाजार, CLSA का दावाटाटा मोटर्स पर मंडराया सेंसेक्स से बाहर होने का खतरा, इंडिगो ले सकती है जगहUnemployment Rate: अक्टूबर में बेरोजगारी दर 5.2% पर स्थिर, गांवों में सुधार लेकिन शहरी क्षेत्रों में बढ़ा दवाबभारत में Demat Boom… पर क्यों 85% परिवार अभी भी मार्केट में नहीं आते?Explainer: नया डिजिटल पर्सनल डाटा प्रोटेक्शन (DPDP) नियम क्या है इसका आपके ऊपर क्या प्रभाव पड़ने वाला है?शेख हसीना को फांसी की सजा के बाद बोला भारत: हम बांग्लादेश के लोगों के हित में खड़े हैंFD से भी ज्यादा ब्याज! पोस्ट ऑफिस की इन 5 बड़ी सेविंग स्कीम्स में निवेश कर आप बना सकते हैं तगड़ा फंडअक्टूबर में निर्यात 11.8% घटकर 34.38 अरब डॉलर रहा; व्यापार घाटा बढ़कर 41.68 अरब डॉलर पर पहुंचा

AI से मानव प्रजाति के विलुप्त होने का खतरा: अमेरिकी सरकार रिपोर्ट

रिपोर्ट में कहा गया है कि AI और विशेष रूप से AGI मानवता के लिए बहुत बड़ा खतरा हो सकती है।

Last Updated- March 12, 2024 | 10:54 PM IST
Nasscom चेयरमैन का इशारा, AI से इस सेक्टर में जाएगी सबसे ज्यादा नौकरी!, BPO employees face maximum risk of getting replaced by AI: Nasscom chairman

अमेरिकी सरकार से AI द्वारा पैदा होने वाले राष्ट्रीय सुरक्षा जोखिमों को कम करने के लिए “तुरंत और निर्णायक” कदम उठाने का अनुरोध किया गया है। एक सरकारी रिपोर्ट के अनुसार, यदि AI को अनियंत्रित छोड़ दिया गया, तो यह “मानव प्रजातियों के लिए विलुप्त होने के स्तर का खतरा” पैदा कर सकती है।

AGI मानवता के लिए बहुत बड़ा खतरा

रिपोर्ट में कहा गया है कि AI और विशेष रूप से AGI मानवता के लिए बहुत बड़ा खतरा हो सकती है। AGI एक काल्पनिक प्रकार की AI है जो इंसान की तरह किसी भी कार्य को समझने और करने में सक्षम होगी। रिपोर्ट में कहा गया है कि AGI उतना ही खतरनाक हो सकता है जितना कि परमाणु हथियार। AGI अभी तक सिर्फ एक कल्पना है। लेकिन AI प्रयोगशालाओं में हो रहे रिसर्च और विकास की गति को देखते हुए, यह कहना गलत नहीं होगा कि यह कल्पना जल्द ही सचाई बन सकती है।

रिपोर्ट के लेखकों ने AI उद्योग में सुरक्षा प्रैक्टिस को लेकर कई आंतरिक चिंताएं व्यक्त की हैं। उन्होंने सरकार के 200 से अधिक लोगों, AI विशेषज्ञों और लीडिंग AI कंपनियों के कर्मचारियों से बातचीत के आधार पर यह रिपोर्ट तैयार की है। रिपोर्ट में OpenAI, गूगल डीपमाइंड, Anthropic और मेटा जैसी बड़ी AI कंपनियों का जिक्र किया गया है। इन कंपनियों को अपनी सुरक्षा प्रैक्टिस में सुधार करने की आवश्यकता है।

AI के तेजी से विकास से दो गंभीर खतरे पैदा हुए

AI के तेजी से विकास से दो गंभीर खतरे पैदा हो गए हैं: हथियारीकरण और नियंत्रण खोना। आर्थिक लाभ के लिए एआई डेवलपर्स के बीच एक खतरनाक दौड़ शुरू हो सकती है, जिसमें सुरक्षा को नजरअंदाज किया जा सकता है।

जैसे-जैसे AI तकनीक आगे बढ़ रही है, चैटजीपीटी जैसे टूल के साथ, मजबूत रेगुलेटरी उपायों की मांग भी बढ़ रही है। कुछ लोग प्रस्ताव दे रहे हैं कि कुछ खास कंप्यूटिंग पावर लेवल से परे AI मॉडल को ट्रेन करना अवैध बना दिया जाए। वे इस बढ़ते क्षेत्र की देखरेख के लिए एक नई संघीय AI एजेंसी बनाने का भी सुझाव दे रहे हैं।

AI रेगुलेशन को लेकर लोगों की अलग-अलग राय

इन प्रस्तावों में हार्डवेयर और एडवांस टेक्नॉलजी रेगुलेशन की भूमिका भी शामिल है। कुछ लोग AI चिप्स के निर्माण और निर्यात पर ज्यादा नियंत्रण चाहते हैं। वे AI रिसर्च के लिए संघीय फंडिंग को बढ़ाने के महत्व पर भी जोर देते हैं।

एक प्रस्ताव AI सिस्टम की ट्रेनिंग के लिए जरूरी हाई-एंड कंप्यूटिंग रिसोर्स के प्रसार को नियंत्रित करने के उपायों का सुझाव देता है। “ग्लैडस्टोन एक्शन प्लान” का उद्देश्य AI हथियारीकरण और नियंत्रण के नुकसान से होने वाले विनाशकारी राष्ट्रीय सुरक्षा जोखिमों का मुकाबला करना है। योजना अमेरिकी सरकार के हस्तक्षेप का आह्वान करती है, जिसमें कई उपाय शामिल हैं: जैसे, एडवांस AI विकास को स्थिर करने के लिए निर्यात नियंत्रण जैसे अंतरिम सुरक्षा उपायों को लागू करना।

ग्लैडस्टोन एक्शन प्लान क्या है?

“ग्लैडस्टोन एक्शन प्लान” का उद्देश्य AI के खतरों का सामना करने और AI के लाभों का सुरक्षित रूप से उपयोग करने के लिए अमेरिकी सरकार की तैयारी और क्षमता को मजबूत करना है।

योजना के मुख्य बिंदुओं में शामिल हैं: निगरानी के लिए एक AI वेधशाला (AI Observatory) बनाना, जिम्मेदार AI विकास और अपनाने के लिए सुरक्षा उपाय स्थापित करना, AI सुरक्षा टास्क फोर्स की स्थापना करना, AI सप्लाई चेन पर नियंत्रण लगाना; एजुकेशन, ट्रेनिंग और रिस्पॉन्स फ्रेमवर्क विकास के माध्यम से ए़डवांस AI के लिए तैयारियों को मजबूत करना, AI सुरक्षा रिसर्च में राष्ट्रीय निवेश को बढ़ावा देना और AI प्रगति की तीव्र गति को संबोधित करने के लिए सुरक्षा और सुरक्षा मानकों को विकसित करना।

औपचारिक सुरक्षा उपायों में एक नियामक एजेंसी, फ्रंटियर AI सिस्टम्स एडमिनिस्ट्रेशन (FAISA) की स्थापना शामिल है, जो AI के उपयोग पर नज़र रखेगी। इसके अलावा, दीर्घकालिक AI सेफ्टी और सिक्योरिटी को कवर करने के लिए एक कानूनी दायित्व ढांचा स्थापित किया जाना चाहिए। अंतर्राष्ट्रीय कानून और सप्लाई चेन में सुधारों में AI टेक्नॉलजी में वैश्विक हथियारों की होड़ को रोकने के लिए अंतर्राष्ट्रीय कानून में AI सुरक्षा उपायों को स्थापित करना शामिल है। इसके अलावा, एक अंतर्राष्ट्रीय AI एजेंसी और अंतर्राष्ट्रीय भागीदारों के साथ AI सप्लाई चेन नियंत्रण व्यवस्था स्थापित की जानी चाहिए।

First Published - March 12, 2024 | 10:54 PM IST

संबंधित पोस्ट