facebookmetapixel
DARPG डेटा में खुलासा: 2025 में श्रम मंत्रालय को मिलीं शिकायतें, कुल ग्रीवांस में 15.5% हिस्सेदारी‘हम ब्लैकमेल नहीं होने वाले’, टैरिफ पर EU और ब्रिटेन का ट्रंप को जवाब: यह फैसला रिश्तों में दरार डालेगाQ3 Preview: घरेलू बिक्री बढ़ी, दवा कंपनियों की Q3 आमदनी में 8-11% तक उछालUPI को ग्लोबल बनाने की जरूरत, छोटे मर्चेंट्स के लिए सेटलमेंट को सही करना जरूरी: Pay10 के फाउंडरवर्कप्लेस पर तेजी से बढ़ रहा है AI का इस्तेमाल, लेकिन ट्रेनिंग में पीछे छूट रही हैं कंपनियां: रिपोर्टMauni Amavasya 2026: प्रयागराज में संगम पर उमड़ी करोड़ों की श्रद्धालुओं की भीड़, शंकराचार्य विवाद में फंसेदुनिया भर में बढ़ रही भारतीय दवाओं की मांग, नाइजीरिया और ब्राजील बने नए बड़े ठिकानेMarket Outlook: इस हफ्ते शेयर बाजार की चाल तय करेंगे Q3 नतीजे और ग्लोबल संकेतMCap: मार्केट में SBI और Infosys का जलवा, Reliance समेत कई कंपनियों की वैल्यू में गिरावटनेविल टाटा की सर रतन टाटा ट्रस्ट में नियुक्ति की कोशिश फिर फेल, बोर्ड मीटिंग क्वोरम पूरा न होने से रद्द

AI से मानव प्रजाति के विलुप्त होने का खतरा: अमेरिकी सरकार रिपोर्ट

रिपोर्ट में कहा गया है कि AI और विशेष रूप से AGI मानवता के लिए बहुत बड़ा खतरा हो सकती है।

Last Updated- March 12, 2024 | 10:54 PM IST
Nasscom चेयरमैन का इशारा, AI से इस सेक्टर में जाएगी सबसे ज्यादा नौकरी!, BPO employees face maximum risk of getting replaced by AI: Nasscom chairman

अमेरिकी सरकार से AI द्वारा पैदा होने वाले राष्ट्रीय सुरक्षा जोखिमों को कम करने के लिए “तुरंत और निर्णायक” कदम उठाने का अनुरोध किया गया है। एक सरकारी रिपोर्ट के अनुसार, यदि AI को अनियंत्रित छोड़ दिया गया, तो यह “मानव प्रजातियों के लिए विलुप्त होने के स्तर का खतरा” पैदा कर सकती है।

AGI मानवता के लिए बहुत बड़ा खतरा

रिपोर्ट में कहा गया है कि AI और विशेष रूप से AGI मानवता के लिए बहुत बड़ा खतरा हो सकती है। AGI एक काल्पनिक प्रकार की AI है जो इंसान की तरह किसी भी कार्य को समझने और करने में सक्षम होगी। रिपोर्ट में कहा गया है कि AGI उतना ही खतरनाक हो सकता है जितना कि परमाणु हथियार। AGI अभी तक सिर्फ एक कल्पना है। लेकिन AI प्रयोगशालाओं में हो रहे रिसर्च और विकास की गति को देखते हुए, यह कहना गलत नहीं होगा कि यह कल्पना जल्द ही सचाई बन सकती है।

रिपोर्ट के लेखकों ने AI उद्योग में सुरक्षा प्रैक्टिस को लेकर कई आंतरिक चिंताएं व्यक्त की हैं। उन्होंने सरकार के 200 से अधिक लोगों, AI विशेषज्ञों और लीडिंग AI कंपनियों के कर्मचारियों से बातचीत के आधार पर यह रिपोर्ट तैयार की है। रिपोर्ट में OpenAI, गूगल डीपमाइंड, Anthropic और मेटा जैसी बड़ी AI कंपनियों का जिक्र किया गया है। इन कंपनियों को अपनी सुरक्षा प्रैक्टिस में सुधार करने की आवश्यकता है।

AI के तेजी से विकास से दो गंभीर खतरे पैदा हुए

AI के तेजी से विकास से दो गंभीर खतरे पैदा हो गए हैं: हथियारीकरण और नियंत्रण खोना। आर्थिक लाभ के लिए एआई डेवलपर्स के बीच एक खतरनाक दौड़ शुरू हो सकती है, जिसमें सुरक्षा को नजरअंदाज किया जा सकता है।

जैसे-जैसे AI तकनीक आगे बढ़ रही है, चैटजीपीटी जैसे टूल के साथ, मजबूत रेगुलेटरी उपायों की मांग भी बढ़ रही है। कुछ लोग प्रस्ताव दे रहे हैं कि कुछ खास कंप्यूटिंग पावर लेवल से परे AI मॉडल को ट्रेन करना अवैध बना दिया जाए। वे इस बढ़ते क्षेत्र की देखरेख के लिए एक नई संघीय AI एजेंसी बनाने का भी सुझाव दे रहे हैं।

AI रेगुलेशन को लेकर लोगों की अलग-अलग राय

इन प्रस्तावों में हार्डवेयर और एडवांस टेक्नॉलजी रेगुलेशन की भूमिका भी शामिल है। कुछ लोग AI चिप्स के निर्माण और निर्यात पर ज्यादा नियंत्रण चाहते हैं। वे AI रिसर्च के लिए संघीय फंडिंग को बढ़ाने के महत्व पर भी जोर देते हैं।

एक प्रस्ताव AI सिस्टम की ट्रेनिंग के लिए जरूरी हाई-एंड कंप्यूटिंग रिसोर्स के प्रसार को नियंत्रित करने के उपायों का सुझाव देता है। “ग्लैडस्टोन एक्शन प्लान” का उद्देश्य AI हथियारीकरण और नियंत्रण के नुकसान से होने वाले विनाशकारी राष्ट्रीय सुरक्षा जोखिमों का मुकाबला करना है। योजना अमेरिकी सरकार के हस्तक्षेप का आह्वान करती है, जिसमें कई उपाय शामिल हैं: जैसे, एडवांस AI विकास को स्थिर करने के लिए निर्यात नियंत्रण जैसे अंतरिम सुरक्षा उपायों को लागू करना।

ग्लैडस्टोन एक्शन प्लान क्या है?

“ग्लैडस्टोन एक्शन प्लान” का उद्देश्य AI के खतरों का सामना करने और AI के लाभों का सुरक्षित रूप से उपयोग करने के लिए अमेरिकी सरकार की तैयारी और क्षमता को मजबूत करना है।

योजना के मुख्य बिंदुओं में शामिल हैं: निगरानी के लिए एक AI वेधशाला (AI Observatory) बनाना, जिम्मेदार AI विकास और अपनाने के लिए सुरक्षा उपाय स्थापित करना, AI सुरक्षा टास्क फोर्स की स्थापना करना, AI सप्लाई चेन पर नियंत्रण लगाना; एजुकेशन, ट्रेनिंग और रिस्पॉन्स फ्रेमवर्क विकास के माध्यम से ए़डवांस AI के लिए तैयारियों को मजबूत करना, AI सुरक्षा रिसर्च में राष्ट्रीय निवेश को बढ़ावा देना और AI प्रगति की तीव्र गति को संबोधित करने के लिए सुरक्षा और सुरक्षा मानकों को विकसित करना।

औपचारिक सुरक्षा उपायों में एक नियामक एजेंसी, फ्रंटियर AI सिस्टम्स एडमिनिस्ट्रेशन (FAISA) की स्थापना शामिल है, जो AI के उपयोग पर नज़र रखेगी। इसके अलावा, दीर्घकालिक AI सेफ्टी और सिक्योरिटी को कवर करने के लिए एक कानूनी दायित्व ढांचा स्थापित किया जाना चाहिए। अंतर्राष्ट्रीय कानून और सप्लाई चेन में सुधारों में AI टेक्नॉलजी में वैश्विक हथियारों की होड़ को रोकने के लिए अंतर्राष्ट्रीय कानून में AI सुरक्षा उपायों को स्थापित करना शामिल है। इसके अलावा, एक अंतर्राष्ट्रीय AI एजेंसी और अंतर्राष्ट्रीय भागीदारों के साथ AI सप्लाई चेन नियंत्रण व्यवस्था स्थापित की जानी चाहिए।

First Published - March 12, 2024 | 10:54 PM IST

संबंधित पोस्ट