एआई सुरक्षा गैर-लाभकारी संस्था के सह-संस्थापक ने फॉक्स न्यूज को बताया कि देशों और निगमों के बीच एक आर्टिफिशियल इंटेलिजेंस हथियारों की दौड़ यह देखने के लिए है कि कौन सबसे शक्तिशाली एआई मशीनों को विकसित कर सकता है जो मानवता के लिए एक संभावित खतरा पैदा कर सकता है।
सेंटर फॉर एआई सेफ्टी के कार्यकारी निदेशक डैन हेंड्रिक्स ने कहा, “एआई विलुप्त होने का खतरा पैदा कर सकता है, और इसका कारण यह है कि हम वर्तमान में एआई हथियारों की दौड़ में बंद हैं।” “हम तेजी से शक्तिशाली तकनीकों का निर्माण कर रहे हैं, और हम नहीं जानते कि उन्हें पूरी तरह से कैसे नियंत्रित किया जाए या उन्हें समझा जाए।”
“हमने परमाणु हथियारों के साथ भी ऐसा ही किया,” उन्होंने जारी रखा। “अस्तित्वगत जोखिम और विलुप्त होने के जोखिम के संबंध में हम सभी एक ही नाव में हैं।”
एआई आर्म्स रेस विलुप्त होने का कारण बन सकती है–मानवता के लिए स्तर की घटना: एआई सुरक्षा निदेशक
अधिक फॉक्स न्यूज डिजिटल मूल यहां देखें
हेंड्रिक्स की फर्म एक बयान जारी किया मंगलवार को चेतावनी दी है कि “[m]महामारी और परमाणु युद्ध जैसे अन्य सामाजिक-स्तर के जोखिमों के साथ एआई से विलुप्त होने के जोखिम को कम करना एक वैश्विक प्राथमिकता होनी चाहिए।एआई के गॉडफादरजेफ्री हिंटन ने बयान पर हस्ताक्षर किए।
Altman हाल ही में एआई को विनियमित करने के लिए सरकार की वकालत की प्रौद्योगिकी के जोखिमों को “कम करने” के लिए कांग्रेस के सामने गवाही में।
हेंड्रिक्स, जिन्होंने अपने संगठन के बयान पर भी हस्ताक्षर किए हैं, ने फॉक्स न्यूज को बताया, “मैं एआई के विकास के अपेक्षाकृत अनियंत्रित प्रक्रिया होने के बारे में चिंतित हूं, और एआई समाज में अधिक प्रभाव प्राप्त कर रहा है क्योंकि वे चीजों को स्वचालित करने में बहुत अच्छे हैं।” “वे एक दूसरे के साथ प्रतिस्पर्धा कर रहे हैं और एजेंटों का यह पारिस्थितिकी तंत्र है जो बहुत सारे ऑपरेशन चला रहे हैं, और हम उस प्रक्रिया पर नियंत्रण खो सकते हैं।”
“यह हमें दूसरी श्रेणी की प्रजातियों की तरह बना सकता है या निएंडरथल के रास्ते पर जा सकता है,” उन्होंने जारी रखा।
लाखों फास्ट फूड वर्कर्स 5 साल के भीतर अपनी नौकरी खो सकते हैं। उसकी वजह यहाँ है
टेस्ला के सीईओ एलोन मस्क के बारे में मुखर रहे हैं संभावित एआई खतरेयह कहते हुए कि प्रौद्योगिकी “सभ्यता के विनाश” या चुनाव हस्तक्षेप का कारण बन सकती है। मस्क ने भी एक पत्र पर हस्ताक्षर किए मार्च में बड़े एआई प्रयोगों को रोकने की वकालत की।
हालाँकि, पत्र बड़े AI डेवलपर्स जैसे OpenAI, Microsoft और Google को निलंबित प्रयोगों के लिए संकेत देने में विफल रहा।
हेंड्रिक्स ने कहा, “हम एआई हथियारों की दौड़ कर रहे हैं जो संभावित रूप से हमें तबाही के कगार पर ला सकता है जैसा कि परमाणु हथियारों की दौड़ ने किया था।” “तो इसका मतलब है कि हमें इस मुद्दे की वैश्विक प्राथमिकता की आवश्यकता है।”
फॉक्स न्यूज एप प्राप्त करने के लिए यहां क्लिक करें
लेकिन दुनिया के सबसे शक्तिशाली एआई सिस्टम बनाने वाले संगठनों के पास विकास को धीमा करने या रोकने के लिए प्रोत्साहन नहीं है, हेंड्रिक्स ने चेतावनी दी है। सेंटर फॉर एआई सेफ्टी को उम्मीद है कि उसका बयान लोगों को सूचित करेगा कि एआई एक विश्वसनीय और महत्वपूर्ण जोखिम पैदा करता है।
“अब उम्मीद है कि हम बातचीत शुरू कर सकते हैं ताकि इसे उन अन्य वैश्विक प्राथमिकताओं की तरह संबोधित किया जा सके, जैसे अंतरराष्ट्रीय समझौते या विनियमन,” हेंड्रिक्स ने फॉक्स न्यूज को बताया। “हमें इन जोखिमों को कम करने के लिए इसे एक बड़ी प्राथमिकता, एक सामाजिक प्राथमिकता और एक तकनीकी प्राथमिकता के रूप में मानने की आवश्यकता है।”
हेंड्रिक्स के साथ पूरा साक्षात्कार देखने के लिए, यहाँ क्लिक करें.