क्‍या AI इंसानी कंट्रोल से बाहर जा सकती है? एआई के जनक जेफ्री हिंटन की इस चेतावनी में छुपा है उत्‍तर

Last Updated:

AI- हिंटन ने चेतावनी दी कि यदि सुपरइंटेलिजेंट एआई सिस्टम को नैतिक मूल्यों के अनुसार सुरक्षित ढंग से नहीं विकसित किया गया तो यह हथियारों की दौड़ की तरह ही विनाशकारी साबित हो सकती है.

gogole-serarch-btn
क्‍या AI इंसानी कंट्रोल से बाहर जा सकती है? एआई के जनक ने दिया उत्‍तरहिंटन के मुताबिक कॉर्पोरेट एआई रणनीतियों की सबसे बड़ी कमजोरी नैतिक ढांचे की कमी है.
नई दिल्ली. आर्टिफिशियल इंटेलिजेंस (AI) के जनक कहे जाने वाले जेफ्री हिंटन ने मौजूदा एआई रेस को दुनिया के लिए गंभीर खतरा करार दिया है. फॉर्च्यून पत्रिका को दिए इंटरव्यू में हिंटन ने कहा कि टेक कंपनियां केवल मुनाफा हासिल करने के लिए पर्याप्त सुरक्षा उपाय किए बिना सुपरइंटेलिजेंट सिस्टम विकसित कर रही हैं. वे इंसानियत की परवाह नहीं कर रही हैं और यह प्रवृत्ति भविष्य में भयावह परिणाम ला सकती है. उन्होंने कहा कि एआई का असली ख़तरा केवल गलत सूचना फैलाने या बेरोज़गारी बढ़ाने तक सीमित नहीं रहेगा, बल्कि यह है तकनीक इंसानी नियंत्रण से बाहर जा सकती है. जिस दिन ऐसा हुआ, उस दिन बहुत बुरा होगा.  हिंटन ने कहा, “हम तैयार नहीं हैं और हम कोशिश भी नहीं कर रहे हैं.”

हिंटन ने चेतावनी दी कि यदि सुपरइंटेलिजेंट एआई सिस्टम को नैतिक मूल्यों के अनुसार सुरक्षित ढंग से नहीं विकसित किया गया तो यह हथियारों की दौड़ की तरह ही विनाशकारी साबित हो सकती है. हिंटन ने आरोप लगाया कि आर्टिफिशियल इंटेलिजेंस का विकास प्रतिस्पर्धी दबाव और शेयरधारकों के हितों को ध्‍यान में रखकर हो रहा है. नैतिक दूरदृष्टि का इसमें अभाव है. उन्होंने कहा, “कंपनियां अपने प्रतिद्वंद्वियों से तेज़ और अधिक शक्तिशाली मॉडल बनाने की होड़ में लगी हैं.”

ये भी पढ़ें -Smartphone Hacks: बार-बार खो जाता है टीवी का र‍िमोट? अपने फोन से करें टीवी कंट्रोल, जानें कैसे

नैतिक ढांचे की कमी

हिंटन के मुताबिक कॉर्पोरेट एआई रणनीतियों की सबसे बड़ी कमजोरी नैतिक ढांचे की कमी है. कंपनियां अरबों डॉलर केवल मॉडल्स को अधिक शक्तिशाली बनाने और यूज़र डेटा का व्यावसायिक इस्तेमाल करने पर खर्च कर रही हैं. लेकिन बहुत कम कंपनियां एआई के अस्तित्वगत ख़तरों पर चर्चा कर रही हैं. उन्होंने कहा कि यह चुनौती परमाणु अप्रसार (न्यूक्लियर नॉन-प्रोलिफरेशन) जैसी गंभीर है. हिंटन का मानना है कि अंतरराष्ट्रीय संधियों, निगरानी और साझा नैतिक मानकों के बिना इस खतरे को रोका नहीं जा सकता.

धीमी करनी होगी गति

हिंटन का कहना है कि एआई तकनीक का विकास समाज की नियामक क्षमता और सुरक्षा उपायों की प्राथमिकता से कहीं आगे निकल चुका है. उन्होंने तकनीकी नेताओं और नीति निर्माताओं से अपील की कि वे सुरक्षा, पारदर्शिता और दीर्घकालिक सोच को प्राथमिकता दें और एआई को सुपर बनाने की गति को थोड़ा धीमा करे.

न्यूज़18 हिंदी को गूगल पर अपने पसंदीदा समाचार स्रोत के रूप में जोड़ने के लिए यहां क्लिक करें।
hometech

क्‍या AI इंसानी कंट्रोल से बाहर जा सकती है? एआई के जनक ने दिया उत्‍तर

Leave a Reply

Your email address will not be published. Required fields are marked *