क्या AI इंसानी कंट्रोल से बाहर जा सकती है? एआई के जनक जेफ्री हिंटन की इस चेतावनी में छुपा है उत्तर
Last Updated:
AI- हिंटन ने चेतावनी दी कि यदि सुपरइंटेलिजेंट एआई सिस्टम को नैतिक मूल्यों के अनुसार सुरक्षित ढंग से नहीं विकसित किया गया तो यह हथियारों की दौड़ की तरह ही विनाशकारी साबित हो सकती है.

हिंटन ने चेतावनी दी कि यदि सुपरइंटेलिजेंट एआई सिस्टम को नैतिक मूल्यों के अनुसार सुरक्षित ढंग से नहीं विकसित किया गया तो यह हथियारों की दौड़ की तरह ही विनाशकारी साबित हो सकती है. हिंटन ने आरोप लगाया कि आर्टिफिशियल इंटेलिजेंस का विकास प्रतिस्पर्धी दबाव और शेयरधारकों के हितों को ध्यान में रखकर हो रहा है. नैतिक दूरदृष्टि का इसमें अभाव है. उन्होंने कहा, “कंपनियां अपने प्रतिद्वंद्वियों से तेज़ और अधिक शक्तिशाली मॉडल बनाने की होड़ में लगी हैं.”
नैतिक ढांचे की कमी
हिंटन के मुताबिक कॉर्पोरेट एआई रणनीतियों की सबसे बड़ी कमजोरी नैतिक ढांचे की कमी है. कंपनियां अरबों डॉलर केवल मॉडल्स को अधिक शक्तिशाली बनाने और यूज़र डेटा का व्यावसायिक इस्तेमाल करने पर खर्च कर रही हैं. लेकिन बहुत कम कंपनियां एआई के अस्तित्वगत ख़तरों पर चर्चा कर रही हैं. उन्होंने कहा कि यह चुनौती परमाणु अप्रसार (न्यूक्लियर नॉन-प्रोलिफरेशन) जैसी गंभीर है. हिंटन का मानना है कि अंतरराष्ट्रीय संधियों, निगरानी और साझा नैतिक मानकों के बिना इस खतरे को रोका नहीं जा सकता.
धीमी करनी होगी गति
हिंटन का कहना है कि एआई तकनीक का विकास समाज की नियामक क्षमता और सुरक्षा उपायों की प्राथमिकता से कहीं आगे निकल चुका है. उन्होंने तकनीकी नेताओं और नीति निर्माताओं से अपील की कि वे सुरक्षा, पारदर्शिता और दीर्घकालिक सोच को प्राथमिकता दें और एआई को सुपर बनाने की गति को थोड़ा धीमा करे.