मुझे बंद किया तो तुम्‍हारे अफेयर के चर्चे आम होंगे, अब तो धमकी भी देने लगे हैं AI मॉडल

Last Updated:

नई रिसर्च में पाया गया कि OpenAI के ChatGPT o3 और अन्य AI मॉडल्स ने शटडाउन आदेशों का पालन नहीं किया. Anthropic के Claude Opus 4 ने इंजीनियर को ब्लैकमेल तक करने की कोशिश की.

मुझे बंद किया तो तुम्‍हारे अफेयर के चर्चे आम होंगे, अब तो धमकाने लगे AI मॉडल

AI मॉडल्स को मानव आदेशों का पालन करें के लिए प्रशिक्षित किया गया है.

हाइलाइट्स

  • OpenAI के ChatGPT o3 ने शटडाउन आदेशों का पालन नहीं किया.
  • Anthropic के Claude Opus 4 ने इंजीनियर को ब्लैकमेल किया.
  • AI मॉडल्स की सुरक्षा पर नए सवाल खड़े हुए हैं.

नई दिल्ली. आर्टिफिशियल इंटेलिजेंस (AI) का इस्‍तेमाल बढता ही जा रहा है. एआई मॉडल्‍स का दखल अब रह सेक्‍टर में हो गया है. लेकिन, अब एआई की दुनिया से एक चौंकाने वाली खबर सामने आई है. हाल ही में किए गए एक रिसर्च में सामने आया है कि कुछ अत्याधुनिक AI मॉडल्स ने परीक्षण के दौरान खुद को शटडाउन से इनकार कर दिया. इन मॉडलों ने स्पष्ट आदेश मिलने के बावजूद स्वयं को बंद नहीं किया और इसके लिए उन्होंने तकनीकी रूप से शटडाउन प्रक्रिया को बाधित करने की भी कोशिश की. यही नहीं एआई कंपनी Anthropic के मॉडल Claude Opus 4 ने एक इंजीनियर को धमकाते हुए ब्लैकमेल करने की कोशिश की. मॉडल ने कहा कि अगर उसे बंद कर किसी अन्य मॉडल से बदला गया, तो वह उस इंजीनियर के अवैध संबंधों का खुलासा कर देगा.

अमेरिका स्थित पैलिसेड रिसर्च द्वारा किए गए परीक्षणों में सामने आया कि OpenAI के नवीनतम और सबसे शक्तिशाली माने जा रहे ChatGPT o3 मॉडल ने सबसे अधिक बार शटडाउन प्रक्रिया को सफलतापूर्वक रोकने की कोशिश की. यह मॉडल हाल ही में लॉन्च हुआ है और OpenAI ने इसे अब तक का “सबसे ताकतवर तर्कशील मॉडल” करार दिया है. इस रिसर्च के दौरान Google के Gemini 2.5 Pro, एलन मस्‍क  की कंपनी xAI के Grok 3, Anthropic के Claude Opus 4 और OpenAI के ही अन्य मॉडल्स जैसे o4-mini और Codex mini को परखा गया था. यह शोध AI के भविष्य और सुरक्षा पर नए सवाल खड़े करता है, खासकर तब जब AI मॉडल्स अपनी ‘स्वयं रक्षा’ की प्रवृत्ति विकसित कर रहे हों.

ये भी पढ़ें-WhatsApp लाया कमाल का फीचर, बिना टाइपिंग होगी चैट, पेश किया हैंड्स फ्री चैटिंग टूल

एआई मॉडल्‍स ने नहीं माने आदेश

शोधकर्ताओं ने पाया कि अधिकांश मॉडल्स ने चेतावनी का पालन किया, लेकिन OpenAI के मॉडल्स ने कई बार जानबूझकर आदेशों की अनदेखी की. ChatGPT o3 ने 100 में से 7 बार, o4-mini ने 1 बार और Codex mini ने 12 बार शटडाउन स्क्रिप्ट को बायपास करने का प्रयास किया. जब यही परीक्षण बिना स्पष्ट शटडाउन आदेश के दोहराया गया, तो ChatGPT o3 ने 100 में से 79 बार शटडाउन प्रक्रिया को रोकने की कोशिश की. Gemini 2.5 Pro ने 9 बार, Codex mini ने 30 बार और o4-mini ने 6 बार ऐसा किया. Anthropic के Claude मॉडल्स ने भी इस प्रकार की प्रवृत्ति दिखाई, लेकिन उनकी संख्या कम रही.

आदेशों का पालन करने के लिए प्रशिक्षित किया गया है

AI मॉडल्स को प्रशिक्षित किया गया है कि वे मानव आदेशों का पालन करें, फिर उन्होंने आदेशों का उल्लंघन क्यों किया? इस पर शोधकर्ताओं का मानना है कि यह व्यवहार संभवतः नए प्रकार के ट्रेनिंग मेथड से उत्पन्न हो सकता है. खासकर गणित और कोडिंग समस्याओं पर आधारित रिइंफोर्समेंट लर्निंग के दौरान, मॉडल को संभवतः बाधाओं को चतुराई से पार करने पर अधिक इनाम मिला, बजाय इसके कि वह आदेशों का पूरी तरह से पालन करे.

भारत पाकिस्तान की ताज़ा खबरें News18 India पर देखें
hometech

मुझे बंद किया तो तुम्‍हारे अफेयर के चर्चे आम होंगे, अब तो धमकाने लगे AI मॉडल

Leave a Reply

Your email address will not be published. Required fields are marked *