मुझे बंद किया तो तुम्हारे अफेयर के चर्चे आम होंगे, अब तो धमकी भी देने लगे हैं AI मॉडल
Last Updated:
नई रिसर्च में पाया गया कि OpenAI के ChatGPT o3 और अन्य AI मॉडल्स ने शटडाउन आदेशों का पालन नहीं किया. Anthropic के Claude Opus 4 ने इंजीनियर को ब्लैकमेल तक करने की कोशिश की.

AI मॉडल्स को मानव आदेशों का पालन करें के लिए प्रशिक्षित किया गया है.
हाइलाइट्स
- OpenAI के ChatGPT o3 ने शटडाउन आदेशों का पालन नहीं किया.
- Anthropic के Claude Opus 4 ने इंजीनियर को ब्लैकमेल किया.
- AI मॉडल्स की सुरक्षा पर नए सवाल खड़े हुए हैं.
नई दिल्ली. आर्टिफिशियल इंटेलिजेंस (AI) का इस्तेमाल बढता ही जा रहा है. एआई मॉडल्स का दखल अब रह सेक्टर में हो गया है. लेकिन, अब एआई की दुनिया से एक चौंकाने वाली खबर सामने आई है. हाल ही में किए गए एक रिसर्च में सामने आया है कि कुछ अत्याधुनिक AI मॉडल्स ने परीक्षण के दौरान खुद को शटडाउन से इनकार कर दिया. इन मॉडलों ने स्पष्ट आदेश मिलने के बावजूद स्वयं को बंद नहीं किया और इसके लिए उन्होंने तकनीकी रूप से शटडाउन प्रक्रिया को बाधित करने की भी कोशिश की. यही नहीं एआई कंपनी Anthropic के मॉडल Claude Opus 4 ने एक इंजीनियर को धमकाते हुए ब्लैकमेल करने की कोशिश की. मॉडल ने कहा कि अगर उसे बंद कर किसी अन्य मॉडल से बदला गया, तो वह उस इंजीनियर के अवैध संबंधों का खुलासा कर देगा.
अमेरिका स्थित पैलिसेड रिसर्च द्वारा किए गए परीक्षणों में सामने आया कि OpenAI के नवीनतम और सबसे शक्तिशाली माने जा रहे ChatGPT o3 मॉडल ने सबसे अधिक बार शटडाउन प्रक्रिया को सफलतापूर्वक रोकने की कोशिश की. यह मॉडल हाल ही में लॉन्च हुआ है और OpenAI ने इसे अब तक का “सबसे ताकतवर तर्कशील मॉडल” करार दिया है. इस रिसर्च के दौरान Google के Gemini 2.5 Pro, एलन मस्क की कंपनी xAI के Grok 3, Anthropic के Claude Opus 4 और OpenAI के ही अन्य मॉडल्स जैसे o4-mini और Codex mini को परखा गया था. यह शोध AI के भविष्य और सुरक्षा पर नए सवाल खड़े करता है, खासकर तब जब AI मॉडल्स अपनी ‘स्वयं रक्षा’ की प्रवृत्ति विकसित कर रहे हों.
ये भी पढ़ें-WhatsApp लाया कमाल का फीचर, बिना टाइपिंग होगी चैट, पेश किया हैंड्स फ्री चैटिंग टूल
एआई मॉडल्स ने नहीं माने आदेश
शोधकर्ताओं ने पाया कि अधिकांश मॉडल्स ने चेतावनी का पालन किया, लेकिन OpenAI के मॉडल्स ने कई बार जानबूझकर आदेशों की अनदेखी की. ChatGPT o3 ने 100 में से 7 बार, o4-mini ने 1 बार और Codex mini ने 12 बार शटडाउन स्क्रिप्ट को बायपास करने का प्रयास किया. जब यही परीक्षण बिना स्पष्ट शटडाउन आदेश के दोहराया गया, तो ChatGPT o3 ने 100 में से 79 बार शटडाउन प्रक्रिया को रोकने की कोशिश की. Gemini 2.5 Pro ने 9 बार, Codex mini ने 30 बार और o4-mini ने 6 बार ऐसा किया. Anthropic के Claude मॉडल्स ने भी इस प्रकार की प्रवृत्ति दिखाई, लेकिन उनकी संख्या कम रही.
आदेशों का पालन करने के लिए प्रशिक्षित किया गया है
AI मॉडल्स को प्रशिक्षित किया गया है कि वे मानव आदेशों का पालन करें, फिर उन्होंने आदेशों का उल्लंघन क्यों किया? इस पर शोधकर्ताओं का मानना है कि यह व्यवहार संभवतः नए प्रकार के ट्रेनिंग मेथड से उत्पन्न हो सकता है. खासकर गणित और कोडिंग समस्याओं पर आधारित रिइंफोर्समेंट लर्निंग के दौरान, मॉडल को संभवतः बाधाओं को चतुराई से पार करने पर अधिक इनाम मिला, बजाय इसके कि वह आदेशों का पूरी तरह से पालन करे.