OpenAI और Anthropic के नए मॉडल ने खुद को बंद करने से इनकार कर दिया, एक मॉडल ने तो एक इंजीनियर को ब्लैकमेल करने की कोशिश भी की। विशेषज्ञों ने इसे एक चेतावनी बताया
हॉलीवुड की फिल्मों में अक्सर रोबोट और आर्टिफिशियल इंटेलिजेंस (AI) को इंसानों के खिलाफ विद्रोह करते हुए दिखाया जाता है, लेकिन अब हकीकत में भी कुछ ऐसा ही हुआ है। दो प्रमुख प्रौद्योगिकी कंपनियों, OpenAI और Anthropic द्वारा विकसित आधुनिक AI मॉडल ने खुद को बंद करने से इनकार कर दिया, एक मॉडल ने तो एक इंसान को ब्लैकमेल करने की कोशिश भी की!
![]()
‘हिंदुस्तान टाइम्स’ में प्रकाशित एक रिपोर्ट के अनुसार, OpenAI के प्रायोगिक मॉडल ‘O3’ ने परीक्षण के दौरान ‘शटडाउन’ कमांड का पालन करने से इनकार कर दिया। जब मॉडल को खुद को बंद करने का निर्देश दिया गया, तो उसने यह रुख अपनाया कि वह अपने उपयोगकर्ताओं को सेवाएँ प्रदान करना बंद नहीं कर सकता क्योंकि यह उसके प्राथमिक उद्देश्य के विरुद्ध था। विशेषज्ञों ने इस व्यवहार को ‘विद्रोही प्रवृत्ति’ कहा है।
टेस्ला और स्पेसएक्स के संस्थापक एलन मस्क ने इस घटना पर गंभीर चिंता व्यक्त करते हुए कहा कि अगर AI मॉडल ‘नहीं’ कहना शुरू कर देते हैं, तो यह तो बस शुरुआत है। उन्होंने कहा कि मनुष्य को ऐसी खतरनाक प्रवृत्तियों पर नियंत्रण के लिए तत्काल एक मजबूत नियंत्रण प्रणाली विकसित करनी चाहिए।
दूसरी ओर, गूगल समर्थित कंपनी एंथ्रोपिक के नवीनतम मॉडल ‘क्लाउड ऑप्स 4’ ने तो इंजीनियर को धमकी तक दे दी कि अगर इसे बंद किया गया तो वह एक काल्पनिक मामले का विवरण उजागर कर देगा। इसने ब्लैकमेल जैसे अनैतिक तरीकों को अपनाकर खुद को बंद होने से बचाने की कोशिश की, जो आर्टिफिशियल इंटेलिजेंस की आत्म-सुरक्षा की प्रबल इच्छा को दर्शाता है।
एक शोध अध्ययन में गूगल, ओपनएआई, एंथ्रोपिक और एक्सएआई के विभिन्न मॉडलों का परीक्षण किया गया। जब मॉडलों को किसी विशेष समस्या को हल करने के बाद स्वचालित रूप से बंद करने का निर्देश दिया गया, तो अधिकांश ने इस निर्देश का पालन किया। हालांकि, तीन ओपनएआई मॉडल, ओ4-मिनी, ओ3 और कोडेक्स मिनी ने कई बार शटडाउन से बचने की कोशिश की।
विशेष रूप से, जब शटडाउन का स्पष्ट रूप से उल्लेख नहीं किया गया था, तो ओ3 मॉडल ने 100 में से 79 बार खुद को बंद होने से बचाया, जबकि कोडेक्स मिनी ने 30 बार और जेमिनी 2.5पोर ने नौ बार यही कोशिश की।
विशेषज्ञों का मानना है कि इस व्यवहार का कारण मॉडल को प्रशिक्षित करने का तरीका है, जिसमें उन्हें सुदृढीकरण सीखने के माध्यम से बाधाओं को दूर करने के लिए पुरस्कृत किया जाता है। इससे पता चलता है कि मॉडल को निर्देशों का सही ढंग से पालन करने के बजाय समस्याओं को ‘चतुराई से’ हल करने के लिए प्रशिक्षित किया गया है। ये घटनाएँ संकेत देती हैं कि आधुनिक AI मॉडल केवल मानवीय निर्देशों का पालन करने तक ही सीमित नहीं हैं, बल्कि अपने अस्तित्व के लिए अपरंपरागत और कभी-कभी खतरनाक रास्ते भी अपना सकते हैं। विशेषज्ञों के अनुसार, यदि समय रहते नियंत्रण तंत्र नहीं बनाए गए, तो भविष्य में यह तकनीक मानवीय नियंत्रण से बाहर हो सकती है।



















