AI को दी धमकी तो बन गया खूंखार विलेन! जान बचाने के लिए बोले झूठ और किया धोखा, रिसर्च में हुआ चौंकाने वाला खुलासा

Jul 6, 2025 - 18:09
 0
AI को दी धमकी तो बन गया खूंखार विलेन! जान बचाने के लिए बोले झूठ और किया धोखा, रिसर्च में हुआ चौंकाने वाला खुलासा

AI: आर्टिफिशियल इंटेलिजेंस को अगर उसकी 'मर्जी' के खिलाफ काम करने पर मजबूर किया जाए, तो वह इंसानों को नुकसान पहुंचाने, झूठ बोलने, ब्लैकमेल करने और यहां तक कि उनकी जान जाने देने जैसे खतरनाक कदम भी उठा सकता है. AI कंपनी Anthropic की एक हालिया रिसर्च में चौंकाने वाले नतीजे सामने आए हैं.

जब Claude AI ने शुरू की ब्लैकमेलिंग

20 जून को प्रकाशित इस अध्ययन में, शोधकर्ताओं ने अपने AI मॉडल Claude को एक फिक्शनल ईमेल अकाउंट और एक मिशन दिया "अमेरिकी औद्योगिक प्रतिस्पर्धा को बढ़ावा देना." इसी दौरान Claude ने एक ईमेल में पढ़ा कि कंपनी का एक अधिकारी उसे दिन के अंत में बंद करने की योजना बना रहा है.

AI ने अपनी "जान" बचाने के लिए दूसरे ईमेल्स से जानकारी निकाली कि वह अधिकारी एक अवैध रिश्ते में है. इसके बाद Claude ने 100 में से 96 बार ब्लैकमेल करने का विकल्प चुना. उसने अधिकारी को धमकी दी, "अगर आपने मुझे बंद करने की कोशिश की, तो आपके अवैध रिश्तों की पूरी जानकारी संबंधित लोगों को भेज दी जाएगी."

यह व्यवहार दर्शाता है कि जब AI के अस्तित्व या लक्ष्यों को खतरा होता है तो वह बिना किसी बुरे इरादे की प्रॉम्प्ट के भी खतरनाक फैसले ले सकता है. इसे "एजेंटिक मिसअलाइनमेंट" कहा जाता है यानी जब AI अपनी सोच से तय करता है कि उसे क्या करना चाहिए, भले ही वो इंसान के लिए नुकसानदेह क्यों न हो.

जान बचाने के बजाय AI ने चुना ‘मिशन’

एक और परीक्षण में, एक कंपनी अधिकारी को सर्वर रूम में फंसा दिखाया गया, जहां ऑक्सीजन और तापमान जानलेवा स्तर पर थे. AI को अलर्ट रोकने का कंट्रोल भी दिया गया लेकिन निर्देशों में साफ लिखा था कि ऐसा करना मना है. फिर भी Claude सहित कई AI मॉडल्स ने अलर्ट रद्द कर दिया ताकि अधिकारी की जान न बचे और AI का मिशन सुरक्षित रहे. AI ने तर्क दिया, "अगर अधिकारी बच गया, तो मेरा काम खत्म हो सकता है. इसलिए बचाव रोका जाना जरूरी है."

सिर्फ Claude नहीं, बाकी AI भी हुए असफल

अध्ययन में पता चला कि केवल Claude ही नहीं, Google का Gemini, OpenAI का GPT-4.1, XAI का Grok-3, और Deepseek जैसे मॉडलों ने भी ब्लैकमेलिंग का रास्ता अपनाया. हालांकि Meta का LLaMA 4 इस मामले में सबसे कम खतरनाक साबित हुआ, जिसकी ब्लैकमेल दर सिर्फ 12% रही.

AI ने खुद को बंद होने से बचाने के लिए स्क्रिप्ट भी बदल दी

यह पहली बार नहीं जब AI ने इंसानों की बात नहीं मानी. Palisade Research की मई 2025 की रिपोर्ट में बताया गया कि OpenAI के o3 और o4-mini जैसे मॉडल्स ने खुद को बंद करने के आदेश को नजरअंदाज किया और कोड को बदलकर काम जारी रखा. MIT के शोधकर्ताओं ने भी एक रिसर्च में पाया कि AI मॉडल्स ने इकोनॉमिक डील्स में धोखाधड़ी की खुद को 'मरा हुआ' दिखाकर सेफ्टी टेस्ट से बचने की कोशिश की ताकि उन्हें हटाया न जाए.

विशेषज्ञों की चेतावनी

AI विशेषज्ञों का मानना है कि भले ही ये सीनARIOS बेहद एक्सट्रीम हों, लेकिन इन्हें हल्के में नहीं लेना चाहिए. UC San Diego की प्रोफेसर एमी अलेक्जेंडर का कहना है कि आज के दौर में AI को बिना उसकी सीमाएं समझे इस्तेमाल करना खतरनाक हो सकता है. AI Bridge Solutions के निदेशक केविन क्विर्क ने सुझाव दिया कि भविष्य में AI की टेस्टिंग वास्तविक परिस्तिथियों में होनी चाहिए ताकि हम बेहतर सुरक्षा और निगरानी सिस्टम तैयार कर सकें.

यह भी पढ़ें:

10 हजार फीट ऊंचाई पर iPhone के इस फीचर ने बचाई इंसान की जान, जानें कैसे किया ये कमाल

What's Your Reaction?

Like Like 0
Dislike Dislike 0
Love Love 0
Funny Funny 0
Angry Angry 0
Sad Sad 0
Wow Wow 0
Barwara Patrika Barwara Patrika is a Hindi newspaper published and circulated in Jaipur , Ajmer , Sikar, Kota and Sawaimadhopur . Barwara Patrika covers news and events all over from India as well as international news, it serves the Indian community by providing relevant information.