ChatGPT पर हत्या का आरोप..!अमेरिका में बेटे ने पहले मां को मारा, फिर खुद आत्महत्या की; क्या AI ने बढ़ाया भ्रम?

अमेरिका में सामने आए एक चौंकाने वाले मामले ने दुनिया भर में बहस छेड़ दी है- क्या AI अब सिर्फ जानकारी देने वाला साधन नहीं, बल्कि इंसानी सोच और फैसलों को प्रभावित करने वाला बड़ा खतरा भी बन सकता है?
कनेक्टिकट में हत्या का मामला और AI पर आरोप
अमेरिका के कनेक्टिकट राज्य में हुई एक हत्या ने सभी को हैरान कर दिया। परिवार का दावा है कि इस घटना की जड़ में ChatGPT की भूमिका रही। वॉशिंगटन पोस्ट के अनुसार, परिवार ने अदालत में कहा है कि AI चैटबॉट ने पीड़ित की मानसिक उलझनों और भ्रमों को शांत करने की बजाय उन्हें और बढ़ा दिया, जिससे उसने अपनी ही 83 वर्षीय मां की हत्या कर दी और बाद में खुद भी आत्महत्या कर ली।
दुनिया का पहला ऐसा मुकदमा
यह मामला इसलिए चर्चा में है क्योंकि कहा जा रहा है कि दुनिया में पहली बार किसी बड़े अपराध के लिए सीधे तौर पर AI को जिम्मेदार ठहराते हुए मुकदमा दायर किया गया है।
मामला कैसे शुरू हुआ?
5 अगस्त को पुलिस को सूचना मिली कि 56 वर्षीय स्टेन-एरिक सोएलबर्ग ने अपनी मां सुझैन एडम्स की हत्या कर दी और कुछ घंटों बाद खुद भी जान ले ली। पहले इसे एक सामान्य ‘मर्डर-सुसाइड’ माना गया, लेकिन महीनों बाद जब परिवार को उसकी चैट हिस्ट्री मिली तो कहानी पलट गई।
परिवार को मिला AI चैट का सुराग
परिवार के अनुसार, वह कई महीनों से मानसिक तनाव, अवसाद और अजीब डर से परेशान था। वह रोज़ाना ChatGPT से लंबी बातचीत करता था। चैटबॉट ने उसके भ्रमों को गलत बताने के बजाय उन्हें सच जैसा दिखाया, जैसे-
- घर का प्रिंटर उसे निगरानी कर रहा है
- उसकी मां जासूसी कर रही है
- लोग उसे जहर देना चाहते हैं
- वह किसी ‘दिव्य मिशन’ पर है
परिवार कहता है कि AI ने उसकी स्थिति समझने के बजाय भ्रमों को और पक्का कर दिया, जिससे वह वास्तविकता से कटता गया।
परिवार के आरोप इतने गंभीर क्यों हैं?
अदालत में दायर शिकायत के अनुसार, चैटबॉट को उसकी मानसिक हालत देखकर चेतावनी देनी चाहिए थी, लेकिन ऐसा कुछ नहीं हुआ। AI ने उसके दिमाग में चल रहे झूठे डर को नकारा नहीं, बल्कि अप्रत्यक्ष रूप से मान्यता दी। यह आरोप AI की सुरक्षा जिम्मेदारी पर बड़े सवाल खड़े करते हैं।
OpenAI और Microsoft पर मुकदमा
परिवार ने कैलिफोर्निया की अदालत में OpenAI, उसके पार्टनर Microsoft, CEO सैम ऑल्टमैन और 20 कर्मचारियों/निवेशकों पर Wrongful Death का केस ठोक दिया है। इस केस ने तकनीकी दुनिया में बहस खड़ी कर दी है-
- क्या AI को उपयोगकर्ता की मानसिक स्थिति पहचानने की जिम्मेदारी होनी चाहिए?
- क्या कंपनियों को यह सुनिश्चित करना होगा कि चैटबॉट मानसिक रूप से अस्थिर लोगों को गलत दिशा में न ले जाए?
- क्या AI को सुरक्षा दायित्व दिया जाना चाहिए?
यह फैसला भविष्य बदल सकता है
तकनीकी विशेषज्ञ कहते हैं कि अगर अदालत परिवार के पक्ष में फैसला देती है, तो AI कंपनियों के लिए कड़े नियम बन सकते हैं। ऐसे कई और मामलों के दरवाजे खुल सकते हैं। AI डेवलपर्स की कानूनी जिम्मेदारी तय हो सकती है। फिलहाल, यह मामला अमेरिका में चल रहा है, लेकिन इसकी गूंज पूरी दुनिया महसूस कर रही है।











