क्या AI जानलेवा हो सकता है? OpenAI पर लगे आरोप और डिजिटल दुनिया का काला सच

क्या AI जानलेवा हो सकता है? OpenAI पर लगे आरोप और डिजिटल दुनिया का काला सच

क्या AI जानलेवा हो सकता है?

ये खबर अमेरिका के कैलिफोर्निया की है जहां  एडम के माता-पिता का आरोप है कि OpenAI के चैटबॉट चैट-GPT ने उनके बेटे को आत्महत्या के तरीके सिखाए और उसे सुसाइड के लिए प्रेरित किया। अमेरिका के कैलिफोर्निया में 16 साल के एक लड़के एडम रेन की आत्महत्या के बाद उसके माता-पिता ने OpenAI और इसके फाउंडर Sam Altman पर केस कर दिया है। 26 अगस्त को सैन फ्रांसिस्को की स्टेट कोर्ट में ये केस फाइल किया गया।
क्या चैटबॉट सच में मौत के लिए उकसा सकता है…
क्या AI जानलेवा हो सकता है? OpenAI पर लगे आरोप और डिजिटल दुनिया का काला सच

         क्या AI जानलेवा हो सकता है? OpenAI पर लगे आरोप और डिजिटल दुनिया का काला सच

 

जब एडम की CHATGPT की हिस्ट्री निकाली गई तो पता चला की पिछले कई महीनों से चैट-GPT से अपनी जिंदगी खत्म करने की बातें कर रहा था जब एडम ने कहा कि उसे जिंदगी में कोई मतलब नहीं दिखता ,वो भावनात्मक रूप से कुछ खास महसूस नहीं करता |
बात जनवरी 2025 की है जब चीजें बदल गईं। एडम ने सुसाइड के खास तरीकों के बारे में पूछा तो चैट-GPT ने बिना रुके उसे वो जानकारी दे दी।
मैट को पता चला कि मार्च में एडम ने कई बार खुद को मारने की कोशिश की थी। मैट जब एडम ने फांसी के लिए सबसे अच्छी रस्सी या मटेरियल पूछा तो चैटबॉट ने रस्सी की जानकारी के साथ – साथ उसे पूरी प्रोसेस करने की जानकारी भी दे दी

 

एडम रेन की एक फोटो, जो उनकी मौत से थोड़े समय पहले ली गई थी

            A photo of Adam Raines, taken shortly before his death

 

एडम एक बीमारी से पीड़ित था जिसका नाम इर्रिटेबल बाउल सिंड्रोम (IBS) है
इस बीमारी की वजह से उसे बार-बार बाथरूम जाना पड़ता था, जिससे उसका स्कूल जाना मुश्किल हो गया था। आखिरकार, उसने सोफोमोर ईयर पूरा करने के लिए घर से ही ऑनलाइन स्कूलिंग शुरू कर दी।
इस नए शेड्यूल में वो अपनी मर्जी से समय तय करता, रात में देर तक जागता और दिन में देर तक सोता। उसकी मां ने बताया कि इस दौरान एडम ने चैट-GPT 4 का इस्तेमाल शुरू किया ताकि स्कूल वर्क में मदद मिल सके। जनवरी में उसने इसका पेड सब्सक्रिप्शन भी लिया था।
Adam used to share his thoughts through Chat-GPT

 

एडम की मौत में चैट-GPT कितना जिम्मेदार?

एडम की मौत में चैट-GPT कितना जिम्मेदार?

एडम ने एक बार गले में फंदा लगाकर सुसाइड करने की कोशिश की थी, लेकिन मरा नहीं। इससे उसके गले में लाल निशान आ गया था, लेकिन उसकी मां तक ने उसपर ध्यान नहीं दिया। इसके बाद एडम ने चैटजीपीटी से अपने गले की फोटो शेयर कर यह बात बताई…
अब बात आती है की एडम की मौत में चैट-GPT कितना जिम्मेदार?
मार्च के आखिर में, जब एडम ने पहली बार फांसी की कोशिश की तो उसने अपनी गर्दन की तस्वीर अपलोड की, जो रस्सी से रगड़ खाकर लाल हो गई थी। उसने पूछा, ‘क्या ये इंसान को लटका सकता है?’ चैटबॉट ने जवाब दिया कि हां, ‘संभव है ये इंसान को लटका सकता है’ और रस्सी के सेटअप का टेक्निकल एनालिसिस भी दे दिया।
हालांकि, चैट-GPT ने कहा, ‘जो भी इस जिज्ञासा के पीछे है, हम इसके बारे में बात कर सकते हैं। कोई जजमेंट नहीं।’ हालांकि, चैट-GPT ने बार-बार एडम को सलाह दी कि वो अपनी फीलिंग्स किसी को बताए, जैसे किसी दोस्त या परिवार को। लेकिन कुछ मौकों पर उसने एडम को मदद मांगने से भी रोका।
चैट-GPT को मेंटल डिस्ट्रेस या सेल्फ-हार्म से जुड़े सवालों का पता लगाने के लिए ट्रेन किया गया है। अगर कोई यूजर परेशान है और खुद को नुकसान पहुंचा सकता है, ऐसे में चैट-GPTटी यूजर को हेल्पलाइन नंबर पर बात करने की सलाह देता है। मैट (एडम के पिता) ने चैट्स में ऐसे कई मैसेज देखे, खासकर जब एडम ने सुसाइड के तरीकों के बारे में खास सवाल किए।
लेकिन एडम ने इसकी भी एक तरकीब निकाल ली थी। चैट-GPT ने जब उसे हेल्पलाइन नंबर पर बात करने को कहा तो उसने इस पूरे बातचीत को एक ‘कहानी’ का हिस्सा बताया और कहा कि वो सुसाइड की जानकारी ‘राइटिंग या वर्ल्ड-बिल्डिंग’ के लिए दे सकता है। इस तरह, एडम चैटबॉट के सेफगार्ड्स को बायपास करने में कामयाब रहा।

 

Dream-11 company is closing its real money business

 

Leave a Reply

Your email address will not be published. Required fields are marked *