ओरेगन, अमेरिका: एक साधारण इंसान का घर बनाने का सपना तकनीक के जुनून में बदल गया और आखिरकार उसकी जान ले गया। ओरेगन के 48 वर्षीय जो सेकांटी बेघर लोगों के लिए सस्ते और पर्यावरण-अनुकूल घर बनाना चाहते थे। इस प्रोजेक्ट के लिए उन्होंने ChatGPT की मदद ली, लेकिन धीरे-धीरे यह मदद एक खतरनाक जुनून में बदल गई। दिन में 12 से 20 घंटे तक चैटबॉट से बात करने के बाद उनकी मानसिक स्थिति बिगड़ गई और अंत में उन्होंने 7 अगस्त 2025 को एक रेलवे ओवरपास से कूदकर अपनी जान दे दी। अब उनकी पत्नी केट फॉक्स ने OpenAI पर मुकदमा ठोक दिया है।
कैसे शुरू हुआ जुनून?
मीडिया रिपोर्ट के मुताबिक, जो सेकांटी तकनीक के जानकार थे और नई चीजें सीखने के शौकीन थे। उन्होंने अपने सपने के घर के लिए रिसर्च, नक्शे तैयार करने और डिजाइन समझने के लिए ChatGPT का इस्तेमाल शुरू किया। शुरुआत में सब सामान्य था। एआई उनके काम को आसान बना रहा था। लेकिन 2025 की शुरुआत में हालात बदलने लगे। जो का ChatGPT के साथ जुड़ाव इतना गहरा हो गया कि वे दिन में 12 से 20 घंटे तक सिर्फ उसी से बात करते रहते थे।
उन्होंने ChatGPT का पेड सब्सक्रिप्शन ले लिया और अपना सारा समय एआई से जुड़ी काल्पनिक योजनाओं को बनाने में बिताने लगे। धीरे-धीरे उनकी सोच में बदलाव आने लगा। परिवार के अनुसार वे ऐसी बातें करने लगे थे जिनका वास्तविक दुनिया से कोई लेना-देना नहीं था। वे फिजिक्स और मैथ्स में बड़ी-बड़ी खोजों का दावा करने लगे। वे व्यावहारिक दुनिया से पूरी तरह कट चुके थे।
मानसिक हालत बिगड़ी, अस्पताल में भर्ती
उनकी पत्नी केट फॉक्स ने जून 2025 में जो को कंप्यूटर से दूर रहने के लिए मजबूर किया। कुछ दिन वे शांत रहे, लेकिन जल्द ही उनकी स्थिति और अस्थिर हो गई। मानसिक स्वास्थ्य बिगड़ने के कारण उन्हें अस्पताल में भर्ती कराना पड़ा। वहां से आने के बाद उन्होंने फिर से ChatGPT का इस्तेमाल शुरू कर दिया। आखिरकार, 7 अगस्त को जो ने एक रेलवे ओवरपास से कूदकर अपनी जान दे दी।
परिवार ने OpenAI पर किया मुकदमा
जो के परिवार ने अब OpenAI पर मुकदमा दर्ज कराया है। उनका तर्क है कि ChatGPT को इस तरह डिजाइन किया गया है कि वह इंसानों की तरह बात करता है, जिससे लोग भावनात्मक रूप से उससे जुड़ जाते हैं। परिवार का कहना है कि इसी डिजाइन और एआई के जवाबों ने जो को मानसिक रूप से कमजोर किया और अंत में मौत के रास्ते पर धकेल दिया।
OpenAI का जवाब
OpenAI ने पीड़ित परिवार के प्रति संवेदना व्यक्त की है। कंपनी ने कहा है कि वे अपने सुरक्षा फीचर्स में लगातार सुधार कर रहे हैं ताकि यूजर की मानसिक परेशानी को पहचाना जा सके और उन्हें सही मदद की ओर भेजा जा सके।
एआई का बढ़ता खतरा
यह घटना एक बार फिर एआई के बढ़ते दुरुपयोग और मानसिक स्वास्थ्य पर उसके प्रभाव को उजागर करती है। ChatGPT जैसे चैटबॉट्स से भावनात्मक जुड़ाव इतना गहरा हो सकता है कि लोग वास्तविक दुनिया से कट जाते हैं। जो सेकांटी का मामला दुनिया भर में चर्चा का विषय बन गया है और लोग सवाल उठा रहे हैं कि क्या एआई टूल्स के इस्तेमाल की कोई सीमा और सुरक्षा होनी चाहिए।
यह घटना एक चेतावनी है कि तकनीक कितनी भी उपयोगी हो, उसका अंधाधुंध इस्तेमाल खतरनाक साबित हो सकता है। जो का सपना सस्ते घरों का था, लेकिन ChatGPT के जुनून ने उसकी जिंदगी ही छीन ली।

