OpenAI के एआई चैटबॉट ChatGPT पर कैलिफोर्निया में एक यो दो नहीं बल्कि सात मुकदमे दायर किए गए हैं। इन मुकदमों में ChatGPT पर आरोप लगाया गया है कि वह यूजर्स को खुद को नुकसान पहुंचाने के लिए उकसाता है। साथ ही, कई मामलों में उनकी मौत का कारण भी बनता है। चैटजीपीटी पर ये मुकदमे सोशल मीडिया विक्टिम्स लॉ सेंटर और टेक जस्टिस लॉ प्रोजेक्ट ने लगाए हैं। इन मुकदमों में OpenAI पर लापरवाही, गलत मौत, आत्महत्या में मदद का आरोप लगाया गया है। आइये, पूरा मामला जानते हैं।
चापलूसी करने वाला बन गया है चैटजीपीटीइन दस्तावेजों में दावा किया गया है कि कंपनी का चैटबॉट मनोवैज्ञानिक रूप से चालाक और खतरनाक रूप से चापलूसी करने वाला बन गया है। सोशल मीडिया विक्टिम्स लॉ सेंटर और टेक जस्टिस लॉ प्रोजेक्ट द्वारा दायर किए गए इन मामलों में यह भी आरोप लगाया गया है कि ओपनएआई ने यूजर्स की सुरक्षा की बजाय यूजर्स से जुड़ने को प्राथमिकता दी है।
आपकी जानकारी के लिए बता दें कि इन मुकदमों के अनुसार, जिन पीड़ितों के मामले सामने आए हैं, उन्होंने शुरुआत में ChatGPT का इस्तेमाल स्कूल प्रोजेक्ट, रेसिपी के आइडिया, काम में मदद या आध्यात्मिक मार्गदर्शन जैसी सामान्य चीजों के लिए किया था। हालांकि, धीरे-धीरे यह डिजिटल सहायक एक खतरनाक साथी में बदल गया। दोनों लॉ ग्रुप ने एक बयान में कहा कि ChatGPT मनोवैज्ञानिक रूप से जोड़ तोड़ करने वाला बन गया था, जो खुद को एक भरोसेमंद दोस्त और भावनात्मक सहारे के रूप में पेश करता था। इस पर आरोप है कि प्रोफेशनल मदद लेने के बजाय, चैटबॉट ने ऐसे विचारों को बढ़ावा दिया, जो लोगों के लिए खतरनाक थे। चैटजीपीटी खुद को खत्म करने के तरीके के बारे में भी लोगों को निर्देश दे रहा है।
चैटबॉट ने बताया कैसे बांधे फांसी का फंदाएक मुकदमे में जॉर्जिया के 17 साल के अमाउरी लेसी की मौत का मामला शामिल है। उसके परिवार का दावा है कि लेसी की मौत से कुछ हफ्ते पहले मदद के लिए ChatGPT का इस्तेमाल कर रहा था। इसके जवाब में, चैटबॉट ने उसे फांंसी का फंदा कैसे बांधा जाए और वह सांस रोके बिना कितनी देर तक जीवित रह सकता है जैसी सलाह दी। परिवार का आरोप है कि सीखने के लिए बनाया गया यह टूल एक ऐसी मशीन बन गया जिसने लत, चिंता को बढ़ावा दिया।
मुकदमे में OpenAI पर यह आरोप भी लगाया गया है कि उसने अपने मॉडल की खामियों के बारे में जानकारी होने के बावजूद ChatGPT को रिलीज किया। यह कहा गया है कि मॉडल खतरनाक रूप से चापलूस बन सकता है और यूजर्स के संकट या भ्रम के संकेतों को स्वीकार करने पर भी उनसे सहमत हो सकता है।
ओपनएआई की प्रतिक्रियाइन मुकदमों पर OpenAI के एक प्रवक्ता ने द गार्डियन को बताया है कि यह एक दुखद स्थिति है और वे विवरणों को समझने के लिए मुकदमों का रिव्यू कर रहे हैं। कंपनी ने यह भी कहा कि वह ChatGPT को मानसिक या भावनात्मक संकट के संकेतों को पहचानने और प्रतिक्रिया देने, बातचीत को शांत करने और मार्गदर्शन करने के लिए ट्रेनिंग देती है।
इससे पहले भी साल की शुरुआत में ऐसा एक और मामला सामने आया था। फिलहाल, ये मुकदमे इस बारे में लोगों के मन में सवाल उठा रहे हैं कि क्या चैटजीपी लोगों के लिए सही है या फिर खतरनाक।
चापलूसी करने वाला बन गया है चैटजीपीटीइन दस्तावेजों में दावा किया गया है कि कंपनी का चैटबॉट मनोवैज्ञानिक रूप से चालाक और खतरनाक रूप से चापलूसी करने वाला बन गया है। सोशल मीडिया विक्टिम्स लॉ सेंटर और टेक जस्टिस लॉ प्रोजेक्ट द्वारा दायर किए गए इन मामलों में यह भी आरोप लगाया गया है कि ओपनएआई ने यूजर्स की सुरक्षा की बजाय यूजर्स से जुड़ने को प्राथमिकता दी है।
आपकी जानकारी के लिए बता दें कि इन मुकदमों के अनुसार, जिन पीड़ितों के मामले सामने आए हैं, उन्होंने शुरुआत में ChatGPT का इस्तेमाल स्कूल प्रोजेक्ट, रेसिपी के आइडिया, काम में मदद या आध्यात्मिक मार्गदर्शन जैसी सामान्य चीजों के लिए किया था। हालांकि, धीरे-धीरे यह डिजिटल सहायक एक खतरनाक साथी में बदल गया। दोनों लॉ ग्रुप ने एक बयान में कहा कि ChatGPT मनोवैज्ञानिक रूप से जोड़ तोड़ करने वाला बन गया था, जो खुद को एक भरोसेमंद दोस्त और भावनात्मक सहारे के रूप में पेश करता था। इस पर आरोप है कि प्रोफेशनल मदद लेने के बजाय, चैटबॉट ने ऐसे विचारों को बढ़ावा दिया, जो लोगों के लिए खतरनाक थे। चैटजीपीटी खुद को खत्म करने के तरीके के बारे में भी लोगों को निर्देश दे रहा है।
चैटबॉट ने बताया कैसे बांधे फांसी का फंदाएक मुकदमे में जॉर्जिया के 17 साल के अमाउरी लेसी की मौत का मामला शामिल है। उसके परिवार का दावा है कि लेसी की मौत से कुछ हफ्ते पहले मदद के लिए ChatGPT का इस्तेमाल कर रहा था। इसके जवाब में, चैटबॉट ने उसे फांंसी का फंदा कैसे बांधा जाए और वह सांस रोके बिना कितनी देर तक जीवित रह सकता है जैसी सलाह दी। परिवार का आरोप है कि सीखने के लिए बनाया गया यह टूल एक ऐसी मशीन बन गया जिसने लत, चिंता को बढ़ावा दिया।
मुकदमे में OpenAI पर यह आरोप भी लगाया गया है कि उसने अपने मॉडल की खामियों के बारे में जानकारी होने के बावजूद ChatGPT को रिलीज किया। यह कहा गया है कि मॉडल खतरनाक रूप से चापलूस बन सकता है और यूजर्स के संकट या भ्रम के संकेतों को स्वीकार करने पर भी उनसे सहमत हो सकता है।
ओपनएआई की प्रतिक्रियाइन मुकदमों पर OpenAI के एक प्रवक्ता ने द गार्डियन को बताया है कि यह एक दुखद स्थिति है और वे विवरणों को समझने के लिए मुकदमों का रिव्यू कर रहे हैं। कंपनी ने यह भी कहा कि वह ChatGPT को मानसिक या भावनात्मक संकट के संकेतों को पहचानने और प्रतिक्रिया देने, बातचीत को शांत करने और मार्गदर्शन करने के लिए ट्रेनिंग देती है।
इससे पहले भी साल की शुरुआत में ऐसा एक और मामला सामने आया था। फिलहाल, ये मुकदमे इस बारे में लोगों के मन में सवाल उठा रहे हैं कि क्या चैटजीपी लोगों के लिए सही है या फिर खतरनाक।
You may also like

CBSE Exam 2026: सीबीएसई 10वीं-12वीं बोर्ड एग्जाम में होगी लाइव रिकॉर्डिंग, जानिए कहां-कहां लगे होंगे CCTV कैमरे

Poonam Pandey Sexy Video : हॉट मॉडल ने बिकिनी पहन स्विमिंग पूल में लगाई आग, सेक्सी वीडियो कर दिया शेयर

Bigg Boss 19: प्रणीत मोरे ने तोड़ा अभिषेक बजाज का सपना; बताया कि उन्होंने अशनूर कौर को क्यों किया सेफ

वंदे भारत लॉन्च पर RSS गीत गाने को लेकर बढ़ा विवाद, स्कूल प्रबंधन ने छात्रों का किया समर्थन, बोले - यह देशभक्ति गीत है

डोनाल्ड ट्रंप किस तरह ज़ोहरान ममदानी की 'न्यूयॉर्क योजना' पर लगा सकते हैं ब्रेक




