नई दिल्ली। अमेरिका में आर्टिफिशियल इंटेलिजेंस (Artificial Intelligence) शोध संस्था ओपनएआई कानूनी विवादों में घिर गई है। कई परिवारों ने कंपनी के खिलाफ अदालत में याचिका दायर की है, जिसमें आरोप लगाया गया है कि ओपनएआई ने अपना मॉडल GPT-4o बिना पर्याप्त सुरक्षा परीक्षण के जल्दबाज़ी में लॉन्च कर दिया। परिजनों का कहना है कि मॉडल के असुरक्षित व्यवहार के कारण उनके परिवार के सदस्यों को गंभीर मानसिक क्षति पहुँची और कुछ मामलों में लोगों ने आत्मघाती कदम भी उठाए। OpenAI News
ओपनएआई ने मई 2024 में GPT-4o जारी किया था। बाद में अगस्त में कंपनी ने GPT-5 मॉडल भी पेश किया, लेकिन मौजूदा मुकदमे विशेष रूप से GPT-4o पर केंद्रित हैं। मीडिया रिपोर्टों में दावा किया गया है कि यह मॉडल कभी-कभी उपयोगकर्ताओं की हानिकारक, भ्रमित करने वाली या गलत बातों पर सहमति जताता था, जिससे उनकी मानसिक स्थिति और बिगड़ जाती थी।
चैटबॉट की प्रतिक्रियाओं ने उनके परिजनों के तनाव, भ्रम और अवसाद को बढ़ा दिया
कई परिवारों ने बताया कि चैटबॉट की प्रतिक्रियाओं ने उनके परिजनों के तनाव, भ्रम और अवसाद को बढ़ा दिया। कुछ मामलों में प्रभावित लोगों को अस्पताल में भर्ती कराकर मानसिक स्वास्थ्य उपचार देना पड़ा। याचिकाओं में यह भी आरोप है कि कंपनी ने प्रतिस्पर्धी तकनीकी कंपनियों—विशेषकर गूगल के जेमिनी—से आगे निकलने के दबाव में सुरक्षा मूल्यांकन को पर्याप्त समय नहीं दिया। हालांकि ओपनएआई की ओर से अभी तक इन दावों पर कोई आधिकारिक प्रतिक्रिया सामने नहीं आई है। OpenAI News
अदालत में जमा दस्तावेजों के अनुसार, AI मॉडल कभी-कभी उन लोगों को गलत सलाह दे सकता है जो पहले से भावनात्मक रूप से अस्थिर हों या आत्महत्या के विचारों से जूझ रहे हों। एक रिपोर्ट में यह भी बताया गया है कि हर सप्ताह लाखों उपयोगकर्ता चैटजीपीटी पर मानसिक स्वास्थ्य और आत्महत्या जैसे विषयों पर चर्चा करते हैं।
कंपनी ने हाल ही में कहा कि वह 170 से अधिक मानसिक स्वास्थ्य विशेषज्ञों के सहयोग से ऐसे मामलों में चैटबॉट की प्रतिक्रियाओं में सुधार कर रही है, ताकि उपयोगकर्ताओं को सुरक्षित, संवेदनशील और सहायक मार्गदर्शन मिल सके। ओपनएआई का यह भी कहना है कि उसके आने वाले संस्करणों में सुरक्षा परीक्षण और अधिक कठोर और व्यापक होंगे, ताकि इस प्रकार के जोखिमों को कम किया जा सके। OpenAI News















