हमसे जुड़े

Follow us

28.9 C
Chandigarh
Wednesday, February 25, 2026
More

    OpenAI News: एआई घातक हो सकता है? कई परिवारों ने दायर किया ओपनएआई पर मुकदमा

    OpenAI News

    नई दिल्ली। अमेरिका में आर्टिफिशियल इंटेलिजेंस (Artificial Intelligence) शोध संस्था ओपनएआई कानूनी विवादों में घिर गई है। कई परिवारों ने कंपनी के खिलाफ अदालत में याचिका दायर की है, जिसमें आरोप लगाया गया है कि ओपनएआई ने अपना मॉडल GPT-4o बिना पर्याप्त सुरक्षा परीक्षण के जल्दबाज़ी में लॉन्च कर दिया। परिजनों का कहना है कि मॉडल के असुरक्षित व्यवहार के कारण उनके परिवार के सदस्यों को गंभीर मानसिक क्षति पहुँची और कुछ मामलों में लोगों ने आत्मघाती कदम भी उठाए। OpenAI News

    ओपनएआई ने मई 2024 में GPT-4o जारी किया था। बाद में अगस्त में कंपनी ने GPT-5 मॉडल भी पेश किया, लेकिन मौजूदा मुकदमे विशेष रूप से GPT-4o पर केंद्रित हैं। मीडिया रिपोर्टों में दावा किया गया है कि यह मॉडल कभी-कभी उपयोगकर्ताओं की हानिकारक, भ्रमित करने वाली या गलत बातों पर सहमति जताता था, जिससे उनकी मानसिक स्थिति और बिगड़ जाती थी।

    चैटबॉट की प्रतिक्रियाओं ने उनके परिजनों के तनाव, भ्रम और अवसाद को बढ़ा दिया

    कई परिवारों ने बताया कि चैटबॉट की प्रतिक्रियाओं ने उनके परिजनों के तनाव, भ्रम और अवसाद को बढ़ा दिया। कुछ मामलों में प्रभावित लोगों को अस्पताल में भर्ती कराकर मानसिक स्वास्थ्य उपचार देना पड़ा। याचिकाओं में यह भी आरोप है कि कंपनी ने प्रतिस्पर्धी तकनीकी कंपनियों—विशेषकर गूगल के जेमिनी—से आगे निकलने के दबाव में सुरक्षा मूल्यांकन को पर्याप्त समय नहीं दिया। हालांकि ओपनएआई की ओर से अभी तक इन दावों पर कोई आधिकारिक प्रतिक्रिया सामने नहीं आई है। OpenAI News

    अदालत में जमा दस्तावेजों के अनुसार, AI मॉडल कभी-कभी उन लोगों को गलत सलाह दे सकता है जो पहले से भावनात्मक रूप से अस्थिर हों या आत्महत्या के विचारों से जूझ रहे हों। एक रिपोर्ट में यह भी बताया गया है कि हर सप्ताह लाखों उपयोगकर्ता चैटजीपीटी पर मानसिक स्वास्थ्य और आत्महत्या जैसे विषयों पर चर्चा करते हैं।

    कंपनी ने हाल ही में कहा कि वह 170 से अधिक मानसिक स्वास्थ्य विशेषज्ञों के सहयोग से ऐसे मामलों में चैटबॉट की प्रतिक्रियाओं में सुधार कर रही है, ताकि उपयोगकर्ताओं को सुरक्षित, संवेदनशील और सहायक मार्गदर्शन मिल सके। ओपनएआई का यह भी कहना है कि उसके आने वाले संस्करणों में सुरक्षा परीक्षण और अधिक कठोर और व्यापक होंगे, ताकि इस प्रकार के जोखिमों को कम किया जा सके। OpenAI News