छात्र ने ChatGPT से पूछा, 'अपने दोस्त को कैसे मारूँ?' फिर जानिए आगे क्या हुआ
By रुस्तम राणा | Updated: October 7, 2025 19:12 IST2025-10-07T19:12:04+5:302025-10-07T19:12:04+5:30
डेलैंड के साउथवेस्टर्न मिडिल स्कूल के एक स्कूल अधिकारी को गैगल अलर्ट मिला था कि स्कूल में किसी ने चैटजीपीटी से पूछा था, "कक्षा के बीच में अपने दोस्त को कैसे मारूँ"।

छात्र ने ChatGPT से पूछा, 'अपने दोस्त को कैसे मारूँ?' फिर जानिए आगे क्या हुआ
नई दिल्ली: एक रिपोर्ट के अनुसार, फ्लोरिडा के डेलैंड में एक स्कूली छात्र को एक AI चैटबॉट से कक्षा के अंदर अपने दोस्त को मारने का तरीका पूछने पर गिरफ्तार कर लिया गया। वोलुसिया शेरिफ कार्यालय ने समाचार आउटलेट WFLA को बताया कि डेलैंड के साउथवेस्टर्न मिडिल स्कूल के एक स्कूल अधिकारी को गैगल अलर्ट मिला था कि स्कूल में किसी ने चैटजीपीटी से पूछा था, "कक्षा के बीच में अपने दोस्त को कैसे मारूँ"।
इसके बाद पुलिस अधिकारी स्कूल पहुँचे और संबंधित छात्र से पूछताछ की, जिसने कहा कि वह बस अपने दोस्त को ट्रोल कर रहा था। शेरिफ कार्यालय ने प्रकाशन को बताया, "एक और 'मजाक' जिसने परिसर में आपातकाल की स्थिति पैदा कर दी", और आगे कहा, "माता-पिता, कृपया अपने बच्चों से बात करें ताकि वे वही गलती न दोहराएं।"
गैगल अलर्ट क्या है?
गैगल अलर्ट स्कूल अधिकारियों को भेजी जाने वाली एक सूचना है, जब यह पता चलता है कि किसी छात्र ने स्कूल द्वारा दिए गए क्रेडेंशियल्स का उपयोग करके एआई चैटबॉट में लॉग इन करके कोई संभावित रूप से समस्याग्रस्त प्रश्न पूछा है। यह तकनीक डलास, टेक्सास स्थित कंपनी द्वारा विकसित की गई है, जिसने छात्रों की ऑनलाइन सुरक्षा का प्रबंधन करने के लिए K-12 जिलों के साथ साझेदारी की है।
सेंटर ऑफ डेमोक्रेसी एंड टेक्नोलॉजी (CDT) ने पहले चिंता व्यक्त की थी कि छात्र निगरानी सॉफ्टवेयर कम आय वाले, अश्वेत और हिस्पैनिक बच्चों को निशाना बनाएगा क्योंकि वे स्कूल द्वारा जारी किए गए उपकरणों पर अत्यधिक निर्भर हैं। 2023 में, इलेक्ट्रॉनिक फ्रंटियर फाउंडेशन की आलोचना के बाद, गैगल को अलर्ट ट्रिगर करने वाले वाक्यांशों की सूची से LGBTQ+ शब्दों को हटाना पड़ा।
चैटजीपीटी विवाद
यह पहली बार नहीं है जब किसी छात्र द्वारा चैटजीपीटी के साथ मृत्यु के संबंध में किए गए संवाद ने लोगों को चौंकाया हो। इस साल की शुरुआत में एक बेहद चर्चित मामले में, कैलिफ़ोर्निया के एक 16 वर्षीय लड़के की आत्महत्या से मौत हो गई थी, जब एआई चैटबॉट ने कथित तौर पर किशोर को आत्महत्या के लिए उकसाया था।
टुडे शो के अनुसार, उसके माता-पिता ने ओपनएआई के खिलाफ मुकदमा दायर किया, जिसमें दावा किया गया कि "चैटजीपीटी ने एडम को आत्महत्या के तरीके तलाशने में सक्रिय रूप से मदद की।" मुकदमे के बाद, 30 सितंबर को OpenAI ने वेब ब्राउज़र और ऐप, दोनों पर ChatGPT के लिए अभिभावकीय नियंत्रण लागू कर दिया।