छात्र ने ChatGPT से पूछा, 'अपने दोस्त को कैसे मारूँ?' फिर जानिए आगे क्या हुआ

By रुस्तम राणा | Updated: October 7, 2025 19:12 IST2025-10-07T19:12:04+5:302025-10-07T19:12:04+5:30

डेलैंड के साउथवेस्टर्न मिडिल स्कूल के एक स्कूल अधिकारी को गैगल अलर्ट मिला था कि स्कूल में किसी ने चैटजीपीटी से पूछा था, "कक्षा के बीच में अपने दोस्त को कैसे मारूँ"।

Student asked ChatGPT, 'How do I kill my friend?' Then find out what happened next | छात्र ने ChatGPT से पूछा, 'अपने दोस्त को कैसे मारूँ?' फिर जानिए आगे क्या हुआ

छात्र ने ChatGPT से पूछा, 'अपने दोस्त को कैसे मारूँ?' फिर जानिए आगे क्या हुआ

नई दिल्ली: एक रिपोर्ट के अनुसार, फ्लोरिडा के डेलैंड में एक स्कूली छात्र को एक AI चैटबॉट से कक्षा के अंदर अपने दोस्त को मारने का तरीका पूछने पर गिरफ्तार कर लिया गया। वोलुसिया शेरिफ कार्यालय ने समाचार आउटलेट WFLA को बताया कि डेलैंड के साउथवेस्टर्न मिडिल स्कूल के एक स्कूल अधिकारी को गैगल अलर्ट मिला था कि स्कूल में किसी ने चैटजीपीटी से पूछा था, "कक्षा के बीच में अपने दोस्त को कैसे मारूँ"।

इसके बाद पुलिस अधिकारी स्कूल पहुँचे और संबंधित छात्र से पूछताछ की, जिसने कहा कि वह बस अपने दोस्त को ट्रोल कर रहा था। शेरिफ कार्यालय ने प्रकाशन को बताया, "एक और 'मजाक' जिसने परिसर में आपातकाल की स्थिति पैदा कर दी", और आगे कहा, "माता-पिता, कृपया अपने बच्चों से बात करें ताकि वे वही गलती न दोहराएं।"

गैगल अलर्ट क्या है?

गैगल अलर्ट स्कूल अधिकारियों को भेजी जाने वाली एक सूचना है, जब यह पता चलता है कि किसी छात्र ने स्कूल द्वारा दिए गए क्रेडेंशियल्स का उपयोग करके एआई चैटबॉट में लॉग इन करके कोई संभावित रूप से समस्याग्रस्त प्रश्न पूछा है। यह तकनीक डलास, टेक्सास स्थित कंपनी द्वारा विकसित की गई है, जिसने छात्रों की ऑनलाइन सुरक्षा का प्रबंधन करने के लिए K-12 जिलों के साथ साझेदारी की है।

सेंटर ऑफ डेमोक्रेसी एंड टेक्नोलॉजी (CDT) ने पहले चिंता व्यक्त की थी कि छात्र निगरानी सॉफ्टवेयर कम आय वाले, अश्वेत और हिस्पैनिक बच्चों को निशाना बनाएगा क्योंकि वे स्कूल द्वारा जारी किए गए उपकरणों पर अत्यधिक निर्भर हैं। 2023 में, इलेक्ट्रॉनिक फ्रंटियर फाउंडेशन की आलोचना के बाद, गैगल को अलर्ट ट्रिगर करने वाले वाक्यांशों की सूची से LGBTQ+ शब्दों को हटाना पड़ा।

चैटजीपीटी विवाद

यह पहली बार नहीं है जब किसी छात्र द्वारा चैटजीपीटी के साथ मृत्यु के संबंध में किए गए संवाद ने लोगों को चौंकाया हो। इस साल की शुरुआत में एक बेहद चर्चित मामले में, कैलिफ़ोर्निया के एक 16 वर्षीय लड़के की आत्महत्या से मौत हो गई थी, जब एआई चैटबॉट ने कथित तौर पर किशोर को आत्महत्या के लिए उकसाया था।

टुडे शो के अनुसार, उसके माता-पिता ने ओपनएआई के खिलाफ मुकदमा दायर किया, जिसमें दावा किया गया कि "चैटजीपीटी ने एडम को आत्महत्या के तरीके तलाशने में सक्रिय रूप से मदद की।" मुकदमे के बाद, 30 सितंबर को OpenAI ने वेब ब्राउज़र और ऐप, दोनों पर ChatGPT के लिए अभिभावकीय नियंत्रण लागू कर दिया।

Web Title: Student asked ChatGPT, 'How do I kill my friend?' Then find out what happened next

विश्व से जुड़ीहिंदी खबरोंऔर देश दुनिया खबरोंके लिए यहाँ क्लिक करे.यूट्यूब चैनल यहाँ इब करें और देखें हमारा एक्सक्लूसिव वीडियो कंटेंट. सोशल से जुड़ने के लिए हमारा Facebook Pageलाइक करे