Israel-Hamas war: 'हबसोरा' एआई प्रणाली से निशाने चुन रहा है इजरायल, एक साथ चुने जा सकते हैं 100 लक्ष्य, जानें इसके बारे में

By लोकमत न्यूज़ डेस्क | Published: December 14, 2023 11:22 AM2023-12-14T11:22:21+5:302023-12-14T11:23:08+5:30

मानव खुफिया विश्लेषक के जरिए हर साल गाजा में बमबारी के लिए 50 स्थानों को निशाना बनाया जा सकता है, लेकिन हबसोरा प्रणाली एक दिन में 100 लक्ष्य तैयार कर सकती है। प्रणाली मशीन लर्निंग एल्गोरिदम द्वारा प्रस्तुत संभावित तर्क के माध्यम से ऐसा करती है।

Israel selecting targets with 'Habasora' AI system 100 targets can be selected simultaneously | Israel-Hamas war: 'हबसोरा' एआई प्रणाली से निशाने चुन रहा है इजरायल, एक साथ चुने जा सकते हैं 100 लक्ष्य, जानें इसके बारे में

फाइल फोटो

Highlightsहबसोरा प्रणाली एक दिन में 100 लक्ष्य तैयार कर सकती है प्रणाली मशीन लर्निंग एल्गोरिदम द्वारा प्रस्तुत संभावित तर्क के माध्यम से ऐसा करती है मशीन लर्निंग एल्गोरिदम डेटा के माध्यम से सीखते हैं

Israel-Hamas war: इजरायल रक्षा बल (आईडीएफ) गाजा में हमास के खिलाफ जारी युद्ध में ‘हबसोरा’ नामक कृत्रिम मेधा (एआई) प्रणाली का इस्तेमाल कर रहा है।  इस प्रणाली का इस्तेमाल बमबारी के लिए और निशाने चुनने, हमास के चरमपंथियों के ठिकानों का पता लगाने और पहले से ही मृतकों की संभावित संख्या का अनुमान लगाने के लिए कथित तौर पर किया गया है।

ऑस्ट्रेलियन नेशनल यूनिवर्सिटी की बियांका बैगियारिनी के अध्ययन में कहा गया है कि इन प्रणालियों के सैन्य उपयोग के सामाजिक, राजनीतिक और नैतिक निहितार्थों पर शोध दिखाता है कि एआई पहले से ही युद्ध के चरित्र को बदल रहा है। सेनाएं अपने सैनिकों का प्रभाव बढ़ाने और उनके जीवन की रक्षा के लिए इन प्रणालियों का उपयोग करती हैं। एआई प्रणाली सैनिकों को अधिक कुशल बना सकती है और इससे युद्ध की गति और घातकता के बढ़ने की आशंका होती है।

एआई का युद्ध के सभी स्तरों पर प्रभाव पड़ रहा है, "खुफिया, निगरानी और टोही" गतिविधियों से लेकर "घातक हथियार प्रणालियों" के लिए इसका इस्तेमाल हो रहा है, जिसके जरिए मानव हस्तक्षेप के बिना निशाना बनाकर हमला किया जा सकता है। आईडीएफ की हबसोरा प्रणाली भी इसी तरह काम करती है। इन प्रणालियों में युद्ध के चरित्र को नया रूप देने की क्षमता है, जिससे संघर्ष में प्रवेश करना आसान हो जाता है। ये प्रणालियां संघर्ष बढ़ने की सूरत में किसी के इरादों का संकेत देने या किसी प्रतिद्वंद्वी के इरादों की व्याख्या करने को भी कठिन बना सकती हैं। एआई प्रणाली युद्ध के समय खतरनाक गलतफहमी पैदा करने या दुष्प्रचार में योगदान दे सकता है। 

यह प्रणाली मशीनों के सुझावों पर भरोसा करने की मानवीय प्रवृत्ति को बढ़ा सकती है। यह बात हबसोरा प्रणाली से सामने आई है। किसी एआई सिस्टम की सीमाएं स्पष्ट नहीं हो सकतीं। एआई द्वारा संचालित सबसे बुनियादी और महत्वपूर्ण परिवर्तनों में से एक परिवर्तन जो हमें देखने को मिल सकता है, वह है युद्ध की तीव्रता में वृद्धि। एआई का उपयोग इस आधार पर संभावित रूप से उचित है कि यह बड़ी मात्रा में डेटा की व्याख्या और संश्लेषण कर सकता है, इसे संसाधित कर सकता है और मानव अनुभूति से कहीं अधिक दर पर जानकारी दे सकता है। 

आईडीएफ के एक पूर्व प्रमुख ने कहा है कि मानव खुफिया विश्लेषक के जरिए हर साल गाजा में बमबारी के लिए 50 स्थानों को निशाना बनाया जा सकता है, लेकिन हबसोरा प्रणाली एक दिन में 100 लक्ष्य तैयार कर सकती है। प्रणाली मशीन लर्निंग एल्गोरिदम द्वारा प्रस्तुत संभावित तर्क के माध्यम से ऐसा करती है। मशीन लर्निंग एल्गोरिदम डेटा के माध्यम से सीखते हैं। वे डेटा के विशाल ढेर में पैटर्न खोजकर सीखते हैं और उनकी सफलता डेटा की गुणवत्ता और मात्रा पर निर्भर होती है। वे संभावनाओं के आधार पर सिफारिशें करते हैं। लिहाजा ये एआई प्रणालियां युद्ध के मैदान में अधिक सुविधाजनक तरीके से सेनाओं की मदद करती हैं। इससे सैनिकों के लिए जोखिम कम हो जाता है लेकिन एआई से मिली किसी जानकारी के गलत होने पर इसके विपरीत परिणाम भी हो सकते हैं। लिहाजा इन्हें इस्तेमाल करने के लिए अधिक सावधानी बरतने की जरूरत होती है। 

(इनपुट- भाषा)

Web Title: Israel selecting targets with 'Habasora' AI system 100 targets can be selected simultaneously

विश्व से जुड़ीहिंदी खबरोंऔर देश दुनिया खबरोंके लिए यहाँ क्लिक करे.यूट्यूब चैनल यहाँ इब करें और देखें हमारा एक्सक्लूसिव वीडियो कंटेंट. सोशल से जुड़ने के लिए हमारा Facebook Pageलाइक करे