आम

ब्रिटेन 'किलर रोबोट' पर पूर्व-प्रतिबंधात्मक प्रतिबंध का विरोध करेगा


स्वायत्त रोबोटों को घातक हथियारों में बदलने की क्षमता के बारे में चिंता क्षेत्र के विशेषज्ञों के अनुसार बहुत कम देर से होने का मामला है। आर्टिफिशियल इंटेलिजेंस (एआई) और रोबोटिक्स उद्योग के प्रमुख आंकड़े। किलर रोबोट ’पर एक समान प्रतिबंध लगाने की मांग करने के लिए शामिल हो गए हैं। संयुक्त राष्ट्र के लिए खुला पत्र टेस्ला और ओपन एआई के सीईओ एलोन मस्क के साथ-साथ 115 अन्य ’विशेषज्ञों ने हस्ताक्षर किए हैं, जिसमें अल्फाबेट के मुस्तफा सुलेमान भी शामिल हैं।

समूह लिखता है, “एक बार विकसित होने के बाद, घातक स्वायत्त हथियार सशस्त्र संघर्ष को पहले से कहीं अधिक बड़े पैमाने पर लड़ने की अनुमति देंगे, और मनुष्यों की तुलना में अधिक तेज़ी से समय पर संघर्ष कर सकते हैं। ये आतंक के हथियार हो सकते हैं, ऐसे हथियार जो कि निरंकुश आबादी के खिलाफ देशद्रोहियों और आतंकवादियों का उपयोग करते हैं, और हथियार अवांछनीय तरीके से व्यवहार करने के लिए हैक किए जाते हैं। हमारे पास अभिनय करने के लिए लंबा समय नहीं है। एक बार इस पेंडोरा के बॉक्स को खोलने के बाद, इसे बंद करना मुश्किल होगा। "

लेकिन पर्यवेक्षकों ने पत्र को भोले का लेबल दिया है और उदाहरणों की ओर इशारा किया है जहां रक्षा और रोबोटिक्स पहले से ही एक साथ काम कर रहे हैं।

तारणी [छवि स्रोत: बीएई सिस्टम्स]

उदाहरणों में शामिल है तारानिस, एक मानव रहित लड़ाकू विमान प्रणाली जो बीएई और अन्य द्वारा निर्मित है, साथ ही सैमसंग द्वारा बनाई गई स्वायत्त SGR-A1 संतरी बंदूक और दक्षिण कोरियाई सीमा पर तैनात है। स्वायत्त रोबोट एक मशीन गन से लैस है और 2 मील दूर तक लक्ष्य खोजने के लिए हीट और मोशन सेंसर का उपयोग करता है।

इस मुद्दे का जवाब आसान नहीं है। शर्तों की परिभाषा अभी भी रोबोटिक्स और एआई क्षेत्रों के भीतर एक बड़ी समस्या है। एआई की अपनी समझ को लेकर मस्क और फेसबुक के सीईओ मार्क जुकरबर्ग के बीच सोशल मीडिया के तेवर से भ्रम की स्थिति अच्छी थी।

ब्रिटेन के रक्षा मंत्रालय ने कहा कि वे हत्यारे रोबोटों पर पूर्व-प्रतिबंधात्मक प्रतिबंध का समर्थन नहीं करेंगे। उन्होंने कहा कि वर्तमान में उनके पास स्वायत्त हथियारों के निर्माण की कोई योजना नहीं है, वे भी प्रतिबंध का समर्थन नहीं करेंगे। मंत्रालय के एक प्रवक्ता ने कहा, "यह सही है कि हमारे हथियार वास्तविक लोगों द्वारा संचालित होते हैं जो जटिल निर्णय लेने में सक्षम होते हैं और यहां तक ​​कि वे लगातार उच्च तकनीक वाले होते जाते हैं, वे हमेशा मानव नियंत्रण में रहेंगे।"

हथियारों के बारे में चर्चा आम तौर पर युद्ध के आधुनिकीकरण के बारे में व्यापक चर्चा के बिना नहीं हो सकती है। निजी रक्षा ठेकेदारों और सरकारों के बीच एक महीन रेखा है जो मानव जाति के इतिहास में एक से अधिक बार धुंधली हो गई है। क्या आम तौर पर युद्ध की आवश्यकता पर सवाल उठाने के लिए घातक रोबोटों की आवश्यकता पर सवाल उठाने से बातचीत को बदलना संभव होगा? जबकि यह दी गई भी एक भोली प्रतिक्रिया है, बहस को व्यापक और खुला होना चाहिए ताकि किसी भी उत्तर को खोजने में सक्षम हो।

एक तरफ, यह तर्क दिया जा सकता है कि अगर मुकाबला करना है, तो क्या प्रौद्योगिकी के लिए बेहतर नहीं होगा कि वह मानव सैनिकों के बजाय हत्या कर रहे हों और मारे जा रहे हों? क्या यह युद्ध को 'उचित' लड़ाई भी बना सकता है? रणनीतिक निर्णय लेने पर रोबोटों को गलत निशाने पर मारने या भय, एड्रेनालाईन और सदमे की संभावना कम हो सकती है।

2012 में एक ह्यूमन राइट्स वॉच ने किलर रोबोट पर एक रिपोर्ट जारी की, जो इसे दूसरी तरह से देखती है। रिपोर्ट में कहा गया है, "एक भयभीत नागरिक और धमकी देने वाले दुश्मन के बीच संघर्ष करने वाले एक सैनिक को एक मानव के कार्यों के पीछे के इरादों को समझने के लिए एक सैनिक की आवश्यकता होती है, जो कुछ रोबोट नहीं कर सकता था," यह कहना है कि "रोबोट मानवीय भावनाओं से संयमित नहीं होगा और करुणा की क्षमता, जो नागरिकों की हत्या पर एक महत्वपूर्ण जाँच प्रदान कर सकती है ”।

आपके विचार से कोई फर्क नहीं पड़ता, यह हमारे समय के लिए एक आवश्यक बहस है।

स्रोत: द गार्जियन, डेलीमेल, टेलीग्राफ

SEE ALSO: 116 स्पेशलिस्ट्स जिसमें एलोन मस्क कॉल फॉर किलर रोबोट्स की पूरी पाबंदी शामिल है


वीडियो देखना: How We Faked a Boston Dynamics Robot (अक्टूबर 2021).