ड्रोन और एक हथियार के रूप मानव रहित वाहन: क्यों हम हैकर्स का डर होने की जरूरत है
प्रौद्योगिकी के / / December 19, 2019
कोई भी इनकार करते हैं कि कृत्रिम बुद्धि पर हमारे जीवन डाल सकते हैं नए स्तर. ऐ कई समस्याओं है कि आदमी की शक्ति से परे हैं हल करने में सक्षम है।
हालांकि, कई का मानना है कि superintelligence हमें नष्ट, स्काईनेट के रूप में, या खेल पोर्टल से GLaDOS के रूप में लोगों पर प्रयोग करना शुरू करना चाहते हैं जाएगा। विडंबना यह है कि एक कृत्रिम खुफिया केवल लोगों को अच्छे या बुरे कर सकते हैं बनाने के लिए है।
येल, ऑक्सफोर्ड, कैंब्रिज, और कंपनी तैनात OpenAI के शोधकर्ताओं रिपोर्ट कृत्रिम बुद्धि के दुरुपयोग पर। इसमें कहा गया है कि असली खतरा हैकर्स से आता है। दुर्भावनापूर्ण कोड की मदद से, वे ऐ नियंत्रण में स्वचालित प्रणाली के संचालन बाधित कर सकते हैं।
शोधकर्ताओं को डर है कि प्रौद्योगिकी अच्छे इरादों के साथ बनाया, नुकसान करने के लिए इस्तेमाल किया जाएगा। उदाहरण के लिए, निगरानी न केवल आतंकवादियों को पकड़ने के लिए, लेकिन यह भी आम नागरिकों पर जासूसी करने के लिए लागू किया जा सकता है। शोधकर्ताओं ने यह भी वाणिज्यिक ड्रोन, जो भोजन देने चिंताजनक। वे अवरोधन करने के लिए आसान कर रहे हैं और एक कुछ विस्फोटक रख दिया।
अन्य परिदृश्य ऐ की विनाशकारी इस्तेमाल होता है - मानव रहित वाहनों. यह कोड की कुछ लाइनें बदलने के लिए पर्याप्त है, और मशीन सुरक्षा नियमों की अनदेखी करने के लिए शुरू कर देंगे।
वैज्ञानिकों का मानना है कि खतरा, डिजिटल शारीरिक और राजनीतिक हो सकता है।
- आर्टिफिशियल इंटेलिजेंस पहले से ही विभिन्न कार्यक्रम कोड कमजोरियों का अध्ययन करने के लिए इस्तेमाल किया जा रहा है। भविष्य में, हैकर्स इस तरह के एक बॉट, जो किसी भी सुरक्षा को बायपास बना सकते हैं।
- ऐ के साथ व्यक्ति प्रक्रियाओं के कई स्वचालित कर सकते हैं: उदाहरण के लिए, ड्रोन के झुंड, या वाहन के एक समूह को नियंत्रित करने के।
- इस तरह के DeepFake के रूप में प्रौद्योगिकियों के साथ, राज्य के राजनीतिक जीवन को प्रभावित कर सकते हैं, इंटरनेट बॉट के माध्यम से दुनिया के नेताओं के बारे में गलत जानकारी के प्रसार।
ये भयावह उदाहरण एक परिकल्पना के रूप में केवल मौजूद हैं। अध्ययन के लेखकों प्रौद्योगिकी की एक पूरी अस्वीकृति नहीं करते हैं। इसके बजाय, वे मानते हैं कि सरकारों और बड़ी कंपनियों, सुरक्षा का ध्यान रखना चाहिए, जबकि उद्योग कृत्रिम बुद्धि प्रारंभिक अवस्था।
राजनेता क्षेत्र के विशेषज्ञों के साथ मिलकर प्रौद्योगिकी और काम सीखना चाहिए, प्रभावी रूप से स्थापना और कृत्रिम बुद्धि के प्रयोग को विनियमित करने के लिए।
डेवलपर्स, बारी में, आशा और इन दुनिया के नेताओं का सबसे बुरा परिणाम को रोकने के लिए खतरा उच्च प्रौद्योगिकी से उत्पन्न का आकलन करना चाहिए। ऐ डेवलपर्स के लिए रिपोर्ट कॉल: अन्य क्षेत्रों में सुरक्षा के विशेषज्ञों के साथ टीम को और पता लगाने के लिए कि क्या आप सिद्धांतों का उपयोग कर सकते हैं कृत्रिम की सुरक्षा के लिए इन प्रौद्योगिकियों की सुरक्षा सुनिश्चित है कि खुफिया।
पूरी रिपोर्ट और अधिक विस्तार में समस्या है, लेकिन तथ्य यह है कि ऐ का वर्णन करता है - एक शक्तिशाली साधन. सभी हितधारकों एक नई तकनीक सीखने की जरूरत है और यकीन है कि यह आपराधिक उद्देश्यों के लिए इस्तेमाल नहीं किया जा रहा है।