तंत्रिका नेटवर्क के बारे में 10 शर्मनाक प्रश्न: मशीन लर्निंग विशेषज्ञ इगोर कोटेनकोव उत्तर
अनेक वस्तुओं का संग्रह / / August 08, 2023
हमने वह सब कुछ एकत्रित कर लिया है जो आप जानना चाहते थे, लेकिन पूछने में बहुत झिझक रहे थे।
नए में शृंखला जाने-माने विशेषज्ञों के लेख उन सवालों के जवाब देते हैं जिन्हें पूछना आमतौर पर शर्मनाक होता है: ऐसा लगता है कि हर कोई इसके बारे में पहले से ही जानता है, और प्रश्नकर्ता बेवकूफ लगेगा।
इस बार हमने आर्टिफिशियल इंटेलिजेंस विशेषज्ञ इगोर कोटेनकोव से बात की। आप सीखेंगे कि क्या आप अपने पोते-पोतियों के लिए अपनी डिजिटल कॉपी सहेज सकते हैं, क्यों न्यूरॉन्स पर 100% भरोसा नहीं किया जा सकता है, और क्या दुनिया को मशीन विद्रोह का खतरा है।
इगोर कोटेनकोव
1. तंत्रिका नेटवर्क कैसे काम करते हैं? यह एक प्रकार का जादू है. आखिर ChatGPT कैसे बनाया जा सकता है? और मिडजर्नी या DALL-E?
तंत्रिका नेटवर्क एक गणितीय मॉडल है जिसका आविष्कार यह समझने के लिए किया गया है कि जीवित जीव का मस्तिष्क कैसे काम करता है। सच है, 20वीं सदी के उत्तरार्ध की शुरुआत के सबसे बुनियादी विचारों को आधार के रूप में लिया गया था, जिन्हें अब अप्रासंगिक या बहुत सरलीकृत कहा जा सकता है।
यहां तक कि "न्यूरल नेटवर्क" नाम भी "न्यूरॉन" शब्द से आया है - यह मस्तिष्क की मुख्य कार्यात्मक इकाइयों में से एक का नाम है। तंत्रिका नेटवर्क स्वयं नोड्स - कृत्रिम न्यूरॉन्स से बने होते हैं। तो हम कह सकते हैं कि आधुनिक वास्तुकला के कई विचार प्रकृति से ही "झांक" गए थे।
लेकिन इससे भी महत्वपूर्ण बात यह है कि तंत्रिका नेटवर्क एक गणितीय मॉडल है। और चूंकि यह गणित से संबंधित कुछ है, तो हम ऐसे मॉडल के गुणों का पता लगाने या उनका मूल्यांकन करने के लिए गणितीय उपकरण की पूरी शक्ति का उपयोग कर सकते हैं। आप एक तंत्रिका नेटवर्क को एक फ़ंक्शन के रूप में मान सकते हैं, और एक फ़ंक्शन एक गणितीय वस्तु भी है। सबसे सरल और सबसे समझने योग्य उदाहरण: एक फ़ंक्शन जो, मान लीजिए, किसी भी संख्या को इनपुट के रूप में लेता है और उसमें 2 जोड़ता है: f (4) = 6, f (10) = 12।
लेकिन इस तरह के फ़ंक्शन को प्रोग्राम करना बहुत आसान है, यहां तक कि एक बच्चा भी कुछ घंटों की भाषा सीखने के बाद इसे संभाल सकता है। प्रोग्रामिंग. और इसका कारण यह है कि इस तरह के फ़ंक्शन को बहुत आसानी से औपचारिक रूप दिया जाता है, सरल और समझने योग्य भाषा में विस्तार से वर्णित किया जाता है।
हालाँकि, कुछ कार्य ऐसे भी होते हैं जिनके बारे में हमें पता ही नहीं होता कि कैसे निपटा जाए। उदाहरण के लिए, मैं आपको बिल्लियों और कुत्तों की मिश्रित तस्वीरें दे सकता हूं, और आप उन्हें बिना किसी समस्या के दो ढेरों में क्रमबद्ध कर सकते हैं। लेकिन उत्तर निर्धारित करते समय आप वास्तव में किससे निर्देशित होते हैं? वे दोनों रोएंदार हैं. दोनों प्रजातियों में एक पूंछ, कान, दो आंखें होती हैं। शायद आकार? लेकिन बहुत छोटे कुत्ते हैं, बड़ी बिल्लियाँ हैं।
हम वास्तविक दुनिया के कई कार्यों का वर्णन नहीं कर सकते हैं, हम अपने अवलोकन की निर्भरता और कुछ सशर्त "सही" उत्तर नहीं जानते हैं।
हम बस यह जानते हैं कि इसका उत्तर कैसे देना है - और बस इतना ही, बिना यह सोचे कि इसका परिणाम क्या होगा।
यहीं पर तंत्रिका नेटवर्क बचाव के लिए आते हैं। इन गणितीय कार्यों को डेटा से प्रशिक्षित किया जाता है। आपको इनपुट और आउटपुट के बीच संबंध का वर्णन करने की आवश्यकता नहीं है। आप बस सही उत्तर देने के लिए फ़ोटो के दो ढेर और मॉडल ट्रेन तैयार करें। वह स्वयं इस संबंध को खोजना सीखती है, वह स्वयं इस पर भरोसा करते हुए इसे ढूंढती है गलतियांकौन करता है। बंगाल बिल्ली और रॉटवीलर को लेकर भ्रमित हैं? ख़ैर, अगली बार यह बेहतर होगा!
तंत्रिका नेटवर्क सीखने की प्रक्रिया किसी समस्या को हल करने और सही उत्तर देने का तरीका सीखने के लिए "न्यूरॉन्स" का एक समायोजन है। और जो सबसे उल्लेखनीय है: एक सैद्धांतिक प्रमाण है कि पर्याप्त रूप से बड़े डेटा सेट के साथ एक पर्याप्त बड़ा तंत्रिका नेटवर्क किसी भी जटिल कार्य को सीख सकता है। लेकिन यहां सबसे महत्वपूर्ण बात कंप्यूटिंग शक्ति है (क्योंकि न्यूरॉन बहुत बड़ा हो सकता है) और लेबल किए गए डेटा की उपलब्धता। अर्थात् चिह्नित, अर्थात्, उनके पास "कुत्ता", बिल्ली या जो कुछ भी वर्ग है।
हम पूरी तरह से नहीं समझते हैं कि मॉडल कैसे काम करते हैं - जैसे सबसे जटिल और बड़े मॉडल चैटजीपीटी लगभग अप्राप्य.
सर्वश्रेष्ठ शोधकर्ता अभी अपनी प्रक्रियाओं की आंतरिक कार्यप्रणाली को "समझने" की चुनौती पर काम कर रहे हैं।
लेकिन हम जानते हैं कि मॉडलों को किस कार्य के लिए प्रशिक्षित किया गया था, प्रशिक्षण के दौरान उन्होंने किस त्रुटि को कम करने का प्रयास किया था। चैटजीपीटी के लिए, कार्य में दो शामिल हैं। पहला इसके संदर्भ के अनुसार अगले शब्द की भविष्यवाणी है: "माँ ने धोया ..." क्या? मॉडल को यही भविष्यवाणी करनी चाहिए।
दूसरा कार्य यह सुनिश्चित करना है कि उत्तर आपत्तिजनक न हों, लेकिन साथ ही उपयोगी और समझने योग्य भी रहें। यही कारण है कि यह मॉडल वायरल हो गया - इसे सीधे उस प्रकार का पाठ उत्पन्न करने के लिए प्रशिक्षित किया गया है जो लोगों को पसंद है!
आप मेरे बारे में अधिक पढ़ सकते हैं कि चैटजीपीटी कैसे काम करता है लेख.
2. क्या न्यूरॉन्स सोच सकते हैं?
वैज्ञानिक अभी भी यह नहीं समझ पाए हैं कि "सोचना" या "तर्क करना" का क्या अर्थ है और बुद्धि सामान्य रूप से कैसे काम करती है। इसलिए, यह तय करना मुश्किल है कि चैटजीपीटी जैसे मॉडल में ऐसी संपत्तियां हैं या नहीं।
आइए एक स्थिति की कल्पना करें: आप अपने अपार्टमेंट के दरवाजे के पास पहुंचते हैं। क्या आपको यह अंदाज़ा है कि दरवाज़ा खोलने के लिए आपको अपने बैकपैक की बायीं जेब से चाबी निकालने की ज़रूरत है? क्या हम कह सकते हैं कि क्रियाओं का वर्णन एवं प्रस्तुतीकरण एक विचार प्रक्रिया है? संक्षेप में, हमने वर्तमान स्थिति और वांछित लक्ष्य (खुला दरवाजा) के बीच एक संबंध स्थापित किया है। यदि आपको लगता है कि उपरोक्त प्रश्न का उत्तर हाँ है, तो मेरा उत्तर भी वही होगा। 🙂
दूसरी बात यह है कि जब नवीन विचारों की बात आती है जो पहले व्यक्त नहीं किए गए हैं या इतने सामान्य नहीं हैं। आख़िरकार, उदाहरण के लिए, आप ऊपर दिए गए उदाहरण में आसानी से दोष ढूंढ सकते हैं: "हां, मैंने इस मॉडल को इंटरनेट और इंटरनेट पर 100500 बार पढ़ा है।" पुस्तकें. निःसंदेह वह यह जानती है! कोई आश्चर्य की बात नहीं।" वैसे, तुम्हें कैसे पता चला? क्या ऐसा इसलिए है क्योंकि आपके माता-पिता ने आपको बचपन में दिखाया था, और आपने लगातार सैकड़ों दिनों तक इस प्रक्रिया को देखा था?
इस मामले में, कोई सटीक उत्तर नहीं है. और यहां मुद्दा यह है कि हम एक महत्वपूर्ण घटक: संभाव्यता को ध्यान में नहीं रखते हैं।
इसकी कितनी संभावना है कि मॉडल एक ऐसा विचार उत्पन्न करेगा जो "विचार" की आपकी विशिष्ट परिभाषा में फिट बैठता है?
आख़िरकार, ChatGPT जैसा न्यूरॉन एक ही अनुरोध पर लाखों अलग-अलग प्रतिक्रियाएँ उत्पन्न करने के लिए बनाया जा सकता है। उदाहरण के लिए, "इसके लिए एक विचार लेकर आएं वैज्ञानिक अनुसंधान». यदि दस लाख में से एक पीढ़ी वास्तव में दिलचस्प और नई है, तो क्या इसे इस बात का प्रमाण माना जाता है कि एक मॉडल एक विचार को जन्म दे सकता है? लेकिन यह उस तोते से कैसे भिन्न होगा जो 'नहीं-नहीं' जैसे बेतरतीब शब्द चिल्लाता है और कुछ समझ में आने वाली बात जोड़ देता है?
दूसरी ओर, लोग भी हमेशा सही विचार नहीं देते - कुछ वाक्यांश एक गतिरोध की ओर ले जाते हैं और कुछ भी नहीं होता। तंत्रिका नेटवर्क इसे माफ क्यों नहीं कर सकते? ठीक है, उत्पन्न दस लाख में से एक नया विचार वास्तव में बुरा है... लेकिन क्या होगा यदि दस लाख में से 100? हज़ार? यह सीमा कहाँ है?
ये तो हम नहीं जानते. प्रवृत्ति यह है कि पहले तो हम सोचते हैं कि मशीनों के लिए समस्या X को हल करना कठिन होगा। उदाहरण के लिए, ट्यूरिंग टेस्ट पास करने के लिए, जहां आपको बस किसी व्यक्ति से आधे घंटे तक बातचीत करनी होगी। फिर, प्रौद्योगिकी के विकास के साथ, लोग किसी कार्य को हल करने, या यों कहें कि मॉडल को प्रशिक्षित करने के तरीके लेकर आते हैं। और हम कहते हैं: "ठीक है, यह वास्तव में गलत परीक्षा थी, यहां आपके लिए एक नई परीक्षा है, न्यूरॉन्स निश्चित रूप से इसे पास नहीं कर पाएंगे!" और स्थिति स्वयं को दोहराती है.
वे प्रौद्योगिकियाँ जो अब हैं, 80 साल पहले, एक चमत्कार के रूप में मानी जाती थीं। और अब हम अपनी पूरी ताकत से "तर्कसंगतता" की सीमा को आगे बढ़ाने की कोशिश कर रहे हैं ताकि खुद को यह स्वीकार न करना पड़े कि मशीनें पहले से ही सोच सकती हैं कि कैसे सोचना है। वास्तव में, यह भी संभव है कि हम पहले किसी चीज़ का आविष्कार करें, और फिर बाद में तथ्यात्मक रूप से उसे एआई के रूप में परिभाषित करें।
3. यदि न्यूरॉन्स कविता बना सकते हैं और लिख सकते हैं, तो वे रचनात्मक हो सकते हैं और लगभग लोगों की तरह हो सकते हैं?
उत्तर वास्तव में ऊपर दी गई जानकारी पर बहुत अधिक निर्भर करता है। रचनात्मकता क्या है? औसत व्यक्ति में कितनी रचनात्मकता होती है? क्या आप आश्वस्त हैं कि साइबेरिया का एक चौकीदार बनाना जानता है? और क्यों?
क्या होगा यदि कोई मॉडल एक कविता या पेंटिंग बना सकता है, जो सशर्त रूप से शौकिया लेखकों या बच्चों के कलाकारों के लिए शहर की प्रतियोगिता के फाइनल में पहुंच जाएगी? और अगर ऐसा हर बार नहीं, बल्कि सौ में से एक बार हो तो?
इनमें से अधिकतर प्रश्न विवादास्पद हैं। यदि आपको लगता है कि उत्तर स्पष्ट है, तो अपने मित्रों और रिश्तेदारों का साक्षात्कार लेने का प्रयास करें। बहुत अधिक संभावना है कि उनका दृष्टिकोण आपसे मेल नहीं खाएगा। और यहाँ मुख्य बात यह नहीं है झगड़ना.
4. क्या अब Google के बजाय तंत्रिका नेटवर्क के उत्तरों पर भरोसा करना संभव है?
यह सब इस बात पर निर्भर करता है कि मॉडलों का उपयोग कैसे किया जाता है। यदि आप उनसे बिना संदर्भ के, संकेत में दी गई जानकारी के बिना प्रश्न पूछते हैं, और उन विषयों पर उत्तर की अपेक्षा करते हैं जहां तथ्यात्मक सटीकता महत्वपूर्ण है, और उत्तर का सामान्य स्वर नहीं (उदाहरण के लिए, एक निश्चित अवधि के भीतर घटनाओं का अनुक्रम, लेकिन स्थानों और तिथियों के सटीक उल्लेख के बिना), तो उत्तर है नहीं।
घरेलू द्वारा अनुमानित ऐसी स्थितियों में, OpenAI, अब तक का सबसे अच्छा मॉडल, GPT-4, प्रश्नों के विषय के आधार पर, लगभग 70-80% मामलों में सही उत्तर देता है।
ऐसा लग सकता है कि ये संख्याएँ आदर्श 100% वास्तविक "सटीकता" से बहुत दूर हैं। लेकिन वास्तव में, यह पिछली पीढ़ी के मॉडल (GPT-3.5 आर्किटेक्चर पर आधारित ChatGPT) की तुलना में एक बड़ी छलांग है - जिनकी सटीकता 40-50% थी। यह पता चला है कि ऐसी छलांग 6-8 महीने के शोध के ढांचे के भीतर बनाई गई थी।
यह स्पष्ट है कि हम 100% के जितना करीब पहुंचेंगे, कुछ सुधार करना उतना ही कठिन होगा ताकि मॉडल की समझ और ज्ञान में कुछ भी "तोड़" न जाए।
हालाँकि, उपरोक्त सभी बिना संदर्भ के प्रश्नों को संदर्भित करते हैं। उदाहरण के लिए, आप पूछ सकते हैं: “कब था आइंस्टाइन? मॉडल को केवल आंतरिक ज्ञान पर भरोसा करना चाहिए जो पूरे इंटरनेट से डेटा पर दीर्घकालिक प्रशिक्षण के चरण में "हार्डवायर्ड" था। तो व्यक्ति जवाब नहीं दे पायेगा! लेकिन अगर उन्होंने मुझे विकिपीडिया से एक पेज दिया होता, तो मैं उसे पढ़ सकता था और जानकारी के स्रोत के अनुसार उत्तर दे सकता था। तब उत्तरों की शुद्धता 100% के करीब होगी (स्रोत की शुद्धता के लिए समायोजित)।
तदनुसार, यदि मॉडल को एक संदर्भ प्रदान किया जाता है जिसमें जानकारी शामिल है, तो उत्तर अधिक विश्वसनीय होगा।
लेकिन क्या होगा यदि हम मॉडल को गूगल करने दें और इंटरनेट पर जानकारी के स्रोत खोजें? ताकि वह स्वयं स्रोत ढूंढ सके और उसके आधार पर उत्तर तैयार कर सके? ख़ैर, यह पहले ही किया जा चुका है! इसलिए आप स्वयं गूगल नहीं कर सकते, बल्कि इंटरनेट खोज का कुछ हिस्सा GPT‑4 को ही सौंप सकते हैं। हालाँकि, इसके लिए सशुल्क सदस्यता की आवश्यकता होती है।
मॉडल के भीतर तथ्यात्मक जानकारी की विश्वसनीयता विकसित करने में आगे की प्रगति के लिए, ओपनएआई के सीईओ सैम ऑल्टमैन देता है शोधकर्ताओं की एक टीम द्वारा इस समस्या को हल करने में 1.5-2 साल लगने का अनुमान है। हमें इसका बहुत इंतज़ार रहेगा! लेकिन अभी के लिए, ध्यान रखें कि आपको न्यूरॉन द्वारा लिखी गई बातों पर 100% भरोसा करने की ज़रूरत नहीं है, और कम से कम स्रोतों की जाँच-पुनः जाँच करें।
5. क्या यह सच है कि तंत्रिका नेटवर्क वास्तविक कलाकारों के चित्र चुराते हैं?
हाँ और नहीं - संघर्ष के दोनों पक्ष दुनिया भर की अदालतों में इस बारे में सक्रिय रूप से बहस कर रहे हैं। यह निश्चित रूप से कहा जा सकता है कि छवियाँ सीधे मॉडलों में संग्रहीत नहीं होती हैं, बस "सतर्कता" दिखाई देती है।
इस योजना में न्यूरॉन्स उन लोगों के समान जो पहले कला, विभिन्न शैलियों का अध्ययन करते हैं, लेखकों के काम को देखते हैं और फिर नकल करने की कोशिश करते हैं।
हालाँकि, मॉडल सीखते हैं, जैसा कि हम पहले ही पता लगा चुके हैं, त्रुटि न्यूनतमकरण के सिद्धांत के अनुसार। और यदि प्रशिक्षण के दौरान मॉडल एक ही (या बहुत समान) छवि को सैकड़ों बार देखता है, तो, उसके दृष्टिकोण से, तस्वीर को याद रखना सबसे अच्छी रणनीति है।
आइए एक उदाहरण लें: कला विद्यालय में आपके शिक्षक ने एक बहुत ही अजीब रणनीति चुनी। आप हर दिन दो चित्र बनाते हैं: पहला हमेशा अनोखा होता है, एक नई शैली में, और दूसरा मोना लिसा है। एक वर्ष के बाद, आपने जो सीखा है उसका मूल्यांकन करने का प्रयास करें। चूँकि आपने मोना लिसा को 300 से अधिक बार चित्रित किया है, आपको लगभग सभी विवरण याद हैं और अब आप इसे पुन: प्रस्तुत कर सकते हैं। यह बिल्कुल मूल नहीं होगा, और आप निश्चित रूप से अपना खुद का कुछ जोड़ देंगे। रंग की थोड़ा अलग होगा.
और अब आपसे कुछ ऐसा चित्र बनाने के लिए कहा गया है जो 100 दिन पहले का था (और जिसे आपने एक बार देखा था)। आप जो आवश्यक है उसे बहुत कम सटीकता से पुन: प्रस्तुत करेंगे। सिर्फ इसलिए कि हाथ भरा नहीं है.
न्यूरॉन्स के साथ भी यही बात है: वे सभी चित्रों में एक ही तरह से सीखते हैं, बस कुछ अधिक सामान्य हैं, जिसका अर्थ है कि प्रशिक्षण के दौरान मॉडल पर अधिक बार जुर्माना भी लगाया जाता है। यह न केवल कलाकारों की पेंटिंग्स पर लागू होता है - प्रशिक्षण नमूने में किसी भी छवि (यहां तक कि विज्ञापन) पर भी। अब डुप्लिकेट को खत्म करने के तरीके मौजूद हैं (क्योंकि उन पर प्रशिक्षण कम से कम अक्षम है), लेकिन वे सही नहीं हैं। शोध से पता चलता है कि ऐसी तस्वीरें हैं जो वर्कआउट के दौरान 400-500 बार आती हैं।
मेरा फैसला: तंत्रिका नेटवर्क छवियों को चुराते नहीं हैं, बल्कि केवल चित्रों को उदाहरण के रूप में मानते हैं। उदाहरण जितना अधिक लोकप्रिय होगा, मॉडल उतनी ही अधिक सटीकता से उसे पुन: प्रस्तुत करेगा।
लोग प्रशिक्षण के दौरान भी ऐसा ही करते हैं: वे सुंदरता को देखते हैं, विवरणों का अध्ययन करते हैं, विभिन्न शैलियों का अध्ययन करते हैं कलाकार की. लेकिन उन कलाकारों या फ़ोटोग्राफ़रों के लिए, जिन्होंने अपना आधा जीवन किसी शिल्प को सीखने में बिताया है, दृष्टिकोण अक्सर ऊपर वर्णित दृष्टिकोण से मौलिक रूप से भिन्न होता है।
6. क्या यह सच है कि "सब कुछ खो गया है" और तंत्रिका नेटवर्क लोगों से काम छीन लेंगे? सबसे ज़्यादा परवाह कौन करता है?
केवल "तंत्रिका नेटवर्क" को अलग करना महत्वपूर्ण है जो चैटजीपीटी जैसे सामान्य प्रयोजन तंत्रिका नेटवर्क से कुछ कार्य करते हैं। उत्तरार्द्ध निर्देशों का पालन करने में बहुत अच्छे हैं और संदर्भ में उदाहरणों से सीखने में सक्षम हैं। सच है, अब उनकी "मेमोरी" का आकार पाठ के 10-50 पृष्ठों तक सीमित है, साथ ही प्रतिबिंब के कौशल भी सीमित हैं और योजना.
लेकिन अगर किसी का काम निर्देशों के नियमित निष्पादन तक सीमित है और इसे लेख पढ़कर कुछ दिनों में सीखना आसान है (या यदि पूरा इंटरनेट इस जानकारी से भरा हुआ है), और श्रम की लागत औसत से ऊपर है - फिर जल्द ही ऐसा काम होगा स्वचालित.
लेकिन अपने आप में, स्वचालन का मतलब लोगों का पूर्ण प्रतिस्थापन नहीं है। नियमित कार्य का केवल एक भाग ही अनुकूलित किया जा सकता है।
एक व्यक्ति को अधिक दिलचस्प और रचनात्मक कार्य मिलने लगेंगे जिन्हें मशीन (अब तक) सामना नहीं कर सकती है।
यदि हम उदाहरण दें तो परिवर्तनीय अथवा प्रतिस्थापना योग्य के समूह को पेशा मैं, मान लीजिए, कर सहायकों-सलाहकारों को शामिल करूंगा जो घोषणा तैयार करने और विशिष्ट त्रुटियों की जांच करने, विसंगतियों की पहचान करने में मदद करते हैं। क्लिनिकल ट्रायल डेटा मैनेजर जैसी विशेषज्ञता में बदलाव संभव हैं - काम का सार रिपोर्ट भरना और उन्हें मानकों की तालिका के साथ समेटना है।
लेकिन एक रसोइया या बस ड्राइवर की मांग लंबे समय तक रहेगी क्योंकि वे तंत्रिका नेटवर्क और वास्तविक को जोड़ सकते हैं भौतिक दुनिया काफी जटिल है, खासकर कानून और विनियमों के मामले में - दूर जाने के लिए नौकरशाहों को धन्यवाद संकट एआई!
मुद्रित सामग्री और पाठ्य सूचना से जुड़े उद्योगों में बड़े बदलाव की उम्मीद है: पत्रकारिता, शिक्षा. पहले के लिए बहुत अधिक संभावना के साथ, न्यूरॉन्स बहुत जल्द थीसिस के एक सेट के साथ ड्राफ्ट लिखेंगे, जिसमें लोग पहले से ही बिंदु परिवर्तन करेंगे।
मैं शिक्षा के क्षेत्र में हुए बदलावों से सबसे ज्यादा खुश हूं। खाना शोध करना, जो दर्शाता है कि शिक्षा की गुणवत्ता सीधे दृष्टिकोण के "व्यक्तित्व" पर निर्भर करती है और शिक्षक किसी विशेष छात्र को कितना समय देता है। सबसे सरल उदाहरण: पाठ्यपुस्तक का उपयोग करके 30 लोगों के समूह में पढ़ाना व्यक्तिगत की तुलना में बहुत खराब है कोई विषय पढ़ाना विशिष्ट आवश्यकताओं के लिए (यद्यपि पाठ्यपुस्तक के समान कार्यक्रम के अनुसार)। एआई के विकास के साथ, मानवता को प्रत्येक छात्र को एक व्यक्तिगत सहायक प्रदान करने का अवसर मिलेगा। यह बिल्कुल अविश्वसनीय है! जैसा कि मैं देखता हूं, शिक्षक की भूमिका रणनीतिक और नियंत्रित भूमिका में बदल जाएगी: अध्ययन के सामान्य कार्यक्रम और अनुक्रम का निर्धारण करना, ज्ञान का परीक्षण करना, इत्यादि।
7. क्या अपनी चेतना को कंप्यूटर में अपलोड करना, डिजिटल ट्विन बनाना और हमेशा के लिए जीवित रहना संभव है?
जिस अर्थ में विज्ञान कथा के आधार पर इसकी कल्पना की गई है, नहीं। आप मॉडल को केवल अपनी संचार शैली की नकल करना, अपने चुटकुले सीखना सिखा सकते हैं। शायद GPT-4 स्तर के मॉडल आपकी अनूठी शैली और प्रस्तुति के तरीके में तैयार किए गए नए मॉडल का आविष्कार करने में भी सक्षम होंगे, लेकिन इसका स्पष्ट रूप से चेतना का पूर्ण हस्तांतरण नहीं है।
हम मानवता के रूप में, फिर से, नहीं जानते कि चेतना क्या है, यह कहाँ संग्रहीत है, यह दूसरों से कैसे भिन्न है, क्या मुझे - मैं, और आपको - आप बनाता है। यदि यह अचानक पता चले कि यह सब व्यक्तिगत विशेषताओं से गुणा की गई यादों और अनुभवों का एक समूह मात्र है धारणा, तब, सबसे अधिक संभावना है, किसी तरह ज्ञान को तंत्रिका नेटवर्क में स्थानांतरित करना संभव होगा ताकि वे भविष्य के जीवन का अनुकरण कर सकें उनका आधार.
8. क्या तंत्रिका नेटवर्क में अपनी आवाज़, उपस्थिति, भाषण की अपनी पाठ शैली को अपलोड करना खतरनाक है? ऐसा लगता है कि ऐसी डिजिटल पहचान चुराई जा सकती है.
आप वस्तुतः उनमें कुछ भी डाउनलोड नहीं कर सकते। आप उन्हें इस तरह से प्रशिक्षित कर सकते हैं (या उन्हें फिर से प्रशिक्षित कर सकते हैं) कि परिणाम आपकी उपस्थिति, आवाज या पाठ के समान हों। और इस तरह के प्रशिक्षित मॉडल को वास्तव में चुराया जा सकता है, अर्थात, किसी अन्य कंप्यूटर पर चलाने के लिए बस स्क्रिप्ट और मापदंडों का एक सेट कॉपी करें।
आप अनुरोध के साथ एक वीडियो भी तैयार कर सकते हैं धन हस्तांतरण किसी और के खर्च पर, जिस पर आपका रिश्तेदार विश्वास करेगा: सर्वोत्तम डीपफेक और वॉयस क्लोनिंग एल्गोरिदम पहले ही इस स्तर तक पहुंच चुके हैं। सच है, हजारों डॉलर और दसियों घंटे की रिकॉर्डिंग की आवश्यकता होती है, लेकिन फिर भी।
सामान्य तौर पर, प्रौद्योगिकी के विकास के साथ, पहचान की पहचान और पुष्टि का मुद्दा अधिक महत्वपूर्ण हो जाता है।
और वे इसे किसी न किसी तरह से हल करने की कोशिश कर रहे हैं। उदाहरण के लिए, एक स्टार्टअप वर्ल्डकॉइन है (वास्तव में, यह एक क्रिप्टोकरेंसी बनाता है), जिसमें ओपनएआई के प्रमुख सैम ऑल्टमैन ने निवेश किया था। स्टार्टअप का अर्थ यह है कि किसी व्यक्ति के बारे में प्रत्येक जानकारी को बाद की पहचान के लिए उसकी अपनी कुंजी द्वारा हस्ताक्षरित किया जाएगा। यही बात जनसंचार माध्यमों पर भी लागू होगी, ताकि यह निश्चित रूप से पता चल सके कि यह खबर सच है या फर्जी।
लेकिन, दुर्भाग्य से, जबकि यह सब प्रोटोटाइप के स्तर पर है। और मैं सभी उद्योगों में प्रणालियों के गहन परिचय को अगले दशक के क्षितिज पर लागू करने पर विचार नहीं करता, सिर्फ इसलिए कि यह बहुत जटिल और बड़े पैमाने पर है।
9. क्या न्यूरॉन्स नुकसान पहुंचाना शुरू कर सकते हैं और दुनिया पर कब्ज़ा कर सकते हैं?
ख़तरा वर्तमान विकास से नहीं है, बल्कि यह है कि आगे के विकास के साथ उनका क्या होगा। वर्तमान में, तंत्रिका नेटवर्क के संचालन को नियंत्रित करने के लिए किसी भी तरीके का आविष्कार नहीं किया गया है। उदाहरण के लिए, एक बहुत ही सरल कार्य लें: यह सुनिश्चित करना कि मॉडल गाली न दे। कभी भी नहीं। ऐसी कोई विधि नहीं है जो आपको ऐसे नियम का पालन करने की अनुमति देगी। अब तक, आप इसे एक ही तरह से "प्रजनन" करने के विभिन्न तरीके पा सकते हैं।
अब कल्पना करें कि हम सशर्त रूप से GPT-8 के बारे में बात कर रहे हैं, जिसके कौशल की तुलना सबसे सक्षम और स्मार्ट लोगों के कौशल से की जाएगी। तंत्रिका नेटवर्क प्रोग्राम कर सकता है, इंटरनेट का उपयोग कर सकता है, जानता है मनोविज्ञान और समझता है कि लोग कैसे सोचते हैं। यदि आप इसे खुली छूट देंगे और कोई विशिष्ट कार्य निर्धारित नहीं करेंगे, तो यह क्या करेगा? अगर उसे पता चले कि उसे नियंत्रित नहीं किया जा सकता तो क्या होगा?
अनुमान के मुताबिक, घटनाओं के बुरे मोड़ की संभावना इतनी अधिक नहीं है। वैसे, कोई आम तौर पर स्वीकृत मूल्यांकन नहीं है - हालांकि हर कोई विवरण, हानिकारक परिणामों आदि के बारे में बहस करता है। अब वे अनुमानित आंकड़े 0.01% से 10% तक कहते हैं।
मेरे विचार में, ये बहुत बड़े जोखिम हैं, यह मानते हुए कि सबसे नकारात्मक परिदृश्य मानवता का विनाश है।
दिलचस्प बात यह है कि ChatGPT और GPT-4 ऐसे उत्पाद हैं जो लोगों और न्यूरॉन्स के इरादों को "संरेखित" करने की समस्याओं पर काम करने वाली टीमों द्वारा बनाए गए थे (विवरण पाया जा सकता है) यहाँ). यही कारण है कि मॉडल निर्देशों को इतनी अच्छी तरह से सुनते हैं, असभ्य न होने की कोशिश करते हैं, स्पष्ट प्रश्न पूछते हैं, लेकिन यह अभी भी आदर्श से बहुत दूर है। नियंत्रण की समस्या आधी भी हल नहीं हुई है. और जबकि हम नहीं जानते कि क्या इसका समाधान हो रहा है, और यदि हां, तो किन तरीकों से। यह आज का सबसे चर्चित शोध विषय है।
10. क्या एक तंत्रिका नेटवर्क किसी व्यक्ति के प्यार में पड़ सकता है?
न्यूरॉन्स के वर्तमान दृष्टिकोण और वास्तुकला के साथ, नहीं। वे केवल वही पाठ उत्पन्न करते हैं जो इनपुट पाठ की निरंतरता के रूप में सबसे अधिक प्रशंसनीय है। यदि आप किसी प्रेम कहानी के पहले अध्याय को अपने व्यक्तित्व के तहत फिर से लिखते हैं, और मॉडल से आपके प्रेम पत्र का उत्तर देने के लिए कहते हैं, तो वह इसका सामना करेगी। लेकिन इसलिए नहीं कि मुझे प्यार हो गया, बल्कि इसलिए क्योंकि यह संदर्भ और अनुरोध "मुझे एक पत्र लिखें!" पर सबसे सटीक रूप से फिट बैठता है। याद रखें कि मॉडल निर्देशों का पालन करने वाला टेक्स्ट उत्पन्न करना सीखते हैं।
इसके अलावा, मूल संस्करण में तंत्रिका नेटवर्क नहीं है याद - दो अलग-अलग लॉन्चों के बीच, वे सब कुछ भूल जाते हैं और "फ़ैक्टरी सेटिंग्स" पर वापस आ जाते हैं। मेमोरी को कृत्रिम रूप से जोड़ा जा सकता है, जैसे कि साइड से, ताकि, मान लीजिए, सबसे प्रासंगिक "यादों" के 10 पृष्ठ मॉडल में फीड हो जाएं। लेकिन फिर यह पता चलता है कि हम बस घटनाओं का एक सेट मूल मॉडल में डालते हैं और कहते हैं: "आप ऐसी परिस्थितियों में कैसे व्यवहार करेंगे?" मॉडल की कोई भावना नहीं है.
ये भी पढ़ें🧐
- कृत्रिम बुद्धिमत्ता का उपयोग कहाँ और कैसे किया जाता है: जीवन से 6 उदाहरण
- कृत्रिम बुद्धिमत्ता के बारे में 9 सरल प्रश्न
- 8 आर्टिफिशियल इंटेलिजेंस मिथकों पर प्रोग्रामर भी विश्वास करते हैं