दो एआई विशेषज्ञों का कहना है कि दुनिया को कृत्रिम बुद्धिमत्ता के लिए एक अंतरराष्ट्रीय एजेंसी की जरूरत है

Moni

Updated on:

वर्तमान एआई सिस्टम के साथ प्रमुख मुद्दों में से एक यह है कि वे मुख्य रूप से ब्लैक बॉक्स हैं, अक्सर अविश्वसनीय और व्याख्या करने में कठिन होते हैं, और नियंत्रण से बाहर होने का खतरा होता है। उदाहरण के लिए, चैटजीपीटी, बड़े भाषा मॉडल (एलएलएम) जैसे अंतर्निहित सिस्टम की मूल तकनीक को “मतिभ्रम” करने के लिए जाना जाता है, जो गलत बयान देता है। उदाहरण के लिए, चैटजीपीटी ने कानून के एक प्रोफेसर पर यौन उत्पीड़न में शामिल होने का झूठा आरोप लगाया, जो स्पष्ट रूप से भ्रमित था। पाठ के बिट्स के बीच सांख्यिकीय लेकिन अप्रासंगिक कनेक्शन जो वास्तव में एक साथ नहीं थे। एक ऑप-एड द्वारा यह स्पष्ट करने की कोशिश करने के बाद कि क्या गलत हुआ था, बिंग चैट ने एक समान त्रुटि की, और इसे यूएसए टुडे की जानकारी के लिए जिम्मेदार ठहराया कि चैटबॉट पूरी तरह से पीछे चला गया .

इन प्रणालियों का उपयोग जानबूझकर दुरुपयोग के लिए भी किया जा सकता है, चुनाव में बाधा डालने से लेकर (उदाहरण के लिए उम्मीदवार जो कहते या लिखते हैं उसमें हेरफेर करके) चिकित्सा संबंधी गलत सूचना फैलाने तक। ओपनएआई के सबसे उन्नत एलएलएम, जीपीटी-4 के हालिया विश्लेषण में, कंपनी ने 12 गंभीर चिंताओं को स्वीकार किया – उनमें से किसी का भी ठोस समाधान प्रदान किए बिना।

पिछले वर्ष ही दुनिया भर में एआई का उल्लेख करने वाले 37 नियम पारित किए गए; इटली चैटजीपीटी पर प्रतिबंध लगाने तक पहुंच गया। लेकिन वैश्विक समन्वय बहुत कम है. यहां तक ​​कि कुछ देशों के भीतर भी एक हेरा-फेरी है, जैसे कि अमेरिका में अलग-अलग राज्य कानून, या ब्रिटेन का एक केंद्रीय नियामक से दूर रहने का प्रस्ताव, जिससे कई एजेंसियों के बीच निरीक्षण का बंटवारा हो गया है। असमान, खामियों से भरा पैचवर्क किसी के लाभ और सुरक्षा के लिए नहीं है। न ही कंपनियों को प्रत्येक क्षेत्राधिकार के लिए एक अलग एआई मॉडल बनाना चाहिए और कानूनी, सांस्कृतिक और सामाजिक संदर्भों को नेविगेट करने के लिए अपने स्वयं के नए संघर्ष का सामना करना चाहिए।

फिर भी, सुरक्षा और विश्वसनीयता, पारदर्शिता, व्याख्यात्मकता, व्याख्यात्मकता, गोपनीयता, जवाबदेही और निष्पक्षता जैसे बुनियादी जिम्मेदार एआई सिद्धांतों के बारे में काफी सहमति है। और लगभग हर कोई इस बात से सहमत है कि कुछ अवश्य किया जाना चाहिए—ए अभी-अभी प्रकाशित जनमत संग्रह सेंटर फॉर द गवर्नेंस ऑफ एआई द्वारा पाया गया कि 11 देशों के 13,000 लोगों के प्रतिनिधि नमूने में से 91% इस बात से सहमत थे कि एआई को सावधानीपूर्वक प्रबंधित करने की आवश्यकता है।

इस संदर्भ में हम एआई (आईएएआई) के लिए एक वैश्विक, तटस्थ, गैर-लाभकारी अंतर्राष्ट्रीय एजेंसी के तत्काल विकास का आह्वान करते हैं, जिसमें सरकारों, बड़ी प्रौद्योगिकी कंपनियों, गैर-लाभकारी संस्थाओं, शिक्षा जगत और समाज का मार्गदर्शन और सहयोग हो। बड़े पैमाने पर, जिसका उद्देश्य सुरक्षित, संरक्षित और शांतिपूर्ण एआई प्रौद्योगिकियों को बढ़ावा देने के लिए सहयोगात्मक रूप से शासन और तकनीकी समाधान ढूंढना है।

ऐसी एजेंसी का समय आ गया है, जैसा कि Google के CEO सुंदर पिचाई ने स्वयं 16 अप्रैल को कहा था। वह कैसा दिख सकता है? प्रत्येक डोमेन और प्रत्येक उद्योग अलग-अलग होंगे, उनके अपने दिशानिर्देशों के साथ, लेकिन कई में वैश्विक प्रशासन और तकनीकी नवाचार दोनों शामिल होंगे। उदाहरण के लिए, लोग लंबे समय से इस बात पर सहमत हैं कि लिंग के आधार पर रोजगार संबंधी निर्णय लेने से बचना चाहिए, और पहले से अधिक व्याख्या योग्य एआई में कुछ उपाय भी लेकर आए हैं, जैसे कि बिडेन प्रशासन द्वारा प्रस्तावित एआई बिल ऑफ राइट्स की व्याख्यात्मकता आवश्यकताएं। लेकिन चैटजीपीटी जैसे ब्लैक-बॉक्स सिस्टम में बिना किसी मौजूदा उपाय के उपयोग के मामलों की एक विस्तृत विविधता है। उदाहरण के लिए, लोग नौकरी के उम्मीदवार की पूरी फाइल को फीड कर सकते हैं और चैटजीपीटी से निर्णय के लिए पूछ सकते हैं, लेकिन वर्तमान में हमारे पास यह सुनिश्चित करने का कोई तरीका नहीं है कि चैटजीपीटी अपने आउटपुट में पूर्वाग्रह से बच सके। जिस प्रकार की इकाई की हम कल्पना करते हैं वह चैटबॉट्स और अन्य नीतिगत प्रश्नों के ऐसे “ऑफ-लेबल” उपयोग के बारे में सहयोगात्मक रूप से संबोधित करेगी, और साथ ही प्रभावी ऑडिटिंग के लिए तकनीकी उपकरण विकसित करेगी।

IAAI इसी तरह विशेषज्ञों को बुला सकता है और गलत सूचना के प्रसार से निपटने के लिए उपकरण विकसित कर सकता है। उदाहरण के लिए, नीतिगत पक्ष में, यह पूछा जा सकता है कि व्यापक पैमाने पर गलत सूचना फैलाने पर किस प्रकार जुर्माना लगाया जा सकता है। तकनीकी पक्ष पर, प्रारंभिक ध्यान बुनियादी सवालों के जवाब देने के लिए स्वचालित या अर्ध-स्वचालित उपकरण विकसित करने पर होना चाहिए, जैसे “कितनी गलत सूचना है?”, “इसकी मात्रा कितनी तेजी से बढ़ रही है?” और “एआई ऐसी समस्याओं में कितना योगदान दे रहा है?” मौजूदा प्रौद्योगिकियां गलत सूचना का पता लगाने के बजाय उसे उत्पन्न करने में बेहतर हैं। काफी तकनीकी नवाचार की आवश्यकता होगी, और बड़े सार्वजनिक लाभ के लिए, लेकिन पर्याप्त रूप से प्रत्यक्ष व्यावसायिक हित हो भी सकता है और नहीं भी – इसलिए IAAI जैसी संस्था द्वारा स्वतंत्र समर्थन की आवश्यकता।

तीसरा, बहुत हालिया उदाहरण लेने के लिए, ऑटोजीपीटी और बेबीएजीआई जैसे नामों वाले सिस्टम तैयार किए गए हैं जो शौकीनों को अविश्वसनीय एआई सिस्टम की जटिल और कठिन-से-डिबग (या यहां तक ​​​​कि थाह) असेंबली बनाने की अनुमति देते हैं जो मनमाने लक्ष्यों को प्राप्त करने के लिए अन्य अविश्वसनीय एआई सिस्टम को नियंत्रित करते हैं। -एक अभ्यास जो सुरक्षित साबित हो भी सकता है और नहीं भी। जैसा कि GOOD.Ai के सीईओ मारेक रोजा ने कहा, हमें “ऐसी दुनिया में सुरक्षा (सक्रिय रक्षा) कैसे बढ़ाई जाए” पर नए तकनीकी विचारों की आवश्यकता है, जहां अरबों एआई एजेंट हैं…ऐप्स और सर्वर में चल रहे हैं, और हम नहीं कर रहे हैं जानिए वे किस बारे में बात कर रहे हैं”, शायद एआई एजेंटों के खिलाफ एक प्रकार के “एंटीवायरस (सॉफ्टवेयर)” की आवश्यकता है। कॉल पर शीर्ष विशेषज्ञों और शोधकर्ताओं के साथ एक वैश्विक गठबंधन ऐसे नए विकास पर त्वरित और विचारशील मार्गदर्शन देने में सक्षम होगा।

जिस प्रकार के वैश्विक सहयोग की हम कल्पना करते हैं उसे डिज़ाइन करना एक बहुत बड़ा काम है। कई हितधारकों को शामिल करने की आवश्यकता है। अल्पकालिक और दीर्घकालिक दोनों जोखिमों पर विचार किया जाना चाहिए। कोई भी समाधान तब तक सफल नहीं होगा जब तक कि सरकारें और कंपनियाँ दोनों साथ न हों, और यह सिर्फ वे ही नहीं हैं: दुनिया की जनता को मेज पर एक सीट की जरूरत है।

सौभाग्य से, ऐसे वैश्विक सहयोग की मिसाल मौजूद है। उदाहरण के लिए, दूसरे विश्व युद्ध के अंत में, परमाणु हथियारों ने गहरी आशंकाओं और अनिश्चितताओं को जन्म दिया कि नई तकनीक का उपयोग कैसे किया जाएगा। प्रतिक्रिया के रूप में, 81 देशों ने सर्वसम्मति से निरीक्षण अधिकारों के साथ “सुरक्षित, संरक्षित और शांतिपूर्ण परमाणु प्रौद्योगिकियों को बढ़ावा देने” के लिए अंतर्राष्ट्रीय परमाणु ऊर्जा एजेंसी के क़ानून को मंजूरी दे दी। प्रवर्तन पर कम ध्यान देने वाला एक अलग, नरम प्रकार का मॉडल, अंतर्राष्ट्रीय नागरिक उड्डयन संगठन है। , जिसमें सदस्य देश अपने स्वयं के कानून बनाते हैं लेकिन एक वैश्विक एजेंसी से परामर्श लेते हैं। सही मॉडल तक पहुंचने और सही विकल्प चुनने में समय, ज्ञान और सहयोग लगेगा।

एआई की चुनौतियाँ और जोखिम, निश्चित रूप से, बहुत अलग हैं और, चिंताजनक हद तक, अभी भी अज्ञात हैं। हम बाद में जानते हैं कि इंटरनेट को अधिक दूरदर्शिता के साथ बेहतर तरीकों से डिज़ाइन किया गया होगा। उदाहरण के लिए, गोपनीयता और गुमनामी को संभालने के तरीके के बारे में पहले के निर्णयों ने यह सुनिश्चित किया होगा कि ट्रोलिंग की संस्कृति कम हो। हम यह भी जानते हैं कि शुरुआती विकल्प तय हो जाते हैं। अब हमारे निर्णयों के दीर्घकालिक परिणाम होने की संभावना है और उन्हें सोच-समझकर लिया जाना चाहिए।

यह देखते हुए कि चीजें कितनी तेजी से आगे बढ़ रही हैं, बर्बाद करने के लिए ज्यादा समय नहीं है। सरकारों, बड़े व्यवसाय और समाज के समर्थन से एक वैश्विक, तटस्थ गैर-लाभकारी संस्था एक महत्वपूर्ण शुरुआत है।

गैरी मार्कस NYU में एमेरिटस प्रोफेसर हैं और उबर द्वारा अधिग्रहित मशीन-लर्निंग कंपनी जियोमेट्रिक इंटेलिजेंस के संस्थापक और सीईओ थे। अनका रूएल स्टैनफोर्ड विश्वविद्यालय में कंप्यूटर विज्ञान में पीएचडी की छात्रा हैं और जिम्मेदार एआई को बढ़ावा देने पर ध्यान केंद्रित करने वाले थिंक-टैंक KIRA की संस्थापक सदस्य हैं।

(टैग्सटूट्रांसलेट)एआई(टी)कृत्रिम बुद्धिमत्ता(टी)एआई को विनियमित करना(टी)कृत्रिम बुद्धिमत्ता नियम(टी)एआई(टी)अंतर्राष्ट्रीय एजेंसी(टी)नियामक निकाय(टी)एआई खतरा(टी)एआई बूम(टी)एआई के लिए एजेंसी विशेषज्ञ(टी)गैरी मार्कस(टी)अंकेरुएल

Leave a comment