ओपनएआई ने ‘राजनीतिक प्रचार, पैरवी’ के लिए अपने एआई के उपयोग को प्रतिबंधित किया

नई दिल्ली: इस साल संयुक्त राज्य अमेरिका, यूनाइटेड किंगडम और भारत जैसे दुनिया के प्रमुख लोकतंत्रों में चुनाव होने वाले हैं। ओपनएआई ने यह सुनिश्चित करने के लिए कई नीतिगत संशोधन लागू किए हैं कि चैटजीपीटी, डीएएलएल-ई और अन्य सहित इसकी जेनरेटिव एआई प्रौद्योगिकियां आगामी चुनावी घटनाओं के दौरान ‘लोकतांत्रिक प्रक्रिया’ की अखंडता के लिए खतरा पैदा न करें।

एक ब्लॉग पोस्ट में, ओपनएआई ने विशेष रूप से प्रमुख लोकतंत्रों में 2024 के चुनावों के दौरान अपने एआई सिस्टम के सुरक्षित विकास और उपयोग को सुनिश्चित करने के उपायों की रूपरेखा तैयार की है। उनके दृष्टिकोण में सटीक मतदान जानकारी को बढ़ावा देकर, जिम्मेदार नीतियों को लागू करने और पारदर्शिता को बढ़ाकर प्लेटफ़ॉर्म सुरक्षा को प्राथमिकता देना शामिल है। इसका उद्देश्य चुनावों को प्रभावित करने में एआई के संभावित दुरुपयोग को रोकना है।

कंपनी संभावित दुरुपयोगों का अनुमान लगाने और उन्हें रोकने के लिए सक्रिय रूप से काम कर रही है, जिसमें भ्रामक “डीपफेक”, बड़े पैमाने पर प्रभाव संचालन और उम्मीदवारों का प्रतिरूपण करने वाले चैटबॉट शामिल हैं। OpenAI राजनीतिक प्रचार और पैरवी के लिए अपनी तकनीक के उपयोग की अनुमति देता है। हालाँकि, कंपनी उन चैटबॉट्स के निर्माण पर प्रतिबंध लगाती है जो उम्मीदवारों या स्थानीय सरकारी प्रतिनिधियों जैसे वास्तविक व्यक्तियों का अनुकरण करते हैं।

सैन फ्रांसिस्को स्थित एआई उन अनुप्रयोगों को अनुमति नहीं देगा जो व्यक्तियों को लोकतांत्रिक प्रक्रिया में शामिल होने से रोकते हैं, जैसे मतदाताओं को हतोत्साहित करना या योग्यता को गलत तरीके से प्रस्तुत करना। OpenAI ने DALL-E द्वारा बनाई गई छवियों की पहचान करने में उपयोगकर्ताओं की सहायता करने के उद्देश्य से एक प्रोवेंस क्लासिफायर पेश करने की योजना का खुलासा किया है। कंपनी ने संकेत दिया है कि यह टूल शुरुआती परीक्षण के लिए जल्द ही जारी किया जाएगा, जिसमें परीक्षकों के शुरुआती समूह में पत्रकार और शोधकर्ता शामिल होंगे।

इस घोषणा से पहले, फेसबुक और इंस्टाग्राम जैसे प्रमुख सोशल मीडिया प्लेटफार्मों के मालिक मेटा ने पहले ही राजनीतिक विज्ञापनों को अपने जेनरेटिव एआई-आधारित विज्ञापन निर्माण टूल का उपयोग करने से रोक दिया था। यह निर्णय इस उभरती हुई प्रौद्योगिकी से जुड़े कथित “संभावित जोखिमों” पर आधारित था।

मेटा ने अपनी वेबसाइट पर एक ब्लॉगपोस्ट में लिखा है, “हमारा मानना ​​है कि यह दृष्टिकोण हमें संभावित जोखिमों को बेहतर ढंग से समझने और विनियमित उद्योगों में संभावित संवेदनशील विषयों से संबंधित विज्ञापनों में जेनरेटिव एआई के उपयोग के लिए सही सुरक्षा उपाय बनाने की अनुमति देगा।”

Leave a Comment