ओपनएआई ने ‘राजनीतिक प्रचार, पैरवी’ के लिए अपने एआई के उपयोग को प्रतिबंधित किया

Shyam Kumar

Updated on:

नई दिल्ली: इस साल संयुक्त राज्य अमेरिका, यूनाइटेड किंगडम और भारत जैसे दुनिया के प्रमुख लोकतंत्रों में चुनाव होने वाले हैं। ओपनएआई ने यह सुनिश्चित करने के लिए कई नीतिगत संशोधन लागू किए हैं कि चैटजीपीटी, डीएएलएल-ई और अन्य सहित इसकी जेनरेटिव एआई प्रौद्योगिकियां आगामी चुनावी घटनाओं के दौरान ‘लोकतांत्रिक प्रक्रिया’ की अखंडता के लिए खतरा पैदा न करें।

एक ब्लॉग पोस्ट में, ओपनएआई ने विशेष रूप से प्रमुख लोकतंत्रों में 2024 के चुनावों के दौरान अपने एआई सिस्टम के सुरक्षित विकास और उपयोग को सुनिश्चित करने के उपायों की रूपरेखा तैयार की है। उनके दृष्टिकोण में सटीक मतदान जानकारी को बढ़ावा देकर, जिम्मेदार नीतियों को लागू करने और पारदर्शिता को बढ़ाकर प्लेटफ़ॉर्म सुरक्षा को प्राथमिकता देना शामिल है। इसका उद्देश्य चुनावों को प्रभावित करने में एआई के संभावित दुरुपयोग को रोकना है।

कंपनी संभावित दुरुपयोगों का अनुमान लगाने और उन्हें रोकने के लिए सक्रिय रूप से काम कर रही है, जिसमें भ्रामक “डीपफेक”, बड़े पैमाने पर प्रभाव संचालन और उम्मीदवारों का प्रतिरूपण करने वाले चैटबॉट शामिल हैं। OpenAI राजनीतिक प्रचार और पैरवी के लिए अपनी तकनीक के उपयोग की अनुमति देता है। हालाँकि, कंपनी उन चैटबॉट्स के निर्माण पर प्रतिबंध लगाती है जो उम्मीदवारों या स्थानीय सरकारी प्रतिनिधियों जैसे वास्तविक व्यक्तियों का अनुकरण करते हैं।

सैन फ्रांसिस्को स्थित एआई उन अनुप्रयोगों को अनुमति नहीं देगा जो व्यक्तियों को लोकतांत्रिक प्रक्रिया में शामिल होने से रोकते हैं, जैसे मतदाताओं को हतोत्साहित करना या योग्यता को गलत तरीके से प्रस्तुत करना। OpenAI ने DALL-E द्वारा बनाई गई छवियों की पहचान करने में उपयोगकर्ताओं की सहायता करने के उद्देश्य से एक प्रोवेंस क्लासिफायर पेश करने की योजना का खुलासा किया है। कंपनी ने संकेत दिया है कि यह टूल शुरुआती परीक्षण के लिए जल्द ही जारी किया जाएगा, जिसमें परीक्षकों के शुरुआती समूह में पत्रकार और शोधकर्ता शामिल होंगे।

इस घोषणा से पहले, फेसबुक और इंस्टाग्राम जैसे प्रमुख सोशल मीडिया प्लेटफार्मों के मालिक मेटा ने पहले ही राजनीतिक विज्ञापनों को अपने जेनरेटिव एआई-आधारित विज्ञापन निर्माण टूल का उपयोग करने से रोक दिया था। यह निर्णय इस उभरती हुई प्रौद्योगिकी से जुड़े कथित “संभावित जोखिमों” पर आधारित था।

मेटा ने अपनी वेबसाइट पर एक ब्लॉगपोस्ट में लिखा है, “हमारा मानना ​​है कि यह दृष्टिकोण हमें संभावित जोखिमों को बेहतर ढंग से समझने और विनियमित उद्योगों में संभावित संवेदनशील विषयों से संबंधित विज्ञापनों में जेनरेटिव एआई के उपयोग के लिए सही सुरक्षा उपाय बनाने की अनुमति देगा।”

Leave a Comment