Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

यह एक AI अनुवादित पोस्ट है।

Byungchae Ryan Son

डीपफेक तकनीक और मानवीय इरादा

  • लेखन भाषा: कोरियाई
  • आधार देश: सभी देश country-flag

भाषा चुनें

  • हिन्दी
  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • Magyar

durumis AI द्वारा संक्षेपित पाठ

  • चीन ने डीपफेक निर्माण को सीमित करने के लिए एक व्यापक विनियमन लागू किया है, यूरोपीय संघ और संयुक्त राज्य अमेरिका से अलग एक मजबूत उपाय, जो हाल ही में खाली शीट विरोध प्रदर्शन से संबंधित विपक्षी राय को दबाने के लिए माना जाता है।
  • डीपफेक तकनीक नैतिक विवाद को जन्म देती है, खासकर जब सामाजिक प्रभाव वाले व्यक्तियों पर केंद्रित सामग्री बनाने की बात आती है, तो इसके दुरुपयोग की संभावना के बारे में चिंताएं जताई गई हैं।
  • डीपफेक तकनीक के नियमन के बजाय, सामग्री निर्माण की पृष्ठभूमि और प्रसार प्रक्रिया का विश्लेषण करना अधिक महत्वपूर्ण है, और सिस्टम के दृष्टिकोण से मानव को देखने के दृष्टिकोण में बदलाव और समुदाय स्तर पर शिक्षा कार्यक्रमों के माध्यम से समस्याओं का समाधान किया जा सकता है।

चीन ने 10 दिनों से 'डीपफेक' निर्माण को सीमित करने वाले व्यापक नियमों को लागू करना शुरू कर दिया है।


यह हाल ही में हुए खाली कागज के विरोध प्रदर्शनों से जुड़े विपक्षी जनमत को रोकने के लिए एक कदम है, जो यूरोपीय संघ या संयुक्त राज्य अमेरिका जैसे देशों के विपरीत है, जो प्रेस की स्वतंत्रता के उल्लंघन के आधार पर सिफारिश के स्तर पर ही बने हुए हैं। यह एक वास्तविक प्रतिबंधात्मक उपाय है। ज़ाहिर है, चीन की यह कार्रवाई पिछले 20 वर्षों से चल रहे इंटरनेट सेंसरशिप सिस्टम के कारण संभव हुई है, जिसे ग्रेट फ़ायरवॉल के रूप में जाना जाता है, लेकिन पारदर्शिता और सूचना प्रकटीकरण के अनुपालन पर दबाव बहुत अधिक है, इसलिए आंतरिक और बाहरी दोनों तरह की प्रभावशीलता पर सवाल उठने की संभावना है।


डीपफेक से संबंधित तकनीक शुरुआत से ही संश्लेषित सामग्री को लेबल करने की आवश्यकता पर बात कर रही है, लेकिन वास्तव में इसे सुनिश्चित करने के तरीके स्पष्ट नहीं हैं। इसके अलावा, जैसे कहा जाता है कि इंटरनेट हमेशा के लिए रहता है, एक बार सामग्री बन जाने के बाद उसे पूरी तरह से हटाना बेहद मुश्किल है। इसके अलावा, सामग्री हटाए जाने के बाद भी दर्शकों की सामूहिक चेतना गायब नहीं होती है, जैसा कि शंघाई लॉकडाउन नीतियों की आलोचना करने वाली 'अप्रैल की आवाज' सामग्री के मामले में देखा गया था, जिसने खाली कागज के विरोध प्रदर्शनों को प्रभावित किया था।


ऐतिहासिक रूप से, प्रौद्योगिकी को समाज में घुसपैठ करने से रोकना असंभव है। दुनिया भर में डीपफेक वीडियो का 95% अश्लील सामग्री होने का आंकड़ा, रूस के आक्रमण की शुरुआत में यूक्रेनी राष्ट्रपति के नकली आत्मसमर्पण वीडियो और ब्रूस विलिस के बोलने में असमर्थ होने के बावजूद एक विज्ञापन में उनकी उपस्थिति, डीपफेक तकनीक के खतरनाक वास्तविक दुनिया के उदाहरण हैं जो पूरे समाज को प्रभावित करते हैं। लेकिन वास्तव में हमें जो सतर्क रहना चाहिए, वह इस तकनीक को नियंत्रित करने का तरीका नहीं हो सकता है। वास्तव में, सच्चाई को हेरफेर करने के नए तरीके हमेशा मौजूद रहे हैं, और हर बार नवीनतम तकनीक पर ध्यान केंद्रित करना अंततः एक हारने वाली खेल बन जाता है। इसके बजाय, हमें इस बात पर ध्यान देना चाहिए कि ऐसे उत्पाद क्यों बनते हैं और कैसे फैलते हैं, यानी सामाजिक कारकों पर जो झूठे कथनों के प्रसार को बढ़ावा देते हैं।

“डीपफेक तकनीक नैतिक रूप से संदिग्ध है, लेकिन स्वाभाविक रूप से गलत नहीं है।”


नैतिकताविद् और राजनीतिक दार्शनिक एड्रिएन डे रुइटर (Adrienne de Ruiter) ने अपने शोध में बताया है कि 'उन लोगों की अभिव्यक्ति जिनसे सहमति नहीं ली गई है', 'दर्शकों को जानबूझकर धोखा देने का कार्य' और 'हानिकारक इरादे' इस तकनीक के परिणाम को अनैतिक बनाते हैं। उन्होंने यह भी बताया है कि यह तकनीक और उससे अलग निर्माता और दर्शक, यानी मानव इरादा ही वह चीज है जिससे हमें सावधान रहना चाहिए। खासकर मनोरंजनकर्ता या राजनेता जैसे सामाजिक प्रभाव वाले लोगों को लक्षित करने वाले माइक्रो-टारगेट डीपफेक सामग्री निर्माता के इरादे की अभिव्यक्ति को नियंत्रित करना मुश्किल हो सकता है।


तो भविष्य में इस संबंध में क्या विकल्प तैयार करने चाहिए? इसे मुख्य रूप से दो दिशाओं में प्रस्तुत किया जा सकता है।


पहला, हमें स्वीकार करना चाहिए कि हम कैमरों और पहचान प्रणालियों की दुनिया में रहते हैं। यह लेख लिखने वाला मैं भी और आप भी जो इस लेख को पढ़ रहे हैं, हम में से ज़्यादातर लोग अपने दिनचर्या का ज़्यादातर समय कैमरों से लैस मोबाइल फ़ोन और लैपटॉप के सामने बिताते हैं।सिस्टम के नजरिए से इंसान का व्यवहार एल्गोरिदम के लिए सामग्री है

जो कैमरा यह देखता है कि बच्चों की अच्छी देखभाल हो रही है या नहीं, वह माता-पिता और नानी-नानी के बीच आदर्श संबंध के लिए मौजूद है, लेकिन यह एक गैर-मानवीय इकाई भी है जो मानव को सीमित करने के इरादे को सीखता है और निष्पादित करता है। इस बात का एहसास कि हम इन नए इकाइयों के साथ रह रहे हैं, डीपफेक से जुड़े अनैतिक इरादों का प्रबंधन और उनका सामना करने में मदद कर सकता है।


दूसरा, समुदाय के स्तर पर संबंधित शिक्षा का निर्माण और प्रसार होना चाहिए। हम एक कमजोर संबंधों वाले डिजिटल ढाँचे के अंदर अपनेपन की तलाश करते हैं। यह महामारी के कारण मजबूत हुए सामाजिक समूहों से अपनेपन की कमी से संबंधित है, जिसमें हम किसी अनदेखे व्यक्ति के साथ जुड़े हुए महसूस करना चाहते हैं, जो हमारे स्वाद या रुचियों के समान है। सुबह 2 बजे तक टिकटॉक की बार-बार जाँच करना, विकिपीडिया पर सटीकता की उम्मीद नहीं करना, इंस्टाग्राम पर लगातार कहानियों की जाँच करना, कम दिलचस्पी वाले समूह चैट की उपेक्षा करना, इसके उदाहरण हैं।


डीपफेक इन कमजोर संबंधों से अपनेपन को उत्तेजित करने का प्रयास करता है, लेकिन यह इस विषय के प्रति गहरी रुचि का अभाव है, जो इस तरह की सामग्री के प्रभाव को कम करना अपेक्षाकृत आसान बनाता है। एक राजनेता की विश्वसनीयता को कम करने के लिए डीपफेक सामग्री की सत्यता की जाँच व्यक्तिगत रूप से मुश्किल हो सकती है, लेकिन एक राजनीतिक दल द्वारा किए गए एक प्रोजेक्ट के नतीजों से पता चलता है कि शिक्षा कार्यक्रम, जो समुदाय के दृष्टिकोण, मूल्यों और प्रथाओं पर आधारित हैं, एक प्रभावी विकल्प हो सकते हैं। इसका मतलब यह है कि डीपफेक सामग्री साझा करने वाले प्लेटफ़ॉर्म सेवा कंपनियां उपयोगकर्ता के लिए विशिष्ट समुदाय प्रतिक्रिया योजनाएँ तैयार कर सकती हैं और उन्हें प्रस्तावित करके रणनीतिक अवसर बना सकती हैं।


'फ्यूरियस 7' जैसी फिल्म, जिसमें दुर्घटना में मरने वाले पॉल वॉकर को अपने भाई के शरीर पर केवल चेहरा मिलाकर वापस लाया गया था, डीपफेक तकनीक के सकारात्मक उपयोग का एक उदाहरण है। दूसरी ओर, एक महिला पत्रकार को निशाना बनाकर बनाई गई नकली यौन संबंधों की वीडियो के कारण एक व्यक्ति का जीवन बर्बाद हो गया है, जो वास्तविक जीवन में भी हो रहा है।


हमें याद रखना चाहिए कि फिल्म उद्योग के अभिनेता वर्तमान में डीपफेक तकनीक से सबसे अधिक सुरक्षित हैं। जब यह आम जनता के लिए हो जाता है, तो वर्तमान समाज अभी तक जवाब नहीं दे पाया है कि क्या संभव है। कानूनी विनियमन की उम्मीद से पहले, टिकटॉक जैसे सोशल चैनलों पर डीपफेक से संबंधित सामग्री को मनोरंजन के रूप में देखने वाले हम स्वयं को जागरूक करने की आवश्यकता है, यह सबसे पहला कदम है।


*यह लेख 14 फरवरी, 2023 को प्रकाशित हुआ थाइलेक्ट्रॉनिक न्यूज़पेपर का नामित कॉलम मूल सामग्री है।


संदर्भ

Byungchae Ryan Son
Byungchae Ryan Son
찾아가 관찰하고 경청하는 일을 합니다.
Byungchae Ryan Son
डिजिटल गोपनीयता की ओर अस्पष्टता टिकटॉक को लेकर निजता की चिंताएं उपयोगकर्ता डेटा संग्रह और उपयोग के बारे में चिंताएं पैदा करती हैं। कंपनियों को उपयोगकर्ताओं की निजता की मांगों का जवाब देने के लिए, निजता नीतियों को स्पष्ट और संक्षिप्त रूप से प्रदान करना चाहिए, और उपयोगकर्ताओं को अपनी निजत

10 मई 2024

AI युग में 'शरीर': सेक्सी अपील एक कारगर रणनीति है? ऊपर सोशल मीडिया पर AI-आधारित कपड़े उतारने वाले ऐप के फैलाव के साथ, व्यक्तिगत यौन उत्तेजना की खोज दूसरे के जीवन में फैल रही है, और यह एक विश्लेषण प्रदान करता है कि यौन अपील की भूमिका कैसे बदल रही है। जबकि यौन अपील व्यक्तिगत क्षेत्र में कम होती जा रही है, यह जन

16 मई 2024

मानव घटना, कॉर्पोरेट निर्णयों का आधार बनना -1 जब कोई कंपनी नए विकास के लिए निवेश का निर्णय लेती है, तो मानव पूर्वाग्रह जैसे स्थिति-स्थिरता पूर्वाग्रह, बैंडवैगन प्रभाव, पुष्टिकरण पूर्वाग्रह, एंकरिंग प्रभाव और विश्वास पूर्वाग्रह के कारण गलत चुनाव हो सकता है। इससे कंपनी को नए अवसरों को गंवाना पड़ सकता ह

7 मई 2024

टिकटॉक खतरा, क्या टिकटॉक वास्तव में खतरनाक है? टिकटॉक की लोकप्रियता के साथ, हम टिकटॉक के उपयोग से जुड़े जोखिम कारकों पर गौर करते हैं जैसे कि उपयोगकर्ता-अनुकूलित एल्गोरिथम, अनंत स्क्रॉल, व्यसन, गोपनीयता और सुरक्षा समस्याएं। हम सुरक्षित उपयोग के लिए सुझाव प्रदान करते हैं। टिकटॉक का उपयोग करते समय होने व
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

13 अप्रैल 2024

मेरा 'फैन' होना पर्यावरण को नष्ट कर रहा है? के-पॉप उद्योग की छाया के-पॉप प्रशंसक अपने पसंदीदा आइडल के फोटोकार्ड एकत्र करने के लिए कई एल्बम खरीदने की 'एल्बम कंग' संस्कृति में डूबे हुए हैं। हालाँकि, यह प्रशंसकों पर आर्थिक बोझ डालता है और पर्यावरण प्रदूषण की समस्या पैदा करता है। के-पॉप मनोरंजन को प्रशंसकों पर बोझ डाले बिना
오리온자리
오리온자리
오리온자리
오리온자리
오리온자리

7 फ़रवरी 2024

धोखाधड़ी के तरीके, वॉयस फिशिंग से सावधान रहें AI तकनीक का उपयोग करके नए प्रकार के साइबर अपराध सामने आ रहे हैं, इसलिए P2P भुगतान सेवाओं का उपयोग करते समय विशेष सावधानी बरतने की आवश्यकता है। फ़िशिंग, खाता जानकारी चोरी, नकली उत्पादों की बिक्री जैसे विभिन्न तरीके मौजूद हैं, और विशेष रूप से सोशल मीडिया के
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

30 मार्च 2024

चीन की अधिक उत्पादन समस्या और आर्थिक परिवेश परिवर्तन के जवाब में चीन की अर्थव्यवस्था अधिक उत्पादन, आवास बाजार में मंदी, मुद्रास्फीति आदि कई समस्याओं का सामना कर रही है, लेकिन यह अनुमान है कि 2022 के अंत तक अर्थव्यवस्था कुछ हद तक ठीक होने लगेगी। हालांकि, दीर्घकालिक, टिकाऊ विकास के लिए, आर्थिक संरचना में सुधार आवश्यक है।
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan

6 मई 2024

छवि निर्माण AI, इसकी क्रांतिकारी तकनीक और वास्तविक दुनिया की चुनौतियाँ छवि निर्माण AI एक क्रांतिकारी तकनीक है जो केवल टेक्स्ट इनपुट के साथ यथार्थवादी छवियां बनाती है। इसका उपयोग कला, डिजाइन, मार्केटिंग जैसे विभिन्न क्षेत्रों में किया जाता है, लेकिन बौद्धिक संपदा अधिकार, पूर्वाग्रह, नकली छवि निर्माण जैसी समस्याएं भी हैं। इस त
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan

6 मई 2024

[ESG प्रबंधन कॉलम] रोबोटिक उद्योग का विकास ··· पर्यावरण, समाज, शासन बिग डेटा विश्लेषण के माध्यम से, रोबोटिक प्रौद्योगिकी के ESG प्रबंधन लक्ष्यों की प्राप्ति पर प्रभाव का विश्लेषण किया गया है, और रोबोटिक उद्योग के विकास और ESG प्रबंधन के संलयन से कंपनियों के लिए एक टिकाऊ भविष्य के लिए अभिनव समाधान प्रदान करते हैं।
NEWS FDN (다큐)
NEWS FDN (다큐)
[ESG प्रबंधन कॉलम] रोबोटिक उद्योग का विकास ··· पर्यावरण, समाज, शासन
NEWS FDN (다큐)
NEWS FDN (다큐)

11 अप्रैल 2024