Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

To jest post przetłumaczony przez AI.

Byungchae Ryan Son

Technologia Deepfake a intencje człowieka

  • Język pisania: Koreański
  • Kraj referencyjny: Wszystkie kraje country-flag

Wybierz język

  • Polski
  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Nederlands
  • हिन्दी
  • Magyar

Tekst podsumowany przez sztuczną inteligencję durumis

  • Chiny wprowadziły kompleksowe regulacje ograniczające tworzenie Deepfake, podejmując silniejsze kroki niż Unia Europejska i Stany Zjednoczone, co prawdopodobnie ma na celu stłumienie dysydenckich opinii publicznych związanych z niedawnymi protestami białoksiężycowymi.
  • Technologia Deepfake budzi etyczne kontrowersje, zwłaszcza w przypadku tworzenia treści ukierunkowanych na osoby o dużym wpływie społecznym, co rodzi obawy o możliwość nadużycia.
  • Ważniejsze od regulacji technologii Deepfake jest analizowanie kontekstu tworzenia i rozpowszechniania treści, a także zmiana perspektywy na postrzeganie człowieka z punktu widzenia systemu i rozwiązywanie problemów poprzez programy edukacyjne na poziomie społeczności.

Chiny wprowadziły kompleksowe przepisy ograniczające tworzenie „deepfake'ów”, które weszły w życie 10 dnia tego miesiąca.


Jest to część działań mających na celu powstrzymanie anty-rządowych opinii publicznych powiązanych z niedawnymi protestami białej kartki, stanowiąc interesujący przykład praktycznego zakazu w przeciwieństwie do zaleceń na poziomie doradczym, takich jak w Unii Europejskiej czy Stanach Zjednoczonych, które są opierane na argumencie naruszania wolności słowa. Oczywiście takie działania w Chinach wydają się możliwe dzięki istnieniu systemu cenzury internetowej, znanego jako „Wielki Zapora Ogniowa”, który działa od ponad 20 lat, jednakże presja związana z przestrzeganiem transparentności i ujawnianiem informacji jest ogromna, co rodzi pytania dotyczące rzeczywistej skuteczności zarówno wewnątrz, jak i na zewnątrz.


Technologie związane z deepfake od samego początku podkreślały potrzebę oznaczania treści syntetycznych, jednakże konkretne metody zapewniania tej funkcji pozostawały niejasne. Ponadto, jak mówi przysłowie „internet pamięta”, rozpowszechnianie stworzonej treści jest niezwykle trudne do całkowitego usunięcia. Co więcej, nawet po usunięciu treści, zbiorowa świadomość widzów nie znika, co zostało potwierdzone przez przykład „Głosu kwietnia”, treści krytykującej politykę lockdownu w Szanghaju, która miała wpływ na protesty białej kartki.


Historycznie rzecz biorąc, nie da się powstrzymać wnikania technologii do społeczeństwa. Statystyki wskazują, że 95% filmów deepfake na świecie to treści o charakterze pornograficznym. Fałszywe nagranie z kapitulacją prezydenta Ukrainy w początkowej fazie rosyjskiej inwazji czy też kampanie reklamowe z udziałem Bruce'a Willisa, który cierpi na afazję, są jasnymi przykładami niebezpiecznej rzeczywistości technologii deepfake, mającej wpływ na całe społeczeństwo. Jednakże prawdziwe zagrożenie może tkwić nie w sposobie regulowania tej technologii. W rzeczywistości manipulowanie rzeczywistością jest zawsze możliwe, a skupianie się na najnowszych technologiach prowadzi do ciągłych porażek. Zamiast tego powinniśmy zwrócić uwagę na to, dlaczego tworzone są takie treści i w jaki sposób się rozprzestrzeniają, czyli skoncentrować się na społecznych czynnikach napędzających rozprzestrzenianie się fałszywych narracji.

„Technologia deepfake jest etycznie wątpliwa, ale nie jest z natury zła”.


Adrienne de Ruiter, etyczka i filozofka polityki, w swoich badaniach stwierdziła, że „wypowiedź bez zgody osoby przedstawionej”, „celowe wprowadzanie w błąd widzów” i „szkodliwe intencje” czynią wyniki tej technologii niemoralnymi. Wyjaśniła, że to właśnie intencje twórców i widzów, oddzielone od technologii, czyli ludzie, są obiektami, które należy monitorować. W szczególności treści deepfake ukierunkowane na osoby o dużym wpływie społecznym, takie jak celebryci czy politycy, mogą być trudne do uregulowania w kontekście wyrażania intencji twórców.


Jak więc stworzyć rozwiązania na przyszłość? Można wyróżnić dwa główne kierunki.


Po pierwsze, musimy uznać i zaakceptować fakt, że jesteśmy istotami żyjącymi w świecie kamer i systemów rozpoznawania. Autor tego artykułu, jak i ty, czytający te słowa, spędza większość codziennego życia przed ekranem telefonu komórkowego i laptopa wyposażonego w kamerę.Z punktu widzenia systemu, ludzkie zachowanie jest materiałem dla algorytmów.

Kamery, które monitorują, czy dziecko jest odpowiednio pielęgnowane, istnieją, aby zapewnić idealny związek między rodzicami a opiekunem, ale są też niehumanicznymi podmiotami, które uczą się i wykonują ludzkie intencje, aby ograniczać ludzi. Świadomość, że żyjemy z tymi nowymi podmiotami, może pomóc nam w zarządzaniu i reagowaniu na niemoralne intencje związane z deepfake.


Po drugie, należy tworzyć i rozpowszechniać programy edukacyjne w ramach społeczności. Mamy tendencję do poszukiwania poczucia przynależności w obrębie słabych połączeń w systemie cyfrowym. Jest to związane z brakiem przynależności do grup społecznych, który nasilił się podczas pandemii, i wynika z chęci wiary w to, że jesteśmy połączeni z niewidzialnymi ludźmi poprzez podobne gusta i zainteresowania. Przykładami są ciągłe sprawdzanie TikToka do godziny 2:00 w nocy, częste odwiedzanie Wikipedii, która nie jest znana ze swojej dokładności, ciągłe sprawdzanie historii na Instagramie, a także pomijanie mało interesujących grup rozmów.


Deepfake często stymuluje poczucie przynależności do takich słabych połączeń, ale brak prawdziwego zainteresowania danym podmiotem sprawia, że zmniejszenie wpływu takich treści jest stosunkowo łatwe. Chociaż dla jednostki weryfikacja autentyczności treści deepfake mającej na celu podważenie wiarygodności polityka była trudna, w przypadku partii politycznej projekt, który zweryfikował fałsz, dowodzi, że programy edukacyjne oparte na perspektywie społeczności, wartościach i praktykach mogą stanowić skuteczne rozwiązanie. Oznacza to również, że firmy usługowe oferujące platformy do udostępniania treści deepfake mogą stworzyć strategiczne możliwości poprzez ustalanie i proponowanie unikalnych rozwiązań dla swoich użytkowników.


Istnieją pozytywne przykłady wykorzystania technologii deepfake, takie jak film „Szybcy i wściekli”, w którym zmarłego Paula Walkera zastąpiono jego bratem, wykorzystując jedynie syntetyczną twarz, ale w rzeczywistości mamy do czynienia z przypadkami, w których fałszywe nagrania seksualne, skierowane przeciwko jednej dziennikarce, zrujnowały życie tej osoby.


Warto pamiętać, że aktorzy w branży filmowej są obecnie najlepiej chronionymi ludźmi przed technologią deepfake. Współczesne społeczeństwo nie jest jeszcze w stanie odpowiedzieć na pytanie, jak zareagować, gdy przedmiotem ataku staje się osoba prywatna. Zanim będziemy oczekiwać uregulowań prawnych, pierwszym i najważniejszym krokiem jest budzenie świadomości wśród nas samych, którzy, dla rozrywki, przeglądają treści deepfake na platformach społecznościowych, takich jak TikTok.


*Ten artykuł jest pierwotną wersją artykułu opublikowanego 14 lutego 2023 r. wkolumnie gazety elektronicznej .


Bibliografia

Byungchae Ryan Son
Byungchae Ryan Son
찾아가 관찰하고 경청하는 일을 합니다.
Byungchae Ryan Son
Niejasność w kwestii prywatności cyfrowej Kontrowersje wokół TikToka dotyczące ochrony prywatności ujawniają obawy dotyczące gromadzenia i wykorzystywania danych użytkowników. Firmy muszą reagować na potrzeby użytkowników w zakresie prywatności, zapewniając jasne i zwięzłe polityki prywatności or

10 maja 2024

AI w czasach 'ciała': jak się do niego odnosić Sora, nowa usługa generowania wideo AI firmy OpenAI, tworzy wideo z niesamowitą realistycznością na podstawie tekstu. Filmy demonstracyjne, takie jak osoba jedząca hamburgera czy spacerująca po japońskiej ulicy, wyglądają jak reklama lub sceny z filmu. Je

16 maja 2024

Świat przeniknięty przez generatywną AI: teoria dysharmonii i proces Rozwój technologii generatywnej AI stawia nowe pytania dotyczące konkurencyjności twórców w dziedzinie sztuki, reklamy i mediów. W tym artykule podkreślamy, że twórcy muszą podkreślać bogatą perspektywę rzeczywistego świata i wartość procesu twórczego, ab

9 maja 2024

Generowanie obrazów przez sztuczną inteligencję: rewolucyjna technologia i wyzwania w rzeczywistości Generowanie obrazów przez sztuczną inteligencję to rewolucyjna technologia, która umożliwia tworzenie realistycznych obrazów na podstawie wprowadzonego tekstu. Znajduje zastosowanie w różnych dziedzinach, takich jak sztuka, projektowanie i marketing, ale
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan

6 maja 2024

Ryzyko związane z TikTokiem, czy TikTok jest naprawdę niebezpieczny? Wraz z popularnością TikToka szczegółowo analizujemy czynniki ryzyka związane z korzystaniem z TikToka, takie jak spersonalizowane algorytmy, nieskończone przewijanie, uzależnienie, problemy z prywatnością i bezpieczeństwem oraz zapewniamy wskazówki dotyc
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

13 kwietnia 2024

Nieporozumienia i prawda dotyczące treści tworzonych przez generatywne AI Google wyklucza z wyników wyszukiwania treści niskiej jakości, w tym treści tworzone przez AI. Nawet jeśli korzystasz z AI, jakość treści jest ważna, a proste kopiowanie i wklejanie może być uważane za treści niskiej jakości. Oznacza to, że niezależnie od
durumis official blog
durumis official blog
Ilustracja FAQ durumis
durumis official blog
durumis official blog

21 lutego 2024

[Kolumna Hyung-ju Heo] Zagrożenie wykluczenia TikToka z USA Izba Reprezentantów USA uchwaliła ustawę zakazującą TikToka, co stawia platformę pod znakiem zapytania o przyszłość w Stanach Zjednoczonych. Amerykańscy politycy argumentują, że TikTok stanowi zagrożenie dla bezpieczeństwa narodowego i bezpieczeństwa dany
허영주
허영주
허영주
허영주
허영주

26 czerwca 2024

[Kolumna Hyung-Ju Heo] Dwuwartościowość „krótkich form”, uzależniająca jak narkotyk Uzależnienie od krótkich form, które prowadzi do oglądania przez 34 godziny zamiast 34 minut. Przedstawiamy 3 metody na zdrowe nawyki oglądania. Artykuł opublikowany w „Kobiecym Gazecie Gospodarczej”.
허영주
허영주
허영주
허영주
허영주

14 czerwca 2024

Moja osobista wizja krótkiej przyszłości Sztuczna inteligencja zrewolucjonizuje przyszłość programistów. AI przejmie zadania rutynowe, takie jak tworzenie prototypów czy rozwój stron internetowych, ale utalentowani programiści skupią się na rozwiązywaniu problemów strategicznych i generowaniu in
Mark Ball Blog
Mark Ball Blog
Obrazek przedstawiający wizję przyszłości
Mark Ball Blog
Mark Ball Blog

26 marca 2024