![translation](https://cdn.durumis.com/common/trans.png)
To jest post przetłumaczony przez AI.
Technologia Deepfake a intencje człowieka
- Język pisania: Koreański
- •
-
Kraj referencyjny: Wszystkie kraje
- •
- TO
Wybierz język
Tekst podsumowany przez sztuczną inteligencję durumis
- Chiny wprowadziły kompleksowe regulacje ograniczające tworzenie Deepfake, podejmując silniejsze kroki niż Unia Europejska i Stany Zjednoczone, co prawdopodobnie ma na celu stłumienie dysydenckich opinii publicznych związanych z niedawnymi protestami białoksiężycowymi.
- Technologia Deepfake budzi etyczne kontrowersje, zwłaszcza w przypadku tworzenia treści ukierunkowanych na osoby o dużym wpływie społecznym, co rodzi obawy o możliwość nadużycia.
- Ważniejsze od regulacji technologii Deepfake jest analizowanie kontekstu tworzenia i rozpowszechniania treści, a także zmiana perspektywy na postrzeganie człowieka z punktu widzenia systemu i rozwiązywanie problemów poprzez programy edukacyjne na poziomie społeczności.
Chiny wprowadziły kompleksowe przepisy ograniczające tworzenie „deepfake'ów”, które weszły w życie 10 dnia tego miesiąca.
Jest to część działań mających na celu powstrzymanie anty-rządowych opinii publicznych powiązanych z niedawnymi protestami białej kartki, stanowiąc interesujący przykład praktycznego zakazu w przeciwieństwie do zaleceń na poziomie doradczym, takich jak w Unii Europejskiej czy Stanach Zjednoczonych, które są opierane na argumencie naruszania wolności słowa. Oczywiście takie działania w Chinach wydają się możliwe dzięki istnieniu systemu cenzury internetowej, znanego jako „Wielki Zapora Ogniowa”, który działa od ponad 20 lat, jednakże presja związana z przestrzeganiem transparentności i ujawnianiem informacji jest ogromna, co rodzi pytania dotyczące rzeczywistej skuteczności zarówno wewnątrz, jak i na zewnątrz.
Technologie związane z deepfake od samego początku podkreślały potrzebę oznaczania treści syntetycznych, jednakże konkretne metody zapewniania tej funkcji pozostawały niejasne. Ponadto, jak mówi przysłowie „internet pamięta”, rozpowszechnianie stworzonej treści jest niezwykle trudne do całkowitego usunięcia. Co więcej, nawet po usunięciu treści, zbiorowa świadomość widzów nie znika, co zostało potwierdzone przez przykład „Głosu kwietnia”, treści krytykującej politykę lockdownu w Szanghaju, która miała wpływ na protesty białej kartki.
Historycznie rzecz biorąc, nie da się powstrzymać wnikania technologii do społeczeństwa. Statystyki wskazują, że 95% filmów deepfake na świecie to treści o charakterze pornograficznym. Fałszywe nagranie z kapitulacją prezydenta Ukrainy w początkowej fazie rosyjskiej inwazji czy też kampanie reklamowe z udziałem Bruce'a Willisa, który cierpi na afazję, są jasnymi przykładami niebezpiecznej rzeczywistości technologii deepfake, mającej wpływ na całe społeczeństwo. Jednakże prawdziwe zagrożenie może tkwić nie w sposobie regulowania tej technologii. W rzeczywistości manipulowanie rzeczywistością jest zawsze możliwe, a skupianie się na najnowszych technologiach prowadzi do ciągłych porażek. Zamiast tego powinniśmy zwrócić uwagę na to, dlaczego tworzone są takie treści i w jaki sposób się rozprzestrzeniają, czyli skoncentrować się na społecznych czynnikach napędzających rozprzestrzenianie się fałszywych narracji.
„Technologia deepfake jest etycznie wątpliwa, ale nie jest z natury zła”.
Adrienne de Ruiter, etyczka i filozofka polityki, w swoich badaniach stwierdziła, że „wypowiedź bez zgody osoby przedstawionej”, „celowe wprowadzanie w błąd widzów” i „szkodliwe intencje” czynią wyniki tej technologii niemoralnymi. Wyjaśniła, że to właśnie intencje twórców i widzów, oddzielone od technologii, czyli ludzie, są obiektami, które należy monitorować. W szczególności treści deepfake ukierunkowane na osoby o dużym wpływie społecznym, takie jak celebryci czy politycy, mogą być trudne do uregulowania w kontekście wyrażania intencji twórców.
Jak więc stworzyć rozwiązania na przyszłość? Można wyróżnić dwa główne kierunki.
Po pierwsze, musimy uznać i zaakceptować fakt, że jesteśmy istotami żyjącymi w świecie kamer i systemów rozpoznawania. Autor tego artykułu, jak i ty, czytający te słowa, spędza większość codziennego życia przed ekranem telefonu komórkowego i laptopa wyposażonego w kamerę.Z punktu widzenia systemu, ludzkie zachowanie jest materiałem dla algorytmów.
Kamery, które monitorują, czy dziecko jest odpowiednio pielęgnowane, istnieją, aby zapewnić idealny związek między rodzicami a opiekunem, ale są też niehumanicznymi podmiotami, które uczą się i wykonują ludzkie intencje, aby ograniczać ludzi. Świadomość, że żyjemy z tymi nowymi podmiotami, może pomóc nam w zarządzaniu i reagowaniu na niemoralne intencje związane z deepfake.
Po drugie, należy tworzyć i rozpowszechniać programy edukacyjne w ramach społeczności. Mamy tendencję do poszukiwania poczucia przynależności w obrębie słabych połączeń w systemie cyfrowym. Jest to związane z brakiem przynależności do grup społecznych, który nasilił się podczas pandemii, i wynika z chęci wiary w to, że jesteśmy połączeni z niewidzialnymi ludźmi poprzez podobne gusta i zainteresowania. Przykładami są ciągłe sprawdzanie TikToka do godziny 2:00 w nocy, częste odwiedzanie Wikipedii, która nie jest znana ze swojej dokładności, ciągłe sprawdzanie historii na Instagramie, a także pomijanie mało interesujących grup rozmów.
Deepfake często stymuluje poczucie przynależności do takich słabych połączeń, ale brak prawdziwego zainteresowania danym podmiotem sprawia, że zmniejszenie wpływu takich treści jest stosunkowo łatwe. Chociaż dla jednostki weryfikacja autentyczności treści deepfake mającej na celu podważenie wiarygodności polityka była trudna, w przypadku partii politycznej projekt, który zweryfikował fałsz, dowodzi, że programy edukacyjne oparte na perspektywie społeczności, wartościach i praktykach mogą stanowić skuteczne rozwiązanie. Oznacza to również, że firmy usługowe oferujące platformy do udostępniania treści deepfake mogą stworzyć strategiczne możliwości poprzez ustalanie i proponowanie unikalnych rozwiązań dla swoich użytkowników.
Istnieją pozytywne przykłady wykorzystania technologii deepfake, takie jak film „Szybcy i wściekli”, w którym zmarłego Paula Walkera zastąpiono jego bratem, wykorzystując jedynie syntetyczną twarz, ale w rzeczywistości mamy do czynienia z przypadkami, w których fałszywe nagrania seksualne, skierowane przeciwko jednej dziennikarce, zrujnowały życie tej osoby.
Warto pamiętać, że aktorzy w branży filmowej są obecnie najlepiej chronionymi ludźmi przed technologią deepfake. Współczesne społeczeństwo nie jest jeszcze w stanie odpowiedzieć na pytanie, jak zareagować, gdy przedmiotem ataku staje się osoba prywatna. Zanim będziemy oczekiwać uregulowań prawnych, pierwszym i najważniejszym krokiem jest budzenie świadomości wśród nas samych, którzy, dla rozrywki, przeglądają treści deepfake na platformach społecznościowych, takich jak TikTok.
*Ten artykuł jest pierwotną wersją artykułu opublikowanego 14 lutego 2023 r. wkolumnie gazety elektronicznej .
Bibliografia