Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

Dit is een door AI vertaalde post.

Byungchae Ryan Son

Deepfake-technologie en menselijke intentie

Selecteer taal

  • Nederlands
  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • हिन्दी
  • Magyar

Samengevat door durumis AI

  • China heeft een uitgebreide regeling ingevoerd die de productie van deepfakes beperkt, waardoor het sterkere maatregelen neemt dan de Europese Unie en de Verenigde Staten, wat waarschijnlijk is gedaan om de recente protesten tegen de regering te onderdrukken.
  • Deepfake-technologie roept ethische controverses op, met name met betrekking tot het potentieel voor misbruik bij het maken van content gericht op personen met aanzienlijke sociale invloed.
  • In plaats van het reguleren van deepfake-technologie is het belangrijker om de context van de productie en verspreiding van content te analyseren, een verschuiving in de perceptie van het beschouwen van de mens vanuit een systeemperspectief en het aanpakken van problemen via gemeenschapsgerichte onderwijsprogramma's.

China heeft vanaf 10 februari een omvattende regeling ingevoerd die de productie van 'deepfakes' beperkt.


Dit is onderdeel van een reeks maatregelen om de anti-regeringsstemming tegen te gaan die verband houdt met de recente protesten met blanco vellen papier. De maatregel is een daadwerkelijke verbodsmaatregel, in tegenstelling tot aanbevelingen die alleen een suggestieve rol spelen, zoals die van de Europese Unie of de Verenigde Staten. Dat maakt deze maatregel interessant, omdat deze gericht is tegen de inbreuk op de vrijheid van meningsuiting. Natuurlijk is het mogelijk dat China dit soort maatregelen kan nemen door het bestaan ​​van de "Great Firewall", een internetcensuursysteem dat al meer dan 20 jaar in gebruik is. Toch zal de vraag naar de effectiviteit ervan, zowel intern als extern, waarschijnlijk voortdurend opkomen, omdat er een enorme druk is om transparantie en naleving van openbaarmaking te garanderen.


Technologieën die te maken hebben met deepfakes hebben al vanaf het begin gezegd dat het nodig is om gecombineerde inhoud te labelen, maar er is geen duidelijk antwoord op de vraag hoe dit te garanderen. Bovendien is het, zoals blijkt uit de uitdrukking dat "het internet voor altijd is", extreem moeilijk om gecreëerde content volledig te wissen als deze eenmaal is verspreid. Bovendien verdwijnt het collectieve bewustzijn van de kijkers niet eens nadat de inhoud is verwijderd. Dat blijkt ook uit het voorbeeld van de "Stemmen van april"-inhoud, die kritiek uitte op het lockdownbeleid in Shanghai, dat een rol speelde in de blanco vellen papier protesten.


Historisch gezien is het onmogelijk om te voorkomen dat technologie in de samenleving doordringt. De statistiek dat 95% van alle deepfake-video's op internet pornografisch van aard is, de nep-overgavevideo van de Oekraïense president in het begin van de Russische invasie, en de deelname van Bruce Willis, die aan spraakverlies lijdt, aan een reclamecampagne, zijn duidelijke voorbeelden van de gevaarlijke realiteit van deepfake-technologie die van invloed is op de hele samenleving. Maar misschien is het niet de manier waarop we deze technologie reguleren waar we ons zorgen over moeten maken. Er zijn altijd nieuwe manieren om de waarheid te vervalsen geweest, en het richten van onze aandacht op de nieuwste technologie is uiteindelijk altijd een verloren spel. In plaats daarvan moeten we ons concentreren op de factoren die de verspreiding van nep-verhalen ondersteunen, en dat wil zeggen: waarom wordt deze content geproduceerd en hoe wordt deze verspreid?

"Deepfake-technologie is moreel twijfelachtig, maar niet intrinsiek verkeerd."


Adrienne de Ruiter, een ethicus en politiek filosoof, heeft in haar onderzoek aangetoond dat 'het uitdrukken van iemand die daar niet mee instemt', 'het opzettelijk misleiden van de kijker' en 'kwaadaardige intenties' de resultaten van deze technologie immoreel maken. Ze heeft aangetoond dat de makers en de kijkers van deze technologie, los van de technologie zelf, degenen zijn die we moeten wantrouwen. Vooral micro-gerichte deepfake-content die gericht is op personen met een relatief grote sociale invloed, zoals entertainers of politici, maakt het moeilijk om de uitingen van de intenties van de makers te reguleren.


Dus hoe moeten we vooruitgang boeken met oplossingen voor deze kwestie? Er zijn twee belangrijke richtingen die kunnen worden bewandeld.


Ten eerste moeten we erkennen en accepteren dat we in een wereld leven van camera's en herkenningssystemen. Zowel de auteur van dit artikel als jij die dit leest, brengt het grootste deel van zijn tijd door voor mobiele telefoons en laptops met ingebouwde camera's.Vanuit het perspectief van het systeem is menselijk gedrag materie voor algoritmen.

Camera's die controleren of een kind goed wordt verzorgd, dienen om een ​​ideale relatie tussen ouders en verzorgers te creëren, maar ze zijn ook niet-menselijke entiteiten die niet-menselijke bedoelingen leren en uitvoeren om mensen te beperken. Het besef dat we samenleven met deze nieuwe entiteiten kan helpen bij het beheren en aanpakken van de immorele intenties die gepaard gaan met deepfakes.


Ten tweede moet er community-based onderwijs over dit onderwerp worden gecreëerd en verspreid. We hebben de neiging om een ​​gevoel van verbondenheid te zoeken binnen zwakke verbindingen in digitale systemen. Dit is gerelateerd aan het gebrek aan een gevoel van verbondenheid met sociale groepen, wat werd versterkt door de pandemie. Mensen willen graag geloven dat ze verbonden zijn met anonieme mensen die ze niet kennen, gebaseerd op hun interesses of smaken. De voortdurende controle van TikTok om 2 uur 's nachts, het frequent bezoeken van Wikipedia, waar men geen nauwkeurigheid verwacht, de voortdurende controle van Instagram-verhalen en het negeren van groepsgesprekken waarin men niet zo geïnteresseerd is, zijn hiervan voorbeelden.


Deepfakes hebben de neiging om een ​​gevoel van verbondenheid te stimuleren, voortkomend uit deze zwakke verbindingen, maar aangezien er geen diepe interesse is in de betrokken personen, is het relatief gemakkelijk om de invloed van deze content te ontmantelen. Het was voor individuen moeilijk om de echtheid van deepfake-content te verifiëren die bedoeld was om het vertrouwen in politici te ondermijnen. Echter, een projectresultaat waarin een politieke partij valse informatie kon onderscheiden, toonde aan dat educatieve programma's die gebaseerd zijn op het perspectief, de waarden en de praktijken van de gemeenschap een effectief alternatief kunnen zijn. Dit betekent ook dat bedrijven die platforms aanbieden waar deepfake-content wordt gedeeld, strategische kansen kunnen creëren door hun gebruikers gerichte community-oplossingen te bieden.


Er zijn voorbeelden van positief gebruik van deepfake-technologie, zoals de film "Fast & Furious", waar de overleden Paul Walker werd tot leven gewekt met behulp van deepfake-technologie op basis van de acteerprestaties van zijn broer. Daarnaast zijn er voorbeelden van deepfake-technologie die negatief wordt ingezet, zoals het geval van een vrouwelijke journalist die het doelwit was van een nep-seksvideo, waardoor haar leven werd geruïneerd. Dit is een realiteit die zich afspeelt in onze samenleving.


We moeten onthouden dat acteurs in de filmindustrie momenteel degenen zijn die het meest beschermd zijn tegen deepfake-technologie. De huidige maatschappij kan nog steeds geen antwoord geven op de vraag hoe we zullen reageren als degenen die het doelwit zijn gewone mensen worden. Voordat we onze hoop vestigen op wettelijke regelgeving, is het belangrijkste eerste stap om bewust te worden van onszelf, die deepfake-content op sociale platforms zoals TikTok voor de lol bekijken.


* Dit artikel is gebaseerd op het originele artikel dat op 14 februari 2023 werd gepubliceerd in deElektronicablad met naam .


Referenties

Byungchae Ryan Son
Byungchae Ryan Son
찾아가 관찰하고 경청하는 일을 합니다.
Byungchae Ryan Son
De onduidelijkheid rond digitale privacy De controverse rond TikTok over privacy-kwesties werpt licht op de zorgen over het verzamelen en gebruiken van gebruikersgegevens. Bedrijven moeten reageren op de eisen van gebruikers voor privacy door privacybeleid duidelijk en eenvoudig te presenteren e

10 mei 2024

De wereld doordrongen door generatieve AI: dissonantietheorie en proces De vooruitgang van generatieve AI-technologie werpt nieuwe vragen op over de concurrentiepositie van makers op het gebied van kunst, reclame en media. Dit artikel benadrukt dat makers in een snel veranderende digitale omgeving een rijk perspectief op de e

9 mei 2024

De veranderende relatie tussen ons en algoritmen De recente vooruitgang in generatieve AI-technologie heeft geleid tot een herdefiniëring van de relatie tussen mens en algoritme. De auteur bespreekt in diepte hoe mensen in het tijdperk van generatieve AI, zoals ChatGPT, met algoritmen moeten omgaan, met

9 mei 2024

Imagegenererende AI, de revolutionaire technologie en de uitdagingen in de praktijk Imagegenererende AI is een revolutionaire technologie die realistische afbeeldingen kan creëren met alleen tekstinvoer. Het wordt gebruikt in verschillende sectoren, zoals kunst, design en marketing, maar er zijn ook nadelen, zoals intellectueel eigendom,
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan

6 mei 2024

Misverstanden en waarheden over door AI gegenereerde tekst Google sluit inhoud van lage kwaliteit, inclusief door AI gegenereerde inhoud, uit van zoekresultaten. Zelfs als u AI gebruikt, is de kwaliteit van de inhoud belangrijk, en simpelweg kopiëren en plakken wordt als lage kwaliteit beschouwd. Met andere woord
durumis official blog
durumis official blog
Durumis FAQ-afbeelding
durumis official blog
durumis official blog

21 februari 2024

[Kolom van Heo Yeong-ju] TikTok staat op het punt om uit de VS te worden verbannen Het Amerikaanse Huis van Afgevaardigden heeft een wetsvoorstel goedgekeurd om TikTok te verbieden, waardoor het bedrijf op het punt staat om uit de VS te worden verbannen. Amerikaanse politici beweren dat TikTok een bedreiging vormt voor de nationale veil
허영주
허영주
허영주
허영주
허영주

26 juni 2024

Zeven dingen om op te letten bij oplichting, voice phishing Nieuwe vormen van cybercriminaliteit, die zelfs AI-technologie gebruiken, duiken op, wat extra voorzichtigheid vereist bij het gebruik van P2P-betalingsdiensten. Er zijn verschillende methoden, zoals phishing, het stelen van accountgegevens, het verkopen
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

30 maart 2024

[Column van Hyung-ju Heo] De dubbele aard van 'shortform', verslavend als drugs Verslaving aan shortform, van 34 minuten naar 34 uur kijken, 3 manieren om gezonde kijkgewoonten te ontwikkelen worden geïntroduceerd. Dit is een artikel dat is gepubliceerd in de Women's Economic Newspaper.
허영주
허영주
허영주
허영주
허영주

14 juni 2024

De gevaren van TikTok, is TikTok echt gevaarlijk? Naast de populariteit van TikTok worden wekelijks zorgen geuit over de gevaren van het gebruik van TikTok. In deze blogpost bekijken we de risico's die gepaard gaan met het gebruik van TikTok, zoals het aangepaste algoritme, oneindig scrollen, verslaving,
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

13 april 2024