![translation](https://cdn.durumis.com/common/trans.png)
Dit is een door AI vertaalde post.
Deepfake-technologie en menselijke intentie
- Taal van de tekst: Koreaans
- •
-
Referentieland: Alle landen
- •
- Informatietechnologie
Selecteer taal
Samengevat door durumis AI
- China heeft een uitgebreide regeling ingevoerd die de productie van deepfakes beperkt, waardoor het sterkere maatregelen neemt dan de Europese Unie en de Verenigde Staten, wat waarschijnlijk is gedaan om de recente protesten tegen de regering te onderdrukken.
- Deepfake-technologie roept ethische controverses op, met name met betrekking tot het potentieel voor misbruik bij het maken van content gericht op personen met aanzienlijke sociale invloed.
- In plaats van het reguleren van deepfake-technologie is het belangrijker om de context van de productie en verspreiding van content te analyseren, een verschuiving in de perceptie van het beschouwen van de mens vanuit een systeemperspectief en het aanpakken van problemen via gemeenschapsgerichte onderwijsprogramma's.
China heeft vanaf 10 februari een omvattende regeling ingevoerd die de productie van 'deepfakes' beperkt.
Dit is onderdeel van een reeks maatregelen om de anti-regeringsstemming tegen te gaan die verband houdt met de recente protesten met blanco vellen papier. De maatregel is een daadwerkelijke verbodsmaatregel, in tegenstelling tot aanbevelingen die alleen een suggestieve rol spelen, zoals die van de Europese Unie of de Verenigde Staten. Dat maakt deze maatregel interessant, omdat deze gericht is tegen de inbreuk op de vrijheid van meningsuiting. Natuurlijk is het mogelijk dat China dit soort maatregelen kan nemen door het bestaan van de "Great Firewall", een internetcensuursysteem dat al meer dan 20 jaar in gebruik is. Toch zal de vraag naar de effectiviteit ervan, zowel intern als extern, waarschijnlijk voortdurend opkomen, omdat er een enorme druk is om transparantie en naleving van openbaarmaking te garanderen.
Technologieën die te maken hebben met deepfakes hebben al vanaf het begin gezegd dat het nodig is om gecombineerde inhoud te labelen, maar er is geen duidelijk antwoord op de vraag hoe dit te garanderen. Bovendien is het, zoals blijkt uit de uitdrukking dat "het internet voor altijd is", extreem moeilijk om gecreëerde content volledig te wissen als deze eenmaal is verspreid. Bovendien verdwijnt het collectieve bewustzijn van de kijkers niet eens nadat de inhoud is verwijderd. Dat blijkt ook uit het voorbeeld van de "Stemmen van april"-inhoud, die kritiek uitte op het lockdownbeleid in Shanghai, dat een rol speelde in de blanco vellen papier protesten.
Historisch gezien is het onmogelijk om te voorkomen dat technologie in de samenleving doordringt. De statistiek dat 95% van alle deepfake-video's op internet pornografisch van aard is, de nep-overgavevideo van de Oekraïense president in het begin van de Russische invasie, en de deelname van Bruce Willis, die aan spraakverlies lijdt, aan een reclamecampagne, zijn duidelijke voorbeelden van de gevaarlijke realiteit van deepfake-technologie die van invloed is op de hele samenleving. Maar misschien is het niet de manier waarop we deze technologie reguleren waar we ons zorgen over moeten maken. Er zijn altijd nieuwe manieren om de waarheid te vervalsen geweest, en het richten van onze aandacht op de nieuwste technologie is uiteindelijk altijd een verloren spel. In plaats daarvan moeten we ons concentreren op de factoren die de verspreiding van nep-verhalen ondersteunen, en dat wil zeggen: waarom wordt deze content geproduceerd en hoe wordt deze verspreid?
"Deepfake-technologie is moreel twijfelachtig, maar niet intrinsiek verkeerd."
Adrienne de Ruiter, een ethicus en politiek filosoof, heeft in haar onderzoek aangetoond dat 'het uitdrukken van iemand die daar niet mee instemt', 'het opzettelijk misleiden van de kijker' en 'kwaadaardige intenties' de resultaten van deze technologie immoreel maken. Ze heeft aangetoond dat de makers en de kijkers van deze technologie, los van de technologie zelf, degenen zijn die we moeten wantrouwen. Vooral micro-gerichte deepfake-content die gericht is op personen met een relatief grote sociale invloed, zoals entertainers of politici, maakt het moeilijk om de uitingen van de intenties van de makers te reguleren.
Dus hoe moeten we vooruitgang boeken met oplossingen voor deze kwestie? Er zijn twee belangrijke richtingen die kunnen worden bewandeld.
Ten eerste moeten we erkennen en accepteren dat we in een wereld leven van camera's en herkenningssystemen. Zowel de auteur van dit artikel als jij die dit leest, brengt het grootste deel van zijn tijd door voor mobiele telefoons en laptops met ingebouwde camera's.Vanuit het perspectief van het systeem is menselijk gedrag materie voor algoritmen.
Camera's die controleren of een kind goed wordt verzorgd, dienen om een ideale relatie tussen ouders en verzorgers te creëren, maar ze zijn ook niet-menselijke entiteiten die niet-menselijke bedoelingen leren en uitvoeren om mensen te beperken. Het besef dat we samenleven met deze nieuwe entiteiten kan helpen bij het beheren en aanpakken van de immorele intenties die gepaard gaan met deepfakes.
Ten tweede moet er community-based onderwijs over dit onderwerp worden gecreëerd en verspreid. We hebben de neiging om een gevoel van verbondenheid te zoeken binnen zwakke verbindingen in digitale systemen. Dit is gerelateerd aan het gebrek aan een gevoel van verbondenheid met sociale groepen, wat werd versterkt door de pandemie. Mensen willen graag geloven dat ze verbonden zijn met anonieme mensen die ze niet kennen, gebaseerd op hun interesses of smaken. De voortdurende controle van TikTok om 2 uur 's nachts, het frequent bezoeken van Wikipedia, waar men geen nauwkeurigheid verwacht, de voortdurende controle van Instagram-verhalen en het negeren van groepsgesprekken waarin men niet zo geïnteresseerd is, zijn hiervan voorbeelden.
Deepfakes hebben de neiging om een gevoel van verbondenheid te stimuleren, voortkomend uit deze zwakke verbindingen, maar aangezien er geen diepe interesse is in de betrokken personen, is het relatief gemakkelijk om de invloed van deze content te ontmantelen. Het was voor individuen moeilijk om de echtheid van deepfake-content te verifiëren die bedoeld was om het vertrouwen in politici te ondermijnen. Echter, een projectresultaat waarin een politieke partij valse informatie kon onderscheiden, toonde aan dat educatieve programma's die gebaseerd zijn op het perspectief, de waarden en de praktijken van de gemeenschap een effectief alternatief kunnen zijn. Dit betekent ook dat bedrijven die platforms aanbieden waar deepfake-content wordt gedeeld, strategische kansen kunnen creëren door hun gebruikers gerichte community-oplossingen te bieden.
Er zijn voorbeelden van positief gebruik van deepfake-technologie, zoals de film "Fast & Furious", waar de overleden Paul Walker werd tot leven gewekt met behulp van deepfake-technologie op basis van de acteerprestaties van zijn broer. Daarnaast zijn er voorbeelden van deepfake-technologie die negatief wordt ingezet, zoals het geval van een vrouwelijke journalist die het doelwit was van een nep-seksvideo, waardoor haar leven werd geruïneerd. Dit is een realiteit die zich afspeelt in onze samenleving.
We moeten onthouden dat acteurs in de filmindustrie momenteel degenen zijn die het meest beschermd zijn tegen deepfake-technologie. De huidige maatschappij kan nog steeds geen antwoord geven op de vraag hoe we zullen reageren als degenen die het doelwit zijn gewone mensen worden. Voordat we onze hoop vestigen op wettelijke regelgeving, is het belangrijkste eerste stap om bewust te worden van onszelf, die deepfake-content op sociale platforms zoals TikTok voor de lol bekijken.
* Dit artikel is gebaseerd op het originele artikel dat op 14 februari 2023 werd gepubliceerd in deElektronicablad met naam .
Referenties