![translation](https://cdn.durumis.com/common/trans.png)
Questo è un post tradotto da IA.
Tecnologia Deepfake e intenzioni umane
- Lingua di scrittura: Coreana
- •
-
Paese di riferimento: Tutti i paesi
- •
- Tecnologia dell'informazione
Seleziona la lingua
Testo riassunto dall'intelligenza artificiale durumis
- La Cina ha attuato una regolamentazione completa che limita la creazione di Deepfake, adottando misure più severe rispetto all'Unione Europea e agli Stati Uniti. Questo sembra essere un tentativo di reprimere le opinioni anti-establishment collegate alle recenti proteste del foglio bianco.
- La tecnologia Deepfake solleva questioni etiche, in particolare quando si tratta di contenuti creati con persone di spicco con un impatto sociale significativo, poiché sussistono preoccupazioni riguardo al possibile abuso.
- È più importante analizzare il contesto di creazione e la diffusione dei contenuti rispetto a regolamentare la tecnologia Deepfake. È possibile affrontare il problema attraverso un cambiamento di mentalità che consideri gli esseri umani dal punto di vista del sistema e attraverso programmi educativi a livello di comunità.
La Cina ha implementato regolamenti completi per limitare la creazione di "deepfake" a partire dal 10 di questo mese.
Questo fa parte di una serie di misure per prevenire le opinioni contro il regime collegate alle recenti proteste del foglio bianco, ed è interessante perché si tratta di una misura di divieto effettiva, a differenza dell'Unione Europea o degli Stati Uniti, dove tali misure sono rimaste a livello di raccomandazioni sulla base di argomentazioni come la violazione della libertà di stampa. Certo, questa misura della Cina è possibile grazie al sistema di censura di Internet, chiamato Great Firewall, che opera da oltre 20 anni. Tuttavia, il peso del rispetto della trasparenza e della divulgazione delle informazioni è enorme, quindi è probabile che la questione dell'efficacia interna ed esterna continui a essere sollevata.
Le tecnologie legate ai deepfake hanno fin dall'inizio sostenuto la necessità di etichettare i contenuti sintetici, ma è chiaro che il modo per garantire ciò è incerto. Inoltre, come dice l'espressione "Internet è per sempre", è estremamente difficile cancellare i contenuti creati una volta diffusi. Inoltre, anche dopo la cancellazione dei contenuti, la coscienza collettiva degli spettatori non scompare, come dimostra il caso dei contenuti "Voci di aprile" che hanno criticato le politiche di blocco di Shanghai e hanno influenzato le proteste del foglio bianco.
Storicamente, è impossibile fermare la diffusione della tecnologia nella società. Le statistiche secondo cui il 95% dei video deepfake nel mondo è pornografico, il falso video di resa del presidente ucraino all'inizio dell'invasione russa e l'apparizione di Bruce Willis in un annuncio nonostante la sua afasia sono chiare esempi concreti dei pericoli della tecnologia deepfake che influenzano l'intera società. Tuttavia, ciò che dovremmo davvero temere potrebbe non essere il modo in cui la tecnologia viene regolamentata. I nuovi metodi per manipolare la realtà sono sempre esistiti, e concentrarsi sempre sulle tecnologie più recenti è un gioco che perdiamo sempre. Piuttosto, dobbiamo concentrarci sul perché questi prodotti vengono creati e come vengono diffusi, ovvero sugli aspetti sociali che sostengono la diffusione di narrazioni false.
"La tecnologia deepfake è moralmente discutibile, ma non è intrinsecamente sbagliata."
La filosofa politica ed etica Adrienne de Ruiter ha sostenuto nella sua ricerca che "l'espressione di persone che non hanno dato il loro consenso", "l'atto di ingannare deliberatamente gli spettatori" e "l'intento dannoso" sono ciò che rende immorali i risultati di questa tecnologia. Ha dimostrato che l'intento umano, sia del creatore che dello spettatore, è ciò che deve essere evitato, separato dalla tecnologia stessa. In particolare, i contenuti deepfake mirati a un pubblico ristretto, come celebrità o politici, che hanno un impatto sociale relativamente elevato, sono difficili da regolamentare in termini di espressione degli intenti dei creatori.
Quindi, come dovremmo costruire delle soluzioni per il futuro? Ci sono due possibili direzioni.
Primo, dobbiamo riconoscere e accettare che esistiamo nel mondo delle telecamere e dei sistemi di riconoscimento. Sia io che scrivo questo articolo, sia voi che lo leggete, trascorriamo la maggior parte delle nostre giornate davanti a telefoni cellulari e laptop dotati di telecamera.Dal punto di vista del sistema, il comportamento umano è una sostanza per gli algoritmi.
Le telecamere che monitorano se i bambini sono ben accuditi esistono per favorire una relazione ideale tra genitori e baby-sitter, ma sono anche entità non umane che imparano ed eseguono l'intento di limitare gli umani. La consapevolezza di coesistere con questi nuovi enti può aiutare a gestire e contrastare gli intenti immorali legati ai deepfake.
Secondo, è necessario creare e diffondere l'istruzione su questo tema a livello di comunità. Tendiamo a cercare appartenenza all'interno di connessioni deboli all'interno del sistema digitale. Questo è legato alla mancanza di senso di appartenenza dai gruppi sociali rafforzata dalla pandemia, che ci fa desiderare di sentirci connessi a qualcuno di invisibile attraverso gusti o interessi. Il controllo costante di TikTok fino alle 2 del mattino, la frequente consultazione di Wikipedia senza aspettarsi precisione, il costante controllo delle storie su Instagram, l'abbandono delle chat di gruppo a cui si è meno interessati sono esempi di questo fenomeno.
I deepfake tendono a stimolare il senso di appartenenza da queste connessioni deboli, ma poiché non c'è un profondo interesse per l'oggetto in questione, è relativamente facile dissolvere l'influenza di questi contenuti. È stato difficile per gli individui verificare l'autenticità dei contenuti deepfake che cercano di screditare la credibilità di un politico, ma i risultati di un progetto in cui un partito è riuscito a distinguere il falso hanno dimostrato che un programma educativo basato sulla prospettiva, i valori e le pratiche della comunità può essere una soluzione efficace. Ciò significa anche che le aziende che forniscono servizi di piattaforma per la condivisione di contenuti deepfake possono creare opportunità strategiche elaborando e proponendo risposte uniche alla comunità degli utenti.
Esiste un caso positivo dell'utilizzo della tecnologia deepfake, come il film "Fast and Furious", in cui l'attore Paul Walker, morto in un incidente, è stato riportato in vita utilizzando il suo fratello come controfigura e sostituendo solo il suo viso. Tuttavia, eventi reali come il video falso di un rapporto sessuale con una giornalista donna, che ha rovinato la vita di una persona, stanno avvenendo nel mondo reale.
È importante ricordare che gli attori dell'industria cinematografica sono attualmente le persone più protette dalla tecnologia deepfake. La società attuale non è ancora in grado di rispondere alla domanda su come affrontare questo problema quando le vittime sono persone comuni. Potrebbe essere che la consapevolezza di noi stessi, che controlliamo i contenuti deepfake sui social media come TikTok per puro divertimento, sia il primo passo necessario prima di aspettarci una regolamentazione legale.
* Questo articolo è la versione originale dell'articolo pubblicato il 14 febbraio 2023 sucolonna di opinione firmata di E-daily .
Riferimenti