![translation](https://cdn.durumis.com/common/trans.png)
Ini adalah postingan yang diterjemahkan oleh AI.
Teknologi Deepfake dan Niat Manusia
- Bahasa penulisan: Bahasa Korea
- •
-
Negara referensi: Semua negara
- •
- TI
Pilih Bahasa
Teks yang dirangkum oleh AI durumis
- Cina telah menerapkan regulasi komprehensif yang membatasi pembuatan deepfake, mengambil tindakan yang lebih kuat daripada Uni Eropa dan Amerika Serikat, yang tampaknya ditujukan untuk menekan sentimen anti-pemerintah terkait protes kertas kosong baru-baru ini.
- Teknologi deepfake memicu perdebatan etika, terutama dalam hal konten yang dibuat untuk tokoh berpengaruh dalam masyarakat, karena menimbulkan kekhawatiran tentang potensi penyalahgunaannya.
- Lebih penting untuk menganalisis latar belakang pembuatan konten dan proses penyebarannya daripada mengatur teknologi deepfake, dan masalah dapat diselesaikan melalui perubahan persepsi dalam memandang manusia dari perspektif sistem dan program pendidikan berbasis komunitas.
Cina telah memberlakukan peraturan komprehensif untuk membatasi pembuatan 'deepfake' sejak 10 hari yang lalu.
Ini adalah bagian dari upaya untuk menghentikan sentimen anti-pemerintah yang terkait dengan protes kertas putih baru-baru ini. Ini menarik karena merupakan tindakan pelarangan yang nyata, berbeda dengan Uni Eropa atau Amerika Serikat yang hanya merekomendasikan tingkat dasar dan didasarkan pada pelanggaran kebebasan pers. Tentu saja, tindakan China ini dimungkinkan oleh sistem sensor internet yang dikenal sebagai Great Firewall yang telah beroperasi selama lebih dari 20 tahun. Namun, tekanan untuk mematuhi transparansi dan pengungkapan informasi sangat besar, sehingga pertanyaan tentang efektivitas internasional dan nasionalnya kemungkinan akan terus muncul.
Teknologi terkait deepfake telah membahas kebutuhan untuk memberi label pada konten sintetis sejak awal, tetapi batasannya terletak pada kurangnya kejelasan tentang cara menjaminnya. Selain itu, seperti yang terungkap dalam ungkapan 'internet itu abadi', hapus konten yang telah dibuat sangat sulit saat konten tersebut menyebar. Lebih lanjut, bahkan setelah konten dihapus, kesadaran kolektif penonton tetap ada, seperti yang ditunjukkan dalam kasus konten 'Suara April' yang mengkritik kebijakan penguncian Shanghai yang memengaruhi protes kertas putih.
Secara historis, tidak mungkin untuk menghentikan teknologi agar tidak meresap ke dalam masyarakat. Statistik menunjukkan bahwa 95% dari video deepfake di seluruh dunia adalah konten dewasa, dan contoh nyata dari risiko teknologi deepfake yang mempengaruhi seluruh masyarakat termasuk video menyerah palsu Presiden Ukraina pada awal invasi Rusia, dan Bruce Willis yang berakting dalam iklan meskipun menderita afasia. Namun, yang mungkin perlu kita waspadai bukanlah cara peraturan teknologi ini. Faktanya, cara baru untuk memanipulasi kebenaran selalu ada dan selalu menjadi permainan kalah untuk selalu fokus pada teknologi terbaru. Sebaliknya, kita harus memperhatikan mengapa konten tersebut dibuat dan bagaimana konten tersebut menyebar, yaitu fokus pada faktor sosial yang mendukung penyebaran narasi palsu.
“Teknologi deepfake memang meragukan secara moral, tetapi pada dasarnya tidak salah.”
Dalam penelitiannya, ahli etika dan filsuf politik Adrienne de Ruiter berpendapat bahwa 'ekspresi tentang orang yang tidak pernah menyetujui', 'tindakan menipu penonton secara sengaja' dan 'niat jahat' menjadikan hasil teknologi ini tidak bermoral. Dia mengklarifikasi bahwa niat manusia, yaitu pembuat dan penonton, yang dipisahkan dari teknologi tersebut, adalah entitas yang perlu diwaspadai. Terutama konten deepfake yang ditargetkan secara mikro terhadap individu dengan pengaruh sosial yang relatif besar seperti selebritas atau politisi, mungkin sulit untuk mengatur ekspresi niat pembuatnya.
Lalu bagaimana alternatif terkait ke depan harus dibuat? Ada dua arah utama yang dapat diajukan.
Pertama, kita harus menyadari dan mengakui bahwa kita adalah makhluk di dunia kamera dan sistem pengenalan. Penulis artikel ini, dan Anda yang membaca artikel ini, menghabiskan sebagian besar kehidupan sehari-hari di depan ponsel dan laptop yang dilengkapi kamera.Dari perspektif sistem, tindakan manusia adalah bahan untuk algoritma.
Kamera yang memeriksa apakah anak dirawat dengan baik ada untuk hubungan ideal antara orang tua dan pengasuh, tetapi juga merupakan subjek non-manusia yang belajar dan menjalankan niat untuk membatasi manusia dari manusia. Kesadaran bahwa kita hidup berdampingan dengan subjek baru ini dapat membantu mengelola dan menanggapi niat tidak bermoral yang terkait dengan deepfake.
Kedua, pendidikan terkait perlu dibuat dan disebarluaskan di tingkat komunitas. Kita cenderung mencari rasa memiliki dalam koneksi yang lemah dalam sistem digital. Ini terkait dengan kurangnya rasa memiliki dari kelompok sosial yang diperkuat oleh pandemi, di mana orang ingin percaya bahwa mereka terhubung dengan orang lain yang tidak terlihat berdasarkan selera atau minat mereka. Contohnya, memeriksa TikTok berulang kali hingga pukul 2 pagi, sering mengakses Wikipedia yang tidak diharapkan akurat, memeriksa cerita Instagram secara berkelanjutan, dan mengabaikan ruang obrolan grup yang tidak terlalu tertarik.
Deepfake cenderung merangsang rasa memiliki dari koneksi yang lemah ini, tetapi karena tidak ada minat yang mendalam pada subjek tersebut, pembongkaran pengaruh konten terkait relatif mudah. Memeriksa keaslian konten deepfake untuk menurunkan kredibilitas politisi mungkin sulit bagi individu, tetapi hasil dari sebuah proyek yang membedakan kebenaran dari kebohongan oleh unit partai menunjukkan bahwa program pendidikan berdasarkan perspektif, nilai, dan praktik komunitas dapat menjadi alternatif yang efektif. Ini berarti bahwa perusahaan layanan platform tempat konten deepfake dibagikan dapat menciptakan peluang strategis dengan membuat dan mengusulkan solusi unik untuk komunitas pengguna.
Ada contoh positif penggunaan teknologi deepfake, seperti film 'Fast and Furious' yang menghidupkan kembali Paul Walker yang meninggal dalam kecelakaan dengan menggabungkan wajahnya di atas tubuh saudara laki-lakinya yang berperan sebagai pengganti. Namun, kasus di mana seorang jurnalis wanita menjadi sasaran video seks palsu yang menghancurkan kehidupan seseorang juga terjadi di dunia nyata.
Penting untuk diingat bahwa aktor dalam industri film saat ini adalah orang yang paling terlindungi dari teknologi deepfake. Masyarakat saat ini belum dapat menjawab bagaimana merespons ketika subjeknya adalah orang biasa. Sebelum ada harapan terhadap regulasi hukum, mungkin langkah pertama yang paling dibutuhkan adalah kesadaran diri kita sendiri terhadap konten deepfake di saluran sosial seperti TikTok yang kita lihat sebagai hiburan.
*Artikel ini adalah salinan asli dariKolom Bernama Elektronik Koran yang diterbitkan pada 14 Februari 2023.
Referensi