Tunggu 3.0 detik untuk membaca artikel
Aplikasi Tribun
Satu Aplikasi Jutaan
Cerita
Indonesia
DOWNLOAD NOW!
Tribunners
LIVE ●

Tribunners / Citizen Journalism

Deepfake Asusila dan Krisis Kepercayaan Digital

Deepfake asusila kian marak, wajah dan suara direkayasa, ancam kepercayaan, martabat, serta rasa aman di ruang digital.

Tribun X Baca tanpa iklan
Editor: Glery Lazuardi
zoom-in Deepfake Asusila dan Krisis Kepercayaan Digital
Kolase Tribunnews/FRONTIERSIN.ORG
DEEPFAKE - Teknologi deepfake kian berbahaya, wajah dan suara bisa direkayasa hingga sulit dibedakan dari kenyataan, mengancam martabat manusia di ruang digital. 

Tresnaya Dinda Sairi

Pemerhati Isu Teknologi dan Literasi Digital

Alumni Universitas Amikom Yogyakarta

Kemajuan kecerdasan buatan perlahan mengaburkan batas antara fakta dan rekayasa.

Di ruang digital, wajah dan suara seseorang kini dapat dimanipulasi sedemikian rupa hingga tampak meyakinkan, bahkan ketika peristiwa itu tidak pernah terjadi.

Ketika teknologi deepfake disalahgunakan untuk memproduksi konten asusila, persoalannya tidak lagi berhenti pada kecanggihan teknis, melainkan menyentuh inti kepercayaan, rasa aman, dan martabat manusia di ruang digital.

Dalam dua tahun terakhir, deepfake tidak lagi sekadar istilah teknis di ruang penelitian.

Rekomendasi Untuk Anda

Teknologi ini telah masuk ke ruang paling personal kehidupan digital masyarakat, salah satunya melalui peredaran video asusila palsu di media sosial.

Wajah publik figur hingga warga biasa muncul dalam adegan intim yang tidak pernah mereka lakukan, lengkap dengan suara yang terdengar meyakinkan.

Bagi pengguna awam, konten semacam ini kerap sulit dibedakan dari rekaman peristiwa nyata.

Ilusi Keaslian

Secara teknis, deepfake dimungkinkan oleh perkembangan pesat teknologi video dan audio generatif.

Model kecerdasan buatan dilatih menggunakan jutaan data visual untuk mempelajari struktur wajah, ekspresi, dan gerak tubuh manusia.

Dengan proses tersebut, sistem mampu menciptakan video baru yang tampak realistis. Ketika wajah seseorang ditempelkan ke tubuh orang lain, ilusi keaslian pun tercipta.

Manipulasi juga terjadi pada suara. Teknologi peniruan vokal memungkinkan algoritma meniru intonasi, ritme bicara, hingga jeda napas hanya dari potongan rekaman singkat.

Ketika visual dan suara palsu ini digabungkan, daya tipu konten meningkat secara signifikan.

Halaman 1/3

Tribuners adalah platform jurnalisme warga. Untuk berkontribusi, anda bisa mengirimkan karya dalam bentuk berita, opini, esai, maupun kolom ke email redaksi@tribunnews.com


Konten menjadi tanggungjawab penulis dan tidak mewakili pandangan redaksi tribunnews.com.

Dapatkan Berita Pilihan
di WhatsApp Anda
Klik Di Sini!
Baca WhatsApp Tribunnews
Tribunnews
Ikuti kami di

Kirim Komentar

Isi komentar sepenuhnya adalah tanggung jawab pengguna dan diatur dalam UU ITE.

Berita Populer
Berita Terkini
Atas