News

Bisnis

Super Skor

Sport

Seleb

Lifestyle

Travel

Lifestyle

Tribunners

Video

Tribunners

Kilas Kementerian

Images

Tribunners

Tribuners adalah platform jurnalisme warga. Untuk berkontribusi, anda bisa mengirimkan karya dalam bentuk berita, opini, esai, maupun kolom ke email: redaksi@tribunnews.com.

Konten menjadi tanggungjawab penulis dan tidak mewakili pandangan redaksi tribunnews.com.

Deepfake Asusila dan Krisis Kepercayaan Digital

Editor: Glery Lazuardi
AA

Text Sizes

Medium

Large

Larger

DEEPFAKE - Teknologi deepfake kian berbahaya, wajah dan suara bisa direkayasa hingga sulit dibedakan dari kenyataan, mengancam martabat manusia di ruang digital.

Tresnaya Dinda Sairi

Pemerhati Isu Teknologi dan Literasi Digital

Alumni Universitas Amikom Yogyakarta

Kemajuan kecerdasan buatan perlahan mengaburkan batas antara fakta dan rekayasa.

Di ruang digital, wajah dan suara seseorang kini dapat dimanipulasi sedemikian rupa hingga tampak meyakinkan, bahkan ketika peristiwa itu tidak pernah terjadi.

Ketika teknologi deepfake disalahgunakan untuk memproduksi konten asusila, persoalannya tidak lagi berhenti pada kecanggihan teknis, melainkan menyentuh inti kepercayaan, rasa aman, dan martabat manusia di ruang digital.

Dalam dua tahun terakhir, deepfake tidak lagi sekadar istilah teknis di ruang penelitian.

Teknologi ini telah masuk ke ruang paling personal kehidupan digital masyarakat, salah satunya melalui peredaran video asusila palsu di media sosial.

Wajah publik figur hingga warga biasa muncul dalam adegan intim yang tidak pernah mereka lakukan, lengkap dengan suara yang terdengar meyakinkan.

Bagi pengguna awam, konten semacam ini kerap sulit dibedakan dari rekaman peristiwa nyata.

Ilusi Keaslian

Secara teknis, deepfake dimungkinkan oleh perkembangan pesat teknologi video dan audio generatif.

Model kecerdasan buatan dilatih menggunakan jutaan data visual untuk mempelajari struktur wajah, ekspresi, dan gerak tubuh manusia.

Dengan proses tersebut, sistem mampu menciptakan video baru yang tampak realistis. Ketika wajah seseorang ditempelkan ke tubuh orang lain, ilusi keaslian pun tercipta.

Manipulasi juga terjadi pada suara. Teknologi peniruan vokal memungkinkan algoritma meniru intonasi, ritme bicara, hingga jeda napas hanya dari potongan rekaman singkat.

Ketika visual dan suara palsu ini digabungkan, daya tipu konten meningkat secara signifikan.

Halaman
123
Dapatkan Berita Pilihan
di WhatsApp Anda
Klik Di Sini!

Berita Populer

Berita Terkini