Banner Media 2026 LUWU UNGUL BERKARAKTER DAN BERBASIS AGRIBISNIS
Ragam  

Deepfake dan Krisis Percaya di Era Digital

Penulis: Widi Wihartono

Pranata Humas di Kementerian Komunikasi dan Digital (Komdigi) dan mahasiswa S2 Ilmu Komunikasi Universitas Sahid

Seorang guru berusia 42 tahun di sebuah kota besar tengah menikmati waktu istirahat siangnya. Sama seperti kebiasaan kebanyakan orang saat ini, ia kemudian membuka aplikasi WhatsApp untuk melihat pesan-pesan terbaru yang masuk ke telepon selulernya, khususnya pesan di grup keluarga. Gulirannya berhenti pada video yang memperlihatkan seorang pemimpin negara berbicara fasih dalam bahasa Mandarin. Tidak ada penjelasan, tidak ada konteks, apalagi sumber yang jelas. Tanpa berpikir panjang, video itu kemudian diteruskan ke grup arisan, grup sekolah, hingga grup RT.

Kesehariannya, Ia bukan orang yang ceroboh. Ia pun taka da niat menyebarkan informasi palsu. Namun, sebelumnya memang tidak pernah ada yang mengajarinya bahwa mata, indra yang sejak kecil paling ia percaya, kini dapat dikelabui oleh mesin dalam hitungan detik.

Peristiwa semacam itu bukan lagi sekadar skenario hipotetis. Pada akhir 2023 misalny, publik dihebohkan oleh video Presiden ke-7 RI Joko Widodo yang tampak berpidato dalam bahasa Mandarin. Banyak orang percaya, banyak pula yang ikut membagikannya. Beberapa hari kemudian, video tersebut terbukti merupakan hasil rekayasa kecerdasan buatan. Nyaris sempurna.

Karena itu, pertanyaan saat ini bukan lagi apakah hoaks berbasis Artificial Intelligence (AI) atau kecerdasan buatan akan terus bermunculan, tapi seberapa cepat kita mampu berhenti sejenak sebelum jari menekan tombol share.

Besarnya ancaman itu tercermin dari berbagai data yang muncul dalam beberapa tahun terakhir. Tian Wen dan tim penelitinya dalam Humanities and Social Sciences Communications (Nature) pada 2025 mencatat bahwa lebih dari 60 persen populasi dunia telah terhubung ke media sosial pada awal 2024. Di ruang digital sebesar itu, informasi, hiburan, dan disinformasi bergerak dalam arus yang sama.

Mengutip data Sensity AI, Wakil Menteri Komunikasi dan Digital, Nezar Patria mengungkap bahwa peningkatan kasus deepfake bahkan hingga 550 persen sejak 2019. Yang mengkhawatirkan, sekitar 90 persen di antaranya digunakan untuk tujuan merugikan.

Menteri Komunikasi dan Digital Meutya Hafid bahkan menyebut kerugian akibat penipuan berbasis video deepfake dan kloning suara diperkirakan mencapai Rp700 miliar. Pada saat yang sama, Otoritas Jasa Keuangan menerima lebih dari 70 ribu laporan terkait modus serupa.

Besarnya angka tersebut memperlihatkan satu hal penting, bahwa ancaman digital berkembang jauh lebih cepat daripada kemampuan masyarakat untuk mengenalinya.

Pabrik Kebohongan Tanpa Buruh

Disinformasi sebenarnya bukan fenomena baru. Jauh sebelum era internet, pamflet palsu, rumor politik, hingga foto manipulatif telah digunakan untuk memengaruhi opini publik. Namun, kecerdasan buatan mengubah satu hal mendasar: skala produksinya.

Andi Febri Sonni dari Universitas Hasanuddin, dalam kajiannya di Frontiers in Communication pada 2025, menjelaskan bahwa hoaks berbasis AI memiliki karakter yang berbeda dari generasi sebelumnya. Pertama, produksi informasi palsu kini dapat dilakukan secara otomatis. Satu orang saja mampu menciptakan ribuan variasi pesan dalam hitungan menit—sesuatu yang mustahil dilakukan pada era sebelumnya.

Kedua, algoritma media sosial memungkinkan personalisasi konten secara ekstrem. Platform digital secara otomatis menyajikan informasi yang sesuai dengan preferensi pengguna. Akibatnya, seseorang cenderung hanya menerima informasi yang menguatkan keyakinannya sendiri. Ruang gema semacam ini membuat hoaks lebih mudah dipercaya.

Ketiga, AI memungkinkan manipulasi multimodal, yaitu pemalsuan teks, gambar, suara, dan video secara bersamaan. Inilah yang membuat deepfake terasa sangat meyakinkan karena kebohongan hadir dari berbagai arah sekaligus.

Kombinasi ketiga faktor tersebut menjadikan deepfake bukan sekadar teknologi hiburan, melainkan infrastruktur disinformasi baru yang murah, mudah diakses, dan mampu menjangkau audiens dalam skala besar.

Cermin yang Hanya Memantulkan Keyakinan

Ironisnya, di tengah meningkatnya ancaman deepfake, media di Indonesia justru lebih sering membingkai AI sebagai solusi dibandingkan sebagai ancaman. Dalam penelitian lanjutan yang dipublikasikan di Journalism and Media pada 2025, Sonni dan tim menemukan bahwa 76 persen pemberitaan media Indonesia memosisikan AI sebagai jawaban atas persoalan misinformasi.

Namun, optimisme itu tidak sepenuhnya sejalan dengan kesiapan masyarakat. Studi yang sama menunjukkan bahwa hanya sekitar 32 persen responden memiliki tingkat literasi digital yang memadai untuk mengevaluasi konten AI secara kritis.

Kesenjangan inilah yang menjadi pintu masuk utama bagi penyebaran hoaks. Persoalannya bukan karena masyarakat tidak peduli pada kebenaran, melainkan karena banyak orang belum memiliki alat untuk memeriksa informasi secara memadai. Akibatnya, kepercayaan terhadap apa yang dilihat dan didengar justru berubah menjadi kerentanan.

Penelitian Sonni dalam Frontiers in Communication memperlihatkan fakta yang lebih spesifik lagi. Tingkat kepercayaan terhadap konten deepfake mencapai 67 persen di daerah dengan literasi digital rendah, sementara di wilayah dengan literasi digital lebih baik angkanya turun menjadi 42 persen.

Data itu menunjukkan bahwa Indonesia tidak menghadapi persoalan yang seragam. Karena itu, pendekatan literasi digital pun tidak bisa disamaratakan.

Empat Langkah Sebelum Jari Bergerak

Lalu, apa yang bisa dilakukan masyarakat? Menariknya, jawabannya tidak selalu membutuhkan kemampuan teknis yang rumit.

Mike Caulfield, peneliti dari University of Washington’s Center for an Informed Public, memperkenalkan metode verifikasi sederhana bernama SIFT: Stop, Investigate, Find Better Coverage, dan Trace Claims. Metode ini dirancang agar dapat dipraktikkan siapa saja dalam waktu singkat.

Efektivitas pendekatan tersebut diperkuat oleh penelitian Guanxiong Huang dan Bo Hu dalam jurnal Science Communication pada 2025. Mereka menemukan bahwa panduan teknis yang konkret jauh lebih efektif dibandingkan sekadar peringatan umum tentang bahaya hoaks. Masyarakat tidak cukup hanya diingatkan untuk berhati-hati; mereka perlu diajarkan bagaimana caranya memverifikasi.

Dalam konteks Indonesia, langkah pertama adalah berhenti sejenak. Sebelum membagikan informasi, luangkan beberapa detik untuk bertanya: mengapa konten ini memancing emosi begitu kuat? Banyak hoaks sengaja dirancang untuk memicu kemarahan, kepanikan, atau rasa kagum agar cepat menyebar.

Langkah kedua adalah memeriksa sumbernya. Cari tahu siapa yang pertama kali membagikan informasi tersebut. Jangan hanya membaca penjelasan dari akun itu sendiri, tetapi lihat bagaimana sumber lain menilainya.

Langkah ketiga, carilah liputan pembanding. Jika suatu klaim benar dan penting, biasanya media kredibel lain juga akan memberitakannya. Situs cek fakta seperti TurnBackHoax.id dapat menjadi rujukan cepat untuk memeriksa validitas informasi.

Terakhir, telusuri klaim hingga ke sumber aslinya. Banyak hoaks berasal dari foto atau video lama yang digunakan di luar konteks. Layanan seperti Google Reverse Image Search atau InVID WeVerify dapat membantu melacak asal-usul gambar dan video hanya dalam hitungan detik.

Keempat langkah tersebut sebenarnya sederhana. Justru karena kesederhanaannya, metode ini dapat menjadi kebiasaan baru yang efektif dalam kehidupan digital sehari-hari.

Garda yang Tidak Bisa Berdiri Sendiri

Meski demikian, beban verifikasi tidak bisa sepenuhnya dibebankan kepada individu. Aldi Alamsyah dan Aghnia Dian Lestari dari Universitas Swadaya Gunung Jati, dalam penelitian yang terbit di Jurnal Sibatik pada 2026, menunjukkan bahwa banyak pengguna media sosial gagal mengevaluasi informasi visual secara kritis bukan karena berniat jahat, melainkan karena tidak tahu bagaimana cara melakukannya.

Karena itu, ekosistem verifikasi membutuhkan kerja bersama. Masyarakat Anti Fitnah Indonesia (Mafindo), organisasi kemasyarakatan nirlaba dan komunitas relawan di Indonesia yang berfokus pada pemberantasan hoaks serta pemeriksaan fakta, selama ini hadir sebagai garda sipil dalam gerakan cek fakta berbasis komunitas. Di sisi lain, Kementerian Komunikasi dan Digital juga terus memperbarui pendekatan literasi digitalnya.

Dalam Temu Nasional Pegiat Literasi Digital 2025 di Jakarta, Menkomdigi Meutya Hafid menegaskan bahwa imbauan untuk “berinternet secara bijak” tidak lagi cukup menghadapi kompleksitas ancaman digital saat ini. Literasi digital harus berkembang seiring dengan perubahan modus kejahatan berbasis teknologi.

Artinya, tanggung jawab menghadapi disinformasi tidak bisa dibebankan kepada satu pihak saja. Platform teknologi, lembaga pendidikan, komunitas sipil, pemerintah, hingga pengguna internet biasa memiliki peran masing-masing dalam menjaga kesehatan ruang digital.

Dari perspektif warga digital, pertanyaan utamanya bukan lagi apakah produksi deepfake dapat dihentikan sepenuhnya. Kemungkinan besar, itu sulit dilakukan dalam waktu dekat. Pertanyaan yang lebih penting adalah: apakah kita mampu memperlambat penyebarannya cukup lama agar kebenaran memiliki kesempatan untuk menyusul?

Cerdas, Tenang, dan Bersama

Bayangkan kembali kisah guru di atas. Kali ini, ketika menerima video serupa, ia memilih berhenti sejenak. Ia membuka mesin pencari, memeriksa sumber informasi, lalu menemukan bahwa tidak ada media kredibel yang memberitakannya. Akhirnya, ia memutuskan untuk tidak meneruskan pesan tersebut.

Mungkin keputusan itu membuat proses berbagi informasi menjadi sedikit lebih lambat. Namun, justru di situlah letak tanggung jawab sebagai warga digital, menjaga kepercayaan orang lain dengan tidak menyebarkan informasi yang belum terverifikasi.

Pada akhirnya, tantangan terbesar literasi digital bukan sekadar mengajarkan penggunaan alat verifikasi. Tantangan yang lebih besar adalah membangun refleks baru, kebiasaan untuk berhenti sejenak sebelum bereaksi. Sebab, platform digital dirancang untuk mendorong kecepatan berbagi, bukan kedalaman berpikir. Di tengah arus informasi yang bergerak begitu cepat, kemampuan untuk menahan diri justru menjadi bentuk kecerdasan baru.

Teknologi yang menciptakan deepfake dan teknologi yang mendeteksinya pada dasarnya lahir dari sumber yang sama. Yang membedakan keduanya bukanlah algoritma, melainkan manusia yang memilih bagaimana teknologi itu digunakan.

Dan, di antara dua pilihan sederhana membagikan atau memeriksa lebih dulu, sesungguhnya ada perbedaan besar antara ruang informasi yang sehat dan ruang informasi yang dipenuhi kebohongan.

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *