Kampus
Mahasiswa
Opini
Pendidikan
Teknologi
Kematian Bukti Visual, Ketika Mata Kita Tak Lagi Bisa Dipercaya
APERO FUBLIC I OPINI.- Dulu, kita punya pepatah lama, “Melihat adalah Percaya.” Namun, pada tahun ini, pepatah tersebut resmi tidak berlaku lagi. Kita telah memasuki era baru di mana rekaman CCTV, foto-foto yang mendokumentasikan kejahatan, dan bahkan rekaman orang-orang yang kita cintai tidak lagi memiliki nilai kebenaran yang mutlak. Saat ini, kita hidup di era “Pasca-Kebenaran,” di mana kecerdasan buatan (AI) telah digunakan secara luas hingga mengikis kepercayaan sosial kita.
“Deepfake." Jika dua tahun lalu, teknologi deepfake hanya dapat digunakan oleh komputer dengan kartu grafis mahal. Hari ini, siapa pun dengan ponsel pintar dapat menggunakannya. Hanya butuh waktu kurang dari satu menit bagi aplikasi AI untuk meniru wajah tokoh publik, membuat mereka mengatakan hal-hal yang tidak pernah mereka ucapkan, atau menempatkan seseorang dalam situasi memalukan yang tidak pernah terjadi.
Dampaknya bukan sekadar lelucon di media sosial. Kita melihat bagaimana hoaks berbasis video AI telah memicu konflik horizontal, menjatuhkan harga saham perusahaan dalam hitungan detik, hingga menghancurkan reputasi seseorang secara permanen sebelum sempat diklarifikasi.
Masyarakat yang Selalu Curiga Sentimen yang muncul di masyarakat saat ini adalah skeptisisme massal. Ketika ada berita benar yang muncul di media sosial, komentar pertama yang sering kita lihat bukan lagi soal isinya, melainkan pertanyaan: “Ini asli atau buatan AI?” Secara subjektif, saya melihat ini sebagai tragedi komunikasi. Kita telah menjadi masyarakat yang terlalu takut untuk percaya.
AI yang seharusnya menjadi alat bantu kreativitas, justru digunakan secara sembarangan oleh oknum yang haus akan validasi, konten viral, hingga kepentingan politik kotor. Akibatnya, kebenaran yang asli pun kini sering dianggap sebagai rekayasa jika isinya tidak sesuai dengan narasi yang diinginkan kelompok tertentu (fenomena liar's dividend).
Siapa yang Harus Bertanggung Jawab? Kita tidak bisa hanya menyalahkan teknologi. Teknologi itu netral; Manusianyalah yang kehilangan kompas moral. Label “Generated by AI," yang sekarang mulai diterapkan di beberapa platform, terasa seperti menempelkan plester kecil pada luka menganga. Label tersebut mudah dihapus, dimodifikasi, atau diabaikan oleh pengguna yang sudah terlanjur emosional. Menyelamatkan Realitas, Lantas, apa yang tersisa bagi kita?.
![]() |
PENULIS : Sulis Meilia Putri |
Di tahun 2026 ini, literasi digital bukan lagi sekadar tips “jangan mudah percaya hoaks." Kita butuh langkah ekstrem, Kembali ke Media Kredibel, Media mainstream yang memiliki proses verifikasi ketat (fakta di lapangan) menjadi benteng terakhir melawan banjir informasi AI.
Verifikasi Berlapis, Jangan pernah membagikan konten emosional sebelum melihat sumber aslinya, minimal dari tiga sumber yang berbeda. Etika Digital, Sudah saatnya ada sanksi sosial dan hukum yang jauh lebih berat bagi mereka yang memproduksi konten AI untuk tujuan disinformasi.
AI telah memberi kita kemampuan untuk menciptakan apa pun yang kita inginkan di dunia. Namun, ironisnya, kemampuan ini justru membuat kita menjadi lebih pasif. Jika kita terus menggunakan AI secara sembarangan tanpa etika, maka pada suatu hari, kejujuran akan menjadi salah satu hal yang paling mudah dibentuk dan tidak berbahaya di dunia. Dalam hal ini, tugas kita tidak lagi sekadar melihat, tetapi harus benar-benar menguji sebelum percaya.
Nama : Sulis Meilia Putri
Mahasiswi Prodi Ilmu Komunikasi Universitas Kebangsaaan Republik Indonesia.
Editor. Tim Redaksi
Sy. Apero Fublic
Via
Kampus

.jpg)
.jpg)

Post a Comment