SURABAYA – Kini marak muncul konten manipulasi foto atau video
dengan AI (Artificial Intellegence) yang merugikan pihak tertentu di media sosial.
Seperti di aplikasi X, tidak sedikit orang yang mengakui bahwa dirinya pernah menjadi
korban manipulasi foto, dari foto berbusana menjadi tak berbusana.
Teknik memanipulasi gambar atau video dengan AI sehingga tercipta konten baru yang terlihat
asli dan menyakinkan itu disebut Deepfake. Bagaimana cara kerja dan bahayanya?
Dosen Fakultas Teknologi Maju dan Multidisiplin (FTMM) Universitas Airlangga
(UNAIR) Aziz Fajar SKom MKom menjabarkan bahwa deepfake sebagai salah satu
aplikasi dari model AI yang kerap digunakan untuk mengubah piksel pada gambar.
“Dengan mengubah nilai piksel pada gambar, maka gambar hasil modifikasi akan
berbeda dengan gambar aslinya,” katanya pada 22 Februari 2024.
Kepada UNAIR NEWS, Dosen program studi sains data itu menyampaikan, aplikasi AI
tersebut pun mampu mengubah tampilan wajah. Sehingga banyak disalahgunakan oleh
pihak-pihak tidak bertanggung jawab.
“Deepfake dapat digunakan untuk mengubah wajah seseorang. Sehingga dapat
dimungkinkan pembuatan video atau gambar hoax. Padahal, orang yang menjadi korban
tidak pernah melakukannya,” tuturnya.
Cara Kenali Gambar Hasil Deepfake
Fenomena gambar dan video palsu yang dibuat oleh AI tentu menjadi kekhawatiran
publik, khususnya bagi mereka yang aktif bersosial media. Tidak jarang, korbannya
mengalami stress karena mendapatkan reputasi buruk di lingkungan sosialnya. Terlebih, kini masih banyak masyarakat yang mudah menerima informasi secara ‘mentah’ meski
melalui sumber yang tidak kredibel.
Aziz selaku dosen pengampu mata kuliah Machine Learning menyampaikan bahwa kini
telah tersedia aplikasi yang dapat mendeteksi deepfake. Salah satunya ialah Microsoft’s
Video Authenticator Tools. Aplikasi keluaran Microsoft itu dapat membantu kita untuk
mendeteksi foto dan video palsu yang tersebar.
“Dengan menggunakan software anti deepfake ini, dapat mengetahui foto atau video
tersebut hasil deepfake atau bukan,” tuturnya.
“Walaupun, ada kemungkinan software gagal mendeteksi adanya deepfake,”
tambahnya.
Meski demikian, Aziz menyampaikan bahwa pengembangan AI detector yang lebih
baik setiap harinya sangat diperlukan. Mengingat, deepfake pasti bakal terus
berkembang ke depannya. Bukan hanya itu, suatu konten di masyarakat akan bernilai
berbeda-beda. Karena itu, semuanya tetap bergantung pada para pengguna.
“Pada akhirnya, tergantung pada konsumen media yang ada untuk mau dan mampu
berpikir kritis, mencari tau sumbernya atau langsung percaya begitu saja,”
pungkasnya