Ada AI yang Bisa Manipulasi Foto, Begini Cara Kerjanya!

  • Whatsapp

SURABAYA, Beritalima.com|
Kini marak muncul konten manipulasi foto atau video dengan AI (Artificial Intellegence) yang merugikan pihak tertentu di media sosial. Seperti di aplikasi X, tidak sedikit orang yang mengakui bahwa dirinya pernah menjadi korban manipulasi foto, dari foto berbusana menjadi tak berbusana.

Teknik memanipulasi gambar atau video dengan AI sehingga tercipta konten baru yang terlihat asli dan menyakinkan itu disebut Deepfake. Bagaimana cara kerja dan bahayanya?

Dosen Fakultas Teknologi Maju dan Multidisiplin (FTMM) Universitas Airlangga (Unair) Aziz Fajar SKom MKom menjabarkan bahwa deepfake sebagai salah satu aplikasi dari model AI yang kerap digunakan untuk mengubah piksel pada gambar.

“Dengan mengubah nilai piksel pada gambar, maka gambar hasil modifikasi akan berbeda dengan gambar aslinya,” katanya.

Dosen program studi sains data itu menyampaikan, aplikasi AI tersebut pun mampu mengubah tampilan wajah. Sehingga banyak disalahgunakan oleh pihak-pihak tidak bertanggung jawab.

“Deepfake dapat digunakan untuk mengubah wajah seseorang. Sehingga dapat dimungkinkan pembuatan video atau gambar hoax. Padahal, orang yang menjadi korban tidak pernah melakukannya,” tuturnya.

Cara Kenali Gambar Hasil Deepfake

Fenomena gambar dan video palsu yang dibuat oleh AI tentu menjadi kekhawatiran publik, khususnya bagi mereka yang aktif bersosial media. Tidak jarang, korbannya mengalami stress karena mendapatkan reputasi buruk di lingkungan sosialnya.

Terlebih, kini masih banyak masyarakat yang mudah menerima informasi secara ‘mentah’ meski melalui sumber yang tidak kredibel.

Aziz selaku dosen pengampu mata kuliah Machine Learning menyampaikan bahwa kini telah tersedia aplikasi yang dapat mendeteksi deepfake. Salah satunya ialah Microsoft’s Video Authenticator Tools. Aplikasi keluaran Microsoft itu dapat membantu kita untuk mendeteksi foto dan video palsu yang tersebar.

“Dengan menggunakan software anti deepfake ini, dapat mengetahui foto atau video tersebut hasil deepfake atau bukan,” tuturnya.

“Walaupun, ada kemungkinan software gagal mendeteksi adanya deepfake,” tambahnya.

Meski demikian, Aziz menyampaikan bahwa pengembangan AI detector yang lebih baik setiap harinya sangat diperlukan. Mengingat, deepfake pasti bakal terus berkembang ke depannya.

Bukan hanya itu, suatu konten di masyarakat akan bernilai berbeda-beda. Karena itu, semuanya tetap bergantung pada para pengguna.

“Pada akhirnya, tergantung pada konsumen media yang ada untuk mau dan mampu berpikir kritis, mencari tau sumbernya atau langsung percaya begitu saja,” pungkasnya.(yul)

beritalima.com
beritalima.com beritalima.com beritalima.com beritalima.com

Pos terkait