Jumat, 18 Oktober 2024

Ancaman Deepfake Video: Bagaimana AI Bisa Menipu Saat Video Call

Posted by Iwan Setiawan on Jumat, 18 Oktober 2024

Ancaman Deepfake Video: Bagaimana AI Bisa Menipu Saat Video Call

Christopher Ren, seorang product manager di Reality Defender, sebuah perusahaan yang fokus pada pengembangan alat untuk melawan disinformasi AI, baru-baru ini memukau dengan meniru Elon Musk. Dengan menggunakan kode viral dari GitHub dan satu foto, Ren berhasil membuat deepfake sederhana yang memetakan wajah Musk ke wajahnya sendiri dalam panggilan video. Demonstrasi ini memperlihatkan bagaimana alat deteksi AI baru dari Reality Defender bekerja. Selama panggilan berlangsung, gambar dari video tersebut dikirim secara real-time ke model deteksi perusahaan untuk dianalisis. Widget di layar menunjukkan bahwa panggilan tersebut kemungkinan merupakan deepfake AI, bukan Elon Musk asli.

Walaupun pada saat itu tidak ada yang berpikir bahwa mereka benar-benar sedang berbicara dengan Musk, masalah ini sangat nyata. Deepfake dalam video real-time semakin mengancam, terutama bagi pemerintah, perusahaan, dan individu. Pada tahun 2024, sebuah perusahaan teknik internasional kehilangan jutaan dolar karena seorang karyawannya tertipu oleh panggilan video deepfake. Kejadian ini bukan satu-satunya; bahkan penipuan asmara menggunakan teknik serupa telah menjadi tren yang mengkhawatirkan.

Real-Time Deepfake: Ancaman Nyata

Ben Colman, CEO sekaligus co-founder Reality Defender, mengatakan bahwa ancaman deepfake video akan segera meledak. “Hanya masalah waktu sebelum kita melihat peningkatan besar dalam penipuan video wajah-ke-wajah berbasis deepfake,” ujarnya. Ini menunjukkan bahwa dalam situasi yang penting, melihat saja tak bisa lagi dijadikan dasar untuk mempercayai.

Reality Defender berfokus bekerja sama dengan bisnis dan pemerintah untuk mengatasi masalah ini. Meskipun berkomitmen mencegah penyalahgunaan teknologi, Colman menegaskan bahwa perusahaan tetap mendukung kemajuan kecerdasan buatan (AI) secara umum. “Kami sangat pro-AI,” katanya. “Kami percaya 99,999 persen dari penggunaan AI adalah transformasional—untuk kedokteran, produktivitas, kreativitas—tapi dalam kasus kecil seperti ini, risikonya sangat besar.”

Alat Deteksi Deepfake untuk Panggilan Video

Reality Defender berencana meluncurkan plugin untuk Zoom yang bisa memprediksi apakah peserta video call adalah manusia atau hasil rekayasa AI. Meskipun alat ini masih dalam pengembangan, pengujian untuk menentukan keakuratan deteksi terhadap peserta palsu sedang berlangsung. Sayangnya, alat ini belum akan tersedia bagi publik dalam waktu dekat. Sebagai permulaan, perangkat lunak ini hanya akan tersedia dalam versi beta bagi beberapa klien startup tersebut.

Intel juga sebelumnya meluncurkan alat bernama FakeCatcher pada tahun 2022 untuk mendeteksi deepfake, dengan cara menganalisis aliran darah pada wajah untuk menentukan apakah peserta video asli. Namun, alat ini juga tidak tersedia untuk umum.

Ancaman yang Meluas, Solusi yang Belum Merata

Tidak hanya miliarder atau figur publik yang menjadi target deepfake, siapa pun yang memiliki foto di media sosial bisa menjadi korban. Govind Mittal, kandidat PhD di Universitas New York, memperingatkan bahwa data yang semakin sedikit sudah cukup untuk menciptakan deepfake yang realistis. "Jika saya memiliki 10 foto di Instagram, seseorang bisa menggunakannya. Mereka bisa menargetkan orang biasa."

Mittal, bersama profesor Chinmay Hegde dan Nasir Memon, sedang meneliti pendekatan berbasis tantangan untuk memblokir bot AI dari panggilan video, di mana peserta harus melewati semacam tes CAPTCHA video sebelum dapat bergabung.

Tantangan Data dan Harapan Masa Depan

Colman menjelaskan bahwa akses ke lebih banyak data merupakan tantangan utama dalam meningkatkan akurasi deteksi model AI. Ini adalah keluhan umum dari banyak startup yang berfokus pada pengembangan teknologi AI. Namun, ia optimis bahwa kemitraan di masa depan akan membantu mengatasi kendala ini. Setelah ElevenLabs dikaitkan dengan deepfake panggilan suara dari Presiden AS Joe Biden, startup AI audio tersebut menjalin kerja sama dengan Reality Defender untuk mencegah penyalahgunaan teknologi lebih lanjut.

Apa yang Bisa Dilakukan Sekarang?

Untuk melindungi diri dari penipuan video call, saran utama adalah tetap skeptis. Jangan terlalu percaya diri dalam menilai apakah lawan bicara Anda dalam video call adalah nyata atau hasil rekayasa AI. Mengingat betapa cepatnya teknologi ini berkembang, perlindungan yang baik terhadap penipuan video call menjadi sangat penting, baik untuk individu maupun organisasi besar.

Kesimpulan

Deepfake video real-time kini menjadi ancaman nyata yang sulit diabaikan. Dengan munculnya alat deteksi seperti yang dikembangkan oleh Reality Defender, ada harapan bahwa kita bisa melindungi diri dari penyalahgunaan AI dalam konteks panggilan video. Namun, perkembangan teknologi ini berjalan cepat, dan semua orang, dari individu biasa hingga pemimpin dunia, perlu bersiap menghadapi tantangan baru ini.

Sumber utama (bahasa Inggris): WIRED

Previous
« Prev Post

Tidak ada komentar:

Posting Komentar