Mafindo–Kemajuan teknologi kecerdasan buatan (Artificial Intelligence/AI) telah membawa banyak manfaat, termasuk kemudahan dalam panggilan vido (video call). Namun, di balik manfaat ini, ada potensi ancaman yang perlu kita waspadai. AI dapat dimanfaatkan oleh pihak tidak bertanggung jawab untuk melakukan penipuan, pelanggaran privasi, atau bahkan kejahatan dunia maya melalui video call.
Berikut adalah beberapa contoh kasus yang melibatkan penipuan melalui video call dengan teknologi deepfake AI:
- Penipuan Video Call oleh Artis Ternama
Di Indonesia, terjadi kasus di mana penipu menggunakan teknologi deepfake untuk meniru wajah dan suara artis terkenal dalam video call. Tujuannya adalah mengelabui korban agar mentransfer sejumlah uang ke rekening penipu. CSIRT Jogja - Karyawan Ditipu melalui Video Call Deepfake
Seorang karyawan di Hong Kong menjadi korban penipuan setelah menerima video call dari seseorang yang menyamar sebagai bosnya menggunakan teknologi deepfake. Akibatnya, karyawan tersebut mentransfer dana perusahaan sebesar 25 juta dolar AS ke rekening penipu. Kompas - Lonjakan Kasus Penipuan Deepfake di Indonesia
Menurut laporan VIDA, kasus penipuan yang melibatkan deepfake di Indonesia melonjak hingga 1.550% antara tahun 2022 dan 2023. Penipuan ini mencakup berbagai modus, termasuk video call palsu yang meniru identitas tokoh terkenal untuk menipu korban. Kontan Press Release - Penipuan “Pig Butchering” dengan Deepfake AI
Di Indonesia, 27 pelaku penipuan “pig butchering” ditangkap setelah menipu korban dengan berpura-pura menjadi wanita menggunakan deepfake AI. Modus operandi mereka melibatkan video call untuk membangun hubungan asmara palsu sebelum menipu korban. Tekno Kompas - Modus Penipuan Baru melalui Video Call
Terdapat laporan tentang modus penipuan baru di mana pelaku melakukan video call dengan korban, berpura-pura sebagai anggota keluarga atau tokoh agama, dan meminta sejumlah uang. Kasus ini menunjukkan peningkatan penggunaan deepfake AI dalam penipuan. Tribun News Kupang
Ancaman Utama dalam Video Call yang Memanfaatkan Teknologi AI
- Deepfake Video Call
Teknologi deepfake memungkinkan seseorang memanipulasi wajah dan suara agar terlihat seperti orang lain. Dalam konteks video call, penipu dapat berpura-pura menjadi rekan kerja, keluarga, atau teman untuk mencuri informasi sensitif, seperti data pribadi atau akses ke akun penting. - Rekaman Rahasia
Selama video call, AI dapat digunakan untuk merekam percakapan tanpa izin. Data ini bisa disalahgunakan, seperti dijual ke pihak ketiga atau digunakan untuk memeras korban. - Pemalsuan Identitas Secara Real-Time
AI dapat menciptakan avatar digital yang sangat mirip dengan seseorang dalam waktu nyata. Hal ini dapat digunakan oleh penipu untuk mengelabui lawan bicara, terutama dalam konteks profesional atau bisnis. - Phishing Berbasis Video
AI juga memungkinkan penjahat untuk membuat skenario palsu dalam video call, seperti berpura-pura menjadi perwakilan bank yang meminta data rahasia.
Tingkatkan literasi digital Anda dan keluarga Anda tentang ancaman yang berkaitan dengan AI. Pahami bagaimana teknologi ini bekerja dan potensi risikonya. Berhati hati dalam membagikan informasi di Media Sosial (foto dan video)supaya mengurangi potensi disalahgunakan dengan deepfake.**