Penyalahgunaan AI: Media Sintetik Pembobol Rekening Rp 400 M

Sebuah rezim yang menyalahgunakan kecerdasan buatan sebagai media buatan sekali lagi menjadikan kecerdasan buatan sebagai sebuah kepalsuan.

Kali ini, seorang petugas keuangan di Hong Kong ditipu untuk mentransfer $25,6 juta, atau setara dengan 401 miliar rubel, dari rekening perusahaan ke penjahat.

Tak seperti biasanya, seperti dilansir South China Morning (1/4/2024), skandal tersebut terungkap melalui konferensi video hingga berdampak pada kantor perusahaan multinasional tersebut di Hong Kong.

Setelah melihat CFO perusahaan dan beberapa pihak versi digital, karyawan tersebut tertipu.

Deepfaker telah berhasil menipu banyak orang melalui video call deepfake. Penjahat sangat ahli dalam rekayasa sosial dan menggunakan metode deep fake dengan hampir sempurna.

Memang awalnya sang pekerja curiga karena kontrak tersebut diminta secara sembunyi-sembunyi. Namun kehadiran orang kedua yang berpenampilan dan terdengar seperti karyawan yang ditemuinya dalam video conference tersebut, mewakili karyawan perusahaan, berhasil menghilangkan kecurigaannya sehingga ia mengikuti semua instruksi penipu tersebut.

Artikel ini merupakan bagian dari Penelitian Kepemimpinan Akademik pada Cyber ​​Law dan Transformasi Digital Fakultas Hukum Universitas Pajajaran. Karena pentingnya konten ini, saya membagikannya kepada para pembaca virprom.com. Sebuah kekhawatiran global

Menurut CNN (4/2/2024), kejadian tersebut telah menimbulkan kekhawatiran di berbagai tingkatan tentang potensi bahaya dan kerugian yang ditimbulkan oleh teknologi kecerdasan buatan (AI).

Deepfake sedang meningkat. Penipuan yang semula dilakukan oleh satu orang kini banyak dilakukan oleh banyak orang. Pelaku kejahatan dalam hal ini selalu mempermainkan kerentanan psikologis korbannya.

Teknologi pembelajaran mendalam berbasis kecerdasan buatan untuk membuat konten yang sangat palsu secara online merupakan hal yang meresahkan di era digital (Dokumter ‘Another Body’ Kina Viola Mengungkap Bahaya Teknologi Deep Fake, Cornell University, 25/1/2024).

“Deepfake” adalah istilah umum yang mencakup konten sintetis. Model dapat berupa teks, gambar, audio atau video.

Sintesis dilakukan dengan kecerdasan buatan atau algoritma pembelajaran mesin (CLTC Berkeley, “What? So What? Now What?”: A Video on DeepFex with Professor Hani Farid” 2021).

Sintesis dapat berupa audio orang lain berbicara, atau saat seseorang mengatakan dan melakukan sesuatu dalam video yang belum pernah mereka lakukan sebelumnya.

Modus baru ini terlihat melalui hadirnya “banyak orang palsu” di video deep fake. Pasti berbeda jika hanya berbicara dengan satu orang.

Menggunakan kecerdasan buatan untuk membuat video palsu yang menampilkan banyak orang palsu bisa sangat menipu, bahkan mengintimidasi korbannya.

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *

Back To Top