Waspada! AI Digunakan untuk Penipuan Video Call, Voice Call dan Chat, Jangan Sampai Tertipu
Teknologi kecerdasan buatan (AI) membawa banyak manfaat, tetapi juga disalahgunakan untuk penipuan melalui video call dan chat. Salah satu modus yang semakin marak adalah deepfake, yang memungkinkan penipu memalsukan wajah dan suara seseorang, seperti teman atau keluarga, untuk mengelabui korban dan mencuri uang atau informasi pribadi.
Penipuan berbasis AI ini semakin sulit dideteksi dan dapat menargetkan siapa saja. Oleh karena itu, penting bagi kita untuk memahami cara kerjanya dan mengambil langkah pencegahan agar tidak menjadi korban. Bagaimana modus ini bekerja, dan bagaimana cara melindungi diri? Simak selengkapnya dalam artikel ini!
Kasus Nyata Penipuan Menggunakan AI (Artificial Intelligence)
1. Penipuan Video Call dengan Wajah Selebriti
Di Indonesia, pernah terjadi kasus di mana pelaku menggunakan teknologi deepfake untuk meniru wajah seorang selebriti terkenal dalam panggilan video. Pelaku menghubungi korban melalui video call, menampilkan wajah selebriti tersebut, dan mengiming-imingi korban dengan hadiah jutaan rupiah. Korban yang percaya kemudian diminta untuk mentransfer sejumlah uang sebagai syarat mendapatkan hadiah tersebut.

2. Penipuan AI Voice Call, Pria Lansia di California Kehilangan $25.000
Seorang pria lansia di California menjadi korban penipuan berbasis kecerdasan buatan (AI) setelah menerima panggilan suara yang meniru suara anaknya. Dalam panggilan tersebut, si penipu yang terdengar panik mengaku mengalami kecelakaan serius dan membutuhkan uang $25.000 untuk jaminan. Karena suara yang terdengar sangat mirip, korban percaya dan langsung mentransfer uang tersebut. Baru setelahnya, ia menyadari bahwa anaknya dalam keadaan baik-baik saja dan tidak pernah mengalami kecelakaan.

Modus ini menggunakan AI voice cloning, yang dapat meniru suara seseorang dengan akurat hanya dari rekaman singkat. Kasus serupa semakin marak di Amerika, dengan penipu menargetkan orang tua yang lebih mudah panik dalam situasi darurat. Untuk menghindari kejadian serupa, masyarakat disarankan untuk selalu memverifikasi identitas penelepon, menghindari berbagi rekaman suara di media sosial, serta menetapkan kode rahasia dengan anggota keluarga untuk mengonfirmasi keadaan darurat sebelum mengambil tindakan.
3. Penipu Kini Memanfaatkan AI Canggih di WhatsApp
Seorang pengguna LinkedIn, Boobathi Ayyasamy, baru-baru ini membagikan pengalaman mengejutkannya terkait penipuan di WhatsApp yang melibatkan kecerdasan buatan (AI). Dalam unggahannya, ia menceritakan bagaimana penipu menggunakan model bahasa besar (Large Language Model atau LLM) untuk menipu korban dengan respons yang sangat meyakinkan dan konsisten.
Awalnya, penipuan tersebut tampak seperti tawaran pekerjaan dengan iming-iming "uang mudah". Namun, ketika Boobathi mencoba mengalihkan percakapan dengan pertanyaan matematika dasar atau topik sejarah, respons yang diterimanya tetap terstruktur dan relevan. Hal ini menandakan bahwa penipu tersebut menggunakan chatbot AI generatif yang dirancang untuk mempertahankan percakapan dan mengarahkan korban menuju penipuan.

Boobathi menekankan bahwa penipu kini memanfaatkan AI untuk terdengar lebih kredibel dan gigih, menyesuaikan respons secara real-time, sehingga metode deteksi penipuan tradisional menjadi kurang efektif. Ia menyarankan agar masyarakat waspada terhadap tawaran pekerjaan yang menjanjikan "uang mudah dengan usaha minimal" dan berhati-hati jika seseorang yang tidak dikenal di WhatsApp terus membahas topik tertentu meskipun percakapan dialihkan.
Cara Menghindari Penipuan Menggunakan AI
Untuk melindungi diri dari penipuan yang memanfaatkan teknologi AI, pertimbangkan langkah-langkah berikut:
1. Verifikasi Identitas Penelepon
Jika menerima panggilan video atau telepon dari seseorang yang mengaku sebagai kerabat atau teman, verifikasi terlebih dahulu identitasnya melalui metode komunikasi lain yang sudah dikenal, seperti menelepon nomor resmi atau menghubungi melalui aplikasi pesan yang biasa digunakan.
2. Waspadai Permintaan Uang Mendadak
Jika seseorang meminta transfer uang secara mendadak dengan alasan darurat, terutama melalui panggilan video atau chat, jangan langsung menuruti permintaan tersebut. Lakukan konfirmasi terlebih dahulu dengan pihak terkait atau orang lain yang dipercaya.
3. Jaga Informasi Pribadi
Hindari membagikan informasi pribadi atau sensitif di media sosial yang dapat dimanfaatkan oleh pelaku untuk melakukan penipuan.
4. Tingkatkan Literasi Digital
Selalu update pengetahuan mengenai modus-modus penipuan terbaru dan cara menghindarinya. Edukasi diri dan orang-orang di sekitar tentang bahaya penipuan yang memanfaatkan teknologi AI.
Dengan meningkatkan kewaspadaan dan menerapkan langkah pencegahan yang tepat, kita dapat melindungi diri dari berbagai modus penipuan yang memanfaatkan kecanggihan teknologi AI. Penting untuk selalu bersikap kritis terhadap setiap panggilan atau pesan yang muncul secara tiba-tiba, terutama jika terkesan mendesak atau mencurigakan. Jangan mudah percaya hanya karena suara atau wajah yang tampak familiar, karena bisa saja itu merupakan hasil manipulasi AI. Selalu lakukan verifikasi sebelum mengambil keputusan, dan terus edukasi diri serta orang-orang di sekitar agar terhindar dari ancaman kejahatan digital yang semakin canggih.
Yuk, hubungi Graha Karya Informasi untuk jasa IT terbaik !
Phone : 021-30066518
WA : 0821-3018-2884
Email : sales@grahakarya.com
Instagram : @grahakaryainformasipt