Kaspersky, perusahaan keamanan siber terkemuka, telah mengeluarkan peringatan tentang ancaman Dark AI. Dark AI merupakan kecerdasan buatan yang digunakan untuk merancang kejahatan digital yang semakin marak terjadi dalam serangan siber. Bentuk dari Dark AI sangat beragam, mulai dari penipuan online hingga spionase dengan melibatkan informasi rahasia suatu negara. Kepala Tim Riset Analisis Global Kaspersky untuk META dan APAC, Sergey Lozhkin menjelaskan bahwa Dark AI menggunakan large language model (LLM) tanpa pengawasan khusus dan perangkat aturan tertentu.
Dark AI memiliki potensi untuk disalahgunakan dalam pembuatan malware, email phishing yang sangat meyakinkan, serta manipulasi video dan suara palsu untuk kejahatan penipuan. Meskipun kecerdasan buatan membantu dalam manajemen keamanan digital, Dark AI justru menjadi senjata untuk serangan. Contoh dari Dark AI yang sedang populer adalah Black Hat GPT dan sejumlah modifikasi lain seperti WormGPT, DarkBard, FraudGPT, dan Xanthorox.
Menurut Kaspersky, pelaku yang memanfaatkan Dark AI adalah kelompok kriminal, bukan individu. Mereka menggunakan modus operandi rumit dan identitas palsu untuk menyusup ke dalam sistem dan merancang serangan berbahaya. Kecerdasan buatan tidak memiliki set moral dan etika untuk membedakan baik buruk intensi dari prompt yang diberikan. Oleh karena itu, organisasi dan individu di Asia Pasifik harus memperkuat keamanan siber, berinvestasi dalam deteksi ancaman yang didukung oleh AI, dan terus mempelajari bagaimana teknologi ini dapat dieksploitasi.