Teknologi kecerdasan buatan atau artificial intelligence (AI) terus berkembang pesat, tetapi tidak selalu membawa manfaat positif. Salah satu tren terbaru adalah munculnya Dark AI, sebuah teknologi yang digunakan untuk serangan siber canggih di berbagai belahan dunia. Dark AI merujuk pada penerapan model bahasa besar (LLM) lokal atau jarak jauh untuk tujuan yang tidak etis, berbahaya, atau ilegal. Hal ini dapat menyebabkan penipuan, manipulasi data, serangan siber, atau penyalahgunaan data tanpa pengawasan yang tepat.
Menurut Sergey Lozhkin, Dark AI sering digunakan dalam bentuk Black Hat GPT, sebuah jenis AI yang digunakan untuk aktivitas tidak etis atau ilegal. Contoh aktivitas ini termasuk pembuatan kode berbahaya, phishing email, deepfake suara dan video, serta mendukung operasi Red Team. Selain itu, ada tren gelap lainnya yang melibatkan penggunaan LLM oleh aktor negara untuk kampanye mereka.
OpenAI melaporkan telah berhasil mencegah lebih dari 20 operasi siber yang mencoba menyalahgunakan teknologi AI mereka. Pelaku kejahatan siber menggunakan LLM untuk menciptakan persona palsu, merespons target secara real-time, dan menciptakan konten menipu. Karena AI tidak dapat secara langsung membedakan antara yang benar dan yang salah, penting bagi organisasi dan individu di Asia Pasifik untuk memperkuat keamanan siber mereka dan terus belajar bagaimana teknologi ini dapat dieksploitasi.