Kemajuan pesat dan integrasi Kecerdasan Buatan (AI) ke dalam kehidupan digital harian kita telah disambut dengan keterujaan dan kebimbangan. Walaupun AI menjanjikan untuk merevolusikan industri dan meningkatkan kecekapan, ia juga membentangkan satu set cabaran baharu, terutamanya mengenai eksploitasinya oleh penjenayah siber. Laporan keselamatan AI baru-baru ini daripada Check Point, sebuah firma penyelidikan teknologi perisian, menyoroti ancaman yang semakin meningkat ini, mendedahkan bagaimana penggodam semakin memanfaatkan alat AI untuk memperkuat skala, kecekapan dan impak aktiviti jahar mereka.
Laporan Check Point, yang pertama seumpamanya, menggariskan keperluan mendesak untuk perlindungan AI yang teguh apabila teknologi terus berkembang. Laporan itu menekankan bahawa ancaman AI bukan lagi senario hipotetikal tetapi sedang aktif berkembang dalam masa nyata. Apabila alat AI menjadi lebih mudah diakses, pelaku ancaman mengeksploitasi kebolehaksesan ini dalam dua cara utama: meningkatkan keupayaan mereka melalui AI dan menyasarkan organisasi dan individu yang menerima pakai teknologi AI.
Tarikan Model Bahasa untuk Penjenayah Siber
Penjenayah siber dengan tekun memantau trend dalam penggunaan AI. Setiap kali model bahasa besar (LLM) baharu dikeluarkan kepada umum, pelaku jahat ini cepat meneroka potensinya untuk tujuan jahat. ChatGPT dan API OpenAI pada masa ini merupakan alat yang digemari dalam kalangan penjenayah ini, tetapi model lain seperti Google Gemini, Microsoft Copilot dan Anthropic Claude semakin mendapat tarikan.
Daya tarikan model bahasa ini terletak pada keupayaan mereka untuk mengautomasikan dan menskalakan pelbagai aspek jenayah siber, daripada membuat e-mel pancingan data yang meyakinkan hingga menjana kod hasad. Laporan itu menyoroti trend yang membimbangkan: pembangunan dan perdagangan LLM hasad khusus yang disesuaikan khusus untuk jenayah siber, yang sering dirujuk sebagai "model gelap."
Kebangkitan Model AI Gelap
Model sumber terbuka, seperti DeepSeek dan Qwen Alibaba, menjadi semakin menarik bagi penjenayah siber kerana sekatan penggunaan minimum dan kebolehaksesan peringkat percuma mereka. Model-model ini menyediakan medan subur untuk eksperimen dan penyesuaian berniat jahat. Walau bagaimanapun, laporan itu mendedahkan trend yang lebih membimbangkan: pembangunan dan perdagangan LLM hasad khusus yang disesuaikan khusus untuk jenayah siber. "Model gelap" ini direka untuk memintas perlindungan etika dan dipasarkan secara terbuka sebagai alat penggodaman.
Satu contoh terkenal ialah WormGPT, sebuah model yang dicipta dengan meloloskan ChatGPT. Dijenamakan sebagai "AI penggodaman muktamad," WormGPT boleh menjana e-mel pancingan data, menulis perisian hasad dan membuat skrip kejuruteraan sosial tanpa sebarang penapis etika. Ia juga disokong oleh saluran Telegram yang menawarkan langganan dan tutorial, yang jelas menunjukkan pengkomersialan AI gelap.
Model gelap lain termasuk GhostGPT, FraudGPT dan HackerGPT, masing-masing direka untuk aspek khusus jenayah siber. Sesetengahnya hanyalah pembungkus lolos sekitar alatan arus perdana, manakala yang lain ialah versi diubah suai model sumber terbuka. Model-model ini biasanya ditawarkan untuk dijual atau disewa di forum bawah tanah dan pasaran web gelap, menjadikannya boleh diakses oleh pelbagai penjenayah siber.
Platform AI Palsu dan Pengedaran Perisian Hasad
Permintaan untuk alat AI juga telah membawa kepada percambahan platform AI palsu yang menyamar sebagai perkhidmatan yang sah tetapi, pada hakikatnya, merupakan kenderaan untuk perisian hasad, kecurian data dan penipuan kewangan. Satu contoh sedemikian ialah HackerGPT Lite, yang disyaki sebagai tapak pancingan data. Begitu juga, beberapa tapak web yang menawarkan muat turun DeepSeek dilaporkan mengedarkan perisian hasad.
Platform palsu ini selalunya memikat pengguna yang tidak mengesyaki dengan janji keupayaan AI lanjutan atau ciri eksklusif. Sebaik sahaja pengguna terlibat dengan platform, mereka mungkin ditipu untuk memuat turun perisian hasad atau memberikan maklumat sensitif, seperti butiran kelayakan log masuk atau kewangan.
Contoh Dunia Sebenar Serangan Siber Diaktifkan AI
Laporan Check Point menyoroti kes dunia sebenar yang melibatkan sambungan Chrome hasad yang menyamar sebagai ChatGPT yang ditemui mencuri kelayakan pengguna. Sebaik sahaja dipasang, ia merampas kuki sesi Facebook, memberikan penyerang akses penuh kepada akaun pengguna – taktik yang boleh dengan mudah diperluaskan merentas berbilang platform.
Insiden ini menggariskan risiko yang berkaitan dengan sambungan penyemak imbas yang kelihatan tidak berbahaya dan potensi untuk serangan kejuruteraan sosial berkuasa AI. Penjenayah siber boleh menggunakan AI untuk mencipta tapak web atau aplikasi palsu yang meyakinkan yang meniru perkhidmatan yang sah, menjadikannya sukar bagi pengguna untuk membezakan antara perkara sebenar dan penipu berniat jahat.
Impak AI pada Skala Jenayah Siber
"Sumbangan utama alat dipacu AI ini ialah keupayaan mereka untuk menskalakan operasi jenayah," tambah laporan Check Point. "Teks yang dijana AI membolehkan penjenayah siber mengatasi halangan bahasa dan budaya, meningkatkan keupayaan mereka untuk melaksanakan serangan komunikasi masa nyata dan luar talian yang canggih."
AI membolehkan penjenayah siber mengautomasikan tugas yang dahulunya memakan masa dan memerlukan tenaga kerja yang intensif. Contohnya, AI boleh digunakan untuk menjana beribu-ribu e-mel pancingan data yang diperibadikan dalam masa beberapa minit, meningkatkan kemungkinan seseorang akan menjadi mangsa penipuan itu.
Selain itu, AI boleh digunakan untuk meningkatkan kualiti e-mel pancingan data dan serangan kejuruteraan sosial yang lain. Dengan menganalisis data pengguna dan menyesuaikan mesej kepada penerima individu, penjenayah siber boleh mencipta penipuan yang sangat meyakinkan yang sukar untuk dikesan.
Landskap Ancaman di Kenya
Pihak berkuasa Kenya juga membangkitkan kebimbangan tentang peningkatan serangan siber yang diaktifkan oleh AI. Pada Oktober 2024, Pihak Berkuasa Komunikasi Kenya (CA) memberi amaran tentang peningkatan dalam serangan siber yang diaktifkan AI – walaupun ancaman keseluruhan menurun 41.9 peratus pada suku tahun yang berakhir September.
"Penjenayah siber semakin menggunakan serangan yang diaktifkan AI untuk meningkatkan kecekapan dan magnitud operasi mereka," kata Ketua Pengarah CA David Mugonyi. "Mereka memanfaatkan AI dan pembelajaran mesin untuk mengautomasikan penciptaan e-mel pancingan data dan jenis kejuruteraan sosial yang lain."
Beliau juga menyatakan bahawa penyerang semakin mengeksploitasi konfigurasi sistem yang salah – seperti port terbuka dan kawalan akses yang lemah – untuk mendapatkan akses tanpa kebenaran, mencuri data sensitif dan menggunakan perisian hasad.
Kenya tidak bersendirian dalam menghadapi ancaman ini. Negara di seluruh dunia sedang bergelut dengan cabaran jenayah siber yang diaktifkan AI.
Kebolehcapaian alatan AI dan peningkatan kecanggihan serangan siber menyukarkan organisasi dan individu untuk melindungi diri mereka sendiri.
Perlumbaan Senjata untuk Melindungi AI
Apabila perlumbaan untuk menerima AI semakin pesat, begitu juga dengan perlumbaan senjata untuk melindunginya. Bagi organisasi dan pengguna, kewaspadaan bukan lagi pilihan – ia adalah penting.
Untuk mengurangkan risiko jenayah siber yang diaktifkan AI, organisasi perlu menerima pakai pendekatan keselamatan berbilang lapisan yang merangkumi:
- Pengesanan ancaman berkuasa AI: Melaksanakan penyelesaian keselamatan berasaskan AI yang boleh mengesan dan bertindak balas terhadap serangan yang didayakan AI dalam masa nyata.
- Latihan pekerja: Mendidik pekerja tentang risiko serangan kejuruteraan sosial berkuasa AI dan menyediakan mereka dengan kemahiran untuk mengenal pasti dan mengelakkan penipuan ini.
- Kawalan akses yang kukuh: Melaksanakan kawalan akses yang kukuh untuk mengelakkan akses tanpa kebenaran kepada data dan sistem sensitif.
- Audit keselamatan yang kerap: Menjalankan audit keselamatan yang kerap untuk mengenal pasti dan menangani kelemahan dalam sistem dan infrastruktur.
- Kerjasama dan perkongsian maklumat: Berkongsi perisikan ancaman dengan organisasi dan pembekal keselamatan lain untuk meningkatkan pertahanan kolektif terhadap jenayah siber yang diaktifkan AI.
- Pembangunan dan penggunaan AI yang beretika: Memastikan bahawa sistem AI dibangunkan dan digunakan secara beretika dan bertanggungjawab, dengan perlindungan di tempat untuk mengelakkan penyalahgunaan.
Individu juga boleh mengambil langkah untuk melindungi diri mereka daripada jenayah siber yang diaktifkan AI, termasuk:
- Berhati-hati dengan e-mel dan mesej yang tidak diminta: Berhati-hati apabila membuka e-mel dan mesej daripada pengirim yang tidak dikenali, terutamanya yang mengandungi pautan atau lampiran.
- Mengesahkan ketulenan tapak web dan aplikasi: Memastikan tapak web dan aplikasi adalah sah sebelum memberikan sebarang maklumat peribadi.
- Menggunakan kata laluan yang kukuh dan mendayakan pengesahan berbilang faktor: Melindungi akaun dengan kata laluan yang kukuh dan unik serta mendayakan pengesahan berbilang faktor apabila boleh.
- Sentiasa mengemas kini perisian: Mengemas kini perisian dan sistem pengendalian secara kerap untuk menampal kelemahan keselamatan.
- Melaporkan penipuan yang disyaki: Melaporkan penipuan yang disyaki kepada pihak berkuasa yang sesuai.
Perjuangan menentang jenayah siber yang didayakan AI ialah pertempuran yang berterusan. Dengan terus mendapat maklumat, menerima pakai langkah keselamatan yang teguh dan bekerjasama, organisasi dan individu boleh mengurangkan risiko mereka menjadi mangsa ancaman yang berkembang ini.