ความก้าวหน้าอย่างรวดเร็วและการบูรณาการปัญญาประดิษฐ์ (AI) เข้าสู่ชีวิตดิจิทัลประจำวันของเรานั้นได้รับการตอบรับด้วยความตื่นเต้นและความกังวลใจ ขณะที่ AI สัญญาว่าจะปฏิวัติอุตสาหกรรมและปรับปรุงประสิทธิภาพ แต่ก็ยังนำเสนอความท้าทายชุดใหม่โดยเฉพาะอย่างยิ่งเกี่ยวกับการแสวงหาผลประโยชน์โดยอาชญากรไซเบอร์ รายงานความปลอดภัย AI ล่าสุดจาก Check Point ซึ่งเป็นบริษัทวิจัยเทคโนโลยีซอฟต์แวร์ ได้ฉายแสงให้เห็นถึงภัยคุกคามที่กำลังเติบโตนี้ เผยให้เห็นว่าแฮกเกอร์กำลังใช้เครื่องมือ AI เพื่อขยายขนาด ประสิทธิภาพ และผลกระทบของกิจกรรมที่เป็นอันตรายของพวกเขามากขึ้นเรื่อยๆ
รายงาน Check Point ซึ่งเป็นรายงานแรกในลักษณะนี้ ย้ำถึงความจำเป็นเร่งด่วนในการป้องกัน AI ที่แข็งแกร่ง เนื่องจากเทคโนโลยียังคงพัฒนาต่อไป รายงานเน้นย้ำว่าภัยคุกคามจาก AI ไม่ใช่สถานการณ์สมมติอีกต่อไป แต่กำลังพัฒนาอย่างแข็งขันในแบบเรียลไทม์ เมื่อเครื่องมือ AI เข้าถึงได้ง่ายขึ้น ผู้กระทำที่เป็นภัยคุกคามกำลังใช้ประโยชน์จากความสามารถในการเข้าถึงนี้ในสองวิธีหลัก: การเพิ่มขีดความสามารถของตนเองผ่าน AI และการกำหนดเป้าหมายองค์กรและบุคคลที่นำเทคโนโลยี AI ไปใช้
เสน่ห์ของแบบจำลองภาษาสำหรับอาชญากรไซเบอร์
อาชญากรไซเบอร์กำลังเฝ้าติดตามแนวโน้มในการนำ AI ไปใช้อย่างขยันขันแข็ง เมื่อใดก็ตามที่มีการเปิดตัวแบบจำลองภาษาขนาดใหญ่ (LLM) สู่สาธารณะ นักแสดงที่เป็นอันตรายเหล่านี้จะสำรวจศักยภาพในการทำสิ่งที่ไม่ดีอย่างรวดเร็ว ChatGPT และ API ของ OpenAI เป็นเครื่องมือที่ได้รับความนิยมในปัจจุบันในกลุ่มอาชญากรเหล่านี้ แต่โมเดลอื่นๆ เช่น Google Gemini, Microsoft Copilot และ Anthropic Claude กำลังได้รับความนิยมเพิ่มขึ้นอย่างต่อเนื่อง
เสน่ห์ของแบบจำลองภาษาเหล่านี้อยู่ที่ความสามารถในการทำงานอัตโนมัติและปรับขนาดแง่มุมต่างๆ ของอาชญากรรมไซเบอร์ ตั้งแต่การสร้างอีเมลฟิชชิ่งที่น่าเชื่อถือไปจนถึงการสร้างโค้ดที่เป็นอันตราย รายงานเน้นย้ำถึงแนวโน้มที่น่ากังวล: การพัฒนาและการซื้อขาย LLM ที่เป็นอันตรายซึ่งปรับแต่งมาโดยเฉพาะสำหรับอาชญากรรมไซเบอร์ ซึ่งมักเรียกว่า "โมเดลดำ"
การเกิดขึ้นของ AI โมเดลดำ
โมเดลโอเพนซอร์ส เช่น DeepSeek และ Qwen ของ Alibaba กำลังเป็นที่น่าสนใจมากขึ้นสำหรับอาชญากรไซเบอร์เนื่องจากข้อจำกัดการใช้งานขั้นต่ำและการเข้าถึงระดับฟรี โมเดลเหล่านี้เป็นพื้นฐานที่อุดมสมบูรณ์สำหรับการทดลองและการปรับตัวที่เป็นอันตราย อย่างไรก็ตาม รายงานเผยให้เห็นถึงแนวโน้มที่น่าตกใจมากขึ้น: การพัฒนาและการซื้อขาย LLM ที่เป็นอันตรายซึ่งปรับแต่งมาโดยเฉพาะสำหรับอาชญากรรมไซเบอร์ "โมเดลดำ" เหล่านี้ได้รับการออกแบบมาเพื่อหลีกเลี่ยงการป้องกันทางจริยธรรมและมีการวางตลาดอย่างเปิดเผยว่าเป็นเครื่องมือแฮ็ก
ตัวอย่างที่น่าอับอายอย่างหนึ่งคือ WormGPT ซึ่งเป็นโมเดลที่สร้างขึ้นโดยการ jailbreaking ChatGPT WormGPT ซึ่งมีชื่อว่าเป็น "สุดยอด AI แฮ็ก" สามารถสร้างอีเมลฟิชชิ่ง เขียนมัลแวร์ และสร้างสคริปต์วิศวกรรมสังคมโดยไม่มีตัวกรองทางจริยธรรมใดๆ อีกทั้งยังได้รับการสนับสนุนจากช่อง Telegram ที่เสนอการสมัครสมาชิกและบทช่วยสอน ซึ่งบ่งชี้อย่างชัดเจนถึงการค้าเชิงพาณิชย์ของ AI ดำ
โมเดลดำอื่นๆ ได้แก่ GhostGPT, FraudGPT และ HackerGPT ซึ่งแต่ละรุ่นได้รับการออกแบบมาสำหรับแง่มุมเฉพาะของอาชญากรรมไซเบอร์ บางรุ่นเป็นเพียงตัวหุ้ม jailbreak รอบเครื่องมือกระแสหลัก ในขณะที่รุ่นอื่นๆ เป็นเวอร์ชันแก้ไขของโมเดลโอเพนซอร์ส โมเดลเหล่านี้มักจะเสนอขายหรือเช่าในฟอรัมใต้ดินและตลาดเว็บมืด ทำให้ผู้กระทำผิดทางไซเบอร์สามารถเข้าถึงได้หลากหลาย
แพลตฟอร์ม AI ปลอมและการแจกจ่ายมัลแวร์
ความต้องการเครื่องมือ AI ยังนำไปสู่การแพร่กระจายของแพลตฟอร์ม AI ปลอมที่ปลอมตัวเป็นบริการที่ถูกต้องตามกฎหมาย แต่ในความเป็นจริงเป็นพาหนะสำหรับมัลแวร์ การขโมยข้อมูล และการฉ้อโกงทางการเงิน ตัวอย่างหนึ่งคือ HackerGPT Lite ซึ่งต้องสงสัยว่าเป็นไซต์ฟิชชิ่ง ในทำนองเดียวกัน เว็บไซต์บางแห่งที่เสนอการดาวน์โหลด DeepSeek มีรายงานว่ากำลังแจกจ่ายมัลแวร์
แพลตฟอร์มปลอมเหล่านี้มักจะล่อลวงผู้ใช้ที่ไม่สงสัยด้วยสัญญาว่าจะมีความสามารถ AI ขั้นสูงหรือคุณสมบัติพิเศษ เมื่อผู้ใช้มีส่วนร่วมกับแพลตฟอร์มแล้ว พวกเขาอาจถูกหลอกให้ดาวน์โหลดซอฟต์แวร์ที่เป็นอันตรายหรือให้ข้อมูลที่ละเอียดอ่อน เช่น ข้อมูลประจำตัวในการเข้าสู่ระบบหรือรายละเอียดทางการเงิน
ตัวอย่างจริงของการโจมตีทางไซเบอร์ที่ใช้ AI
รายงาน Check Point เน้นกรณีจริงที่เกี่ยวข้องกับส่วนขยาย Chrome ที่เป็นอันตรายซึ่งแอบอ้างเป็น ChatGPT ซึ่งถูกค้นพบว่าขโมยข้อมูลประจำตัวของผู้ใช้ เมื่อติดตั้งแล้ว มันจะจี้คุกกี้เซสชัน Facebook ทำให้ผู้โจมตีสามารถเข้าถึงบัญชีผู้ใช้ได้อย่างเต็มที่ ซึ่งเป็นกลยุทธ์ที่สามารถปรับขนาดได้อย่างง่ายดายในหลายแพลตฟอร์ม
เหตุการณ์นี้เน้นย้ำถึงความเสี่ยงที่เกี่ยวข้องกับส่วนขยายเบราว์เซอร์ที่ดูเหมือนจะไม่เป็นอันตรายและการโจมตีทางวิศวกรรมสังคมที่ขับเคลื่อนด้วย AI อาชญากรไซเบอร์สามารถใช้ AI เพื่อสร้างเว็บไซต์หรือแอปพลิเคชันปลอมที่น่าเชื่อถือซึ่งเลียนแบบบริการที่ถูกต้องตามกฎหมาย ทำให้ผู้ใช้แยกแยะระหว่างของจริงกับผู้แอบอ้างที่เป็นอันตรายได้ยาก
ผลกระทบของ AI ต่อขนาดของอาชญากรรมไซเบอร์
"การมีส่วนร่วมหลักของเครื่องมือที่ขับเคลื่อนด้วย AI เหล่านี้คือความสามารถในการปรับขนาดการดำเนินงานทางอาญา" รายงาน Check Point กล่าวเสริม "ข้อความที่สร้างโดย AI ช่วยให้อาชญากรไซเบอร์สามารถเอาชนะอุปสรรคทางภาษาและวัฒนธรรมได้อย่างมาก ซึ่งช่วยเพิ่มความสามารถในการดำเนินการโจมตีสื่อสารแบบเรียลไทม์และออฟไลน์ที่ซับซ้อน"
AI ช่วยให้อาชญากรไซเบอร์สามารถทำงานโดยอัตโนมัติซึ่งก่อนหน้านี้ต้องใช้เวลานานและใช้แรงงานมาก ตัวอย่างเช่น AI สามารถใช้เพื่อสร้างอีเมลฟิชชิ่งส่วนบุคคลนับพันฉบับในเวลาไม่กี่นาที ซึ่งจะเพิ่มโอกาสที่ใครบางคนจะตกเป็นเหยื่อของการหลอกลวง
นอกจากนี้ AI ยังสามารถใช้เพื่อปรับปรุงคุณภาพของอีเมลฟิชชิ่งและการโจมตีทางวิศวกรรมสังคมอื่นๆ โดยการวิเคราะห์ข้อมูลผู้ใช้และปรับแต่งข้อความให้กับผู้รับแต่ละราย อาชญากรไซเบอร์สามารถสร้างกลโกงที่น่าเชื่อถือสูงซึ่งตรวจจับได้ยาก
ภูมิทัศน์ภัยคุกคามในเคนยา
หน่วยงานเคนยาต่างก็ส่งเสียงเตือนเกี่ยวกับการเพิ่มขึ้นของการโจมตีทางไซเบอร์ที่เปิดใช้งาน AI ในเดือนตุลาคม 2024 หน่วยงานด้านการสื่อสารของเคนยา (CA) เตือนถึงการเพิ่มขึ้นของการโจมตีทางไซเบอร์ที่เปิดใช้งาน AI แม้ว่าภัยคุกคามโดยรวมจะลดลง 41.9 เปอร์เซ็นต์ในช่วงไตรมาสสิ้นสุดเดือนกันยายน
"อาชญากรไซเบอร์กำลังใช้การโจมตีที่เปิดใช้งาน AI เพื่อเพิ่มประสิทธิภาพและขนาดของการดำเนินงานของพวกเขามากขึ้นเรื่อย ๆ" นาย David Mugonyi อธิบดี CA กล่าว "พวกเขาใช้ประโยชน์จาก AI และการเรียนรู้ของเครื่องเพื่อสร้างอีเมลฟิชชิ่งและวิศวกรรมสังคมประเภทอื่น ๆ โดยอัตโนมัติ"
นอกจากนี้ เขายังตั้งข้อสังเกตว่าผู้โจมตีกำลังใช้ประโยชน์จากการกำหนดค่าระบบที่ไม่ถูกต้องมากขึ้นเรื่อยๆ เช่น พอร์ตที่เปิดอยู่และการควบคุมการเข้าถึงที่อ่อนแอ เพื่อเข้าถึงโดยไม่ได้รับอนุญาต ขโมยข้อมูลที่ละเอียดอ่อน และปรับใช้มัลแวร์
เคนยาไม่ได้อยู่โดดเดี่ยวในการเผชิญกับภัยคุกคามนี้ ประเทศต่างๆ ทั่วโลกกำลังเผชิญกับความท้าทายของอาชญากรรมไซเบอร์ที่เปิดใช้งาน AI
ความสามารถในการเข้าถึงเครื่องมือ AI และความซับซ้อนที่เพิ่มขึ้นของการโจมตีทางไซเบอร์ทำให้องค์กรและบุคคลทั่วไปต้องป้องกันตัวเอง
การแข่งขันทางอาวุธเพื่อปกป้อง AI
เมื่อการแข่งขันเพื่อโอบรับ AI เร่งตัวขึ้น การแข่งขันทางอาวุธเพื่อปกป้องมันก็เช่นกัน สำหรับทั้งองค์กรและผู้ใช้ การเฝ้าระวังไม่ใช่ทางเลือกอีกต่อไป แต่เป็นสิ่งจำเป็น
เพื่อลดความเสี่ยงของอาชญากรรมไซเบอร์ที่เปิดใช้งาน AI องค์กรต่างๆ จำเป็นต้องใช้แนวทางการรักษาความปลอดภัยหลายชั้นซึ่งรวมถึง:
- การตรวจจับภัยคุกคามที่ขับเคลื่อนด้วย AI: การใช้งานโซลูชันการรักษาความปลอดภัยที่ใช้ AI ซึ่งสามารถตรวจจับและตอบสนองต่อการโจมตีที่เปิดใช้งาน AI ได้แบบเรียลไทม์
- การฝึกอบรมพนักงาน: ให้ความรู้แก่พนักงานเกี่ยวกับความเสี่ยงของการโจมตีทางวิศวกรรมสังคมที่ขับเคลื่อนด้วย AI และจัดเตรียมทักษะให้พวกเขาเพื่อระบุและหลีกเลี่ยงกลโกงเหล่านี้
- การควบคุมการเข้าถึงที่แข็งแกร่ง: การใช้การควบคุมการเข้าถึงที่แข็งแกร่งเพื่อป้องกันการเข้าถึงข้อมูลและระบบที่ละเอียดอ่อนโดยไม่ได้รับอนุญาต
- การตรวจสอบความปลอดภัยเป็นประจำ: การตรวจสอบความปลอดภัยเป็นประจำเพื่อระบุและแก้ไขช่องโหว่ในระบบและโครงสร้างพื้นฐาน
- การทำงานร่วมกันและการแบ่งปันข้อมูล: การแบ่งปันข้อมูลภัยคุกคามกับองค์กรและผู้ให้บริการรักษาความปลอดภัยอื่นๆ เพื่อปรับปรุงการป้องกันโดยรวมต่ออาชญากรรมไซเบอร์ที่เปิดใช้งาน AI
- การพัฒนาและการใช้งาน AI อย่างมีจริยธรรม: ตรวจสอบให้แน่ใจว่าระบบ AI ได้รับการพัฒนาและใช้งานอย่างมีจริยธรรมและมีความรับผิดชอบ โดยมีการป้องกันเพื่อป้องกันการใช้งานในทางที่ผิด
บุคคลทั่วไปยังสามารถดำเนินการเพื่อปกป้องตนเองจากอาชญากรรมไซเบอร์ที่เปิดใช้งาน AI ได้แก่:
- ระวังอีเมลและข้อความที่ไม่พึงประสงค์: ใช้ความระมัดระวังในการเปิดอีเมลและข้อความจากผู้ส่งที่ไม่รู้จัก โดยเฉพาะอย่างยิ่งข้อความที่มีลิงก์หรือไฟล์แนบ
- ตรวจสอบความถูกต้องของเว็บไซต์และแอปพลิเคชัน: ตรวจสอบให้แน่ใจว่าเว็บไซต์และแอปพลิเคชันนั้นถูกต้องตามกฎหมายก่อนที่จะให้ข้อมูลส่วนบุคคลใดๆ
- ใช้รหัสผ่านที่รัดกุมและเปิดใช้งานการตรวจสอบสิทธิ์แบบหลายปัจจัย: ป้องกันบัญชีด้วยรหัสผ่านที่ไม่ซ้ำใครและรัดกุม และเปิดใช้งานการตรวจสอบสิทธิ์แบบหลายปัจจัยเมื่อใดก็ตามที่เป็นไปได้
- อัปเดตซอฟต์แวร์ให้ทันสมัยอยู่เสมอ: อัปเดตซอฟต์แวร์และระบบปฏิบัติการเป็นประจำเพื่อแก้ไขช่องโหว่ด้านความปลอดภัย
- รายงานการหลอกลวงที่น่าสงสัย: รายงานการหลอกลวงที่น่าสงสัยต่อหน่วยงานที่เหมาะสม
การต่อสู้กับอาชญากรรมไซเบอร์ที่เปิดใช้งาน AI เป็นการต่อสู้ที่ต่อเนื่อง โดยการรับทราบข้อมูล การใช้มาตรการรักษาความปลอดภัยที่แข็งแกร่ง และการทำงานร่วมกัน องค์กรและบุคคลทั่วไปสามารถลดความเสี่ยงของการตกเป็นเหยื่อของภัยคุกคามที่กำลังพัฒนาเหล่านี้ได้