AI เชิงรุก: เปลี่ยนกระบวนทัศน์ความปลอดภัยไซเบอร์

Agentic AI ไม่ได้เป็นเพียงการปรับปรุงทีละน้อยในด้านความปลอดภัยทางไซเบอร์ แต่เป็นการเปลี่ยนแปลงพื้นฐานในวิธีที่เราเข้าถึงการป้องกันทางดิจิทัล เทคโนโลยีที่เปลี่ยนแปลงนี้แนะนำทั้งโอกาสที่ไม่เคยมีมาก่อนและความท้าทายใหม่ ๆ ที่ต้องการการประเมินกลยุทธ์ความปลอดภัยของเราใหม่อย่างครอบคลุม ต่างจากระบบ AI ทั่วไปที่ทำงานภายในพารามิเตอร์ที่กำหนดไว้ล่วงหน้า Agentic AI แสดงพฤติกรรมอัตโนมัติ โดยโต้ตอบแบบไดนามิกกับเครื่องมือ สภาพแวดล้อม เอเจนต์อื่น ๆ และแม้แต่ข้อมูลที่ละเอียดอ่อน ความสามารถนี้ ในขณะที่ให้ข้อได้เปรียบที่สำคัญ ก็ยังนำเสนอความเสี่ยงประเภทใหม่ที่องค์กรต้องจัดการในเชิงรุก ดังนั้น องค์กรสมัยใหม่จึงถูกบังคับให้ใช้กลยุทธ์สองง่าม: ใช้ประโยชน์จาก Agentic AI เพื่อการป้องกันที่เพิ่มขึ้น ในขณะเดียวกันก็ป้องกันความเสี่ยงที่อาจเกิดขึ้น

เสริมสร้างการป้องกันความปลอดภัยทางไซเบอร์ด้วย Agentic AI

ปัจจุบัน ทีมรักษาความปลอดภัยทางไซเบอร์เผชิญกับความท้าทายที่บรรจบกัน รวมถึงการขาดแคลนผู้เชี่ยวชาญที่มีทักษะอย่างต่อเนื่อง และปริมาณการแจ้งเตือนความปลอดภัยที่เพิ่มขึ้นเรื่อย ๆ Agentic AI นำเสนอโซลูชันที่มีแนวโน้มสำหรับปัญหาเหล่านี้ โดยนำเสนอวิธีการที่เป็นนวัตกรรมใหม่เพื่อเสริมสร้างการตรวจจับภัยคุกคาม การตอบสนองต่อเหตุการณ์ และความปลอดภัยของ AI โดยรวม นี่ต้องมีการปรับโครงสร้างพื้นฐานของระบบนิเวศความปลอดภัยทางไซเบอร์ โดย Agentic AI ทำหน้าที่เป็นรากฐานสำคัญของการป้องกันในอนาคต

ระบบ Agentic AI มีความสามารถในการรับรู้ ให้เหตุผล และดำเนินการโดยอัตโนมัติ ทำให้พวกเขาสามารถจัดการกับปัญหาความปลอดภัยทางไซเบอร์ที่ซับซ้อนโดยมีการแทรกแซงจากมนุษย์น้อยที่สุด ระบบเหล่านี้ยังสามารถทำหน้าที่เป็นผู้ทำงานร่วมกันอัจฉริยะ เพิ่มขีดความสามารถของผู้เชี่ยวชาญที่เป็นมนุษย์ และเพิ่มความสามารถในการปกป้องทรัพย์สินดิจิทัล ลดความเสี่ยง และปรับปรุงประสิทธิภาพของศูนย์ปฏิบัติการรักษาความปลอดภัย (SOC) ด้วยการทำงานอัตโนมัติของงานประจำและให้ข้อมูลเชิงลึกแบบเรียลไทม์ Agentic AI ช่วยให้ทีมรักษาความปลอดภัยทางไซเบอร์มีสมาธิกับการตัดสินใจเชิงกลยุทธ์ ซึ่งจะช่วยเพิ่มความเชี่ยวชาญและลดความเหนื่อยหน่ายของพนักงาน

พิจารณา ตัวอย่างเช่น กระบวนการตอบสนองต่อช่องโหว่ด้านความปลอดภัยของซอฟต์แวร์ ตามเนื้อผ้า นี่เป็นกระบวนการที่ใช้เวลานานและต้องใช้แรงงานมาก อย่างไรก็ตาม ด้วย Agentic AI เวลาที่ต้องใช้ในการประเมินความเสี่ยงที่เกี่ยวข้องกับช่องโหว่ทั่วไปหรือการเปิดเผย (CVE) ใหม่ สามารถลดลงเหลือเพียงไม่กี่วินาที เอเจนต์ AI สามารถค้นหาแหล่งข้อมูลภายนอก ประเมินสภาพแวดล้อมภายใน และสร้างบทสรุปที่กระชับและผลการค้นหาที่จัดลำดับความสำคัญได้อย่างรวดเร็ว ทำให้นักวิเคราะห์ที่เป็นมนุษย์สามารถดำเนินการได้อย่างรวดเร็วและมีข้อมูล

นอกจากนี้ Agentic AI ยังสามารถปรับปรุงประสิทธิภาพของการคัดกรองการแจ้งเตือนความปลอดภัยได้อย่างมาก SOC ส่วนใหญ่เต็มไปด้วยการแจ้งเตือนจำนวนมากทุกวัน ทำให้ยากต่อการแยกแยะสัญญาณที่สำคัญออกจากสัญญาณรบกวนในพื้นหลัง วิธีการดั้งเดิมในการคัดกรองการแจ้งเตือนมักจะช้า ทำซ้ำ และต้องอาศัยความรู้ของสถาบันและประสบการณ์ของนักวิเคราะห์แต่ละคนอย่างมาก

ระบบ Agentic AI สามารถเร่งขั้นตอนการทำงานนี้ได้โดยการวิเคราะห์การแจ้งเตือนโดยอัตโนมัติ รวบรวมบริบทที่เกี่ยวข้องจากเครื่องมือรักษาความปลอดภัยต่าง ๆ ให้เหตุผลเกี่ยวกับสาเหตุที่เป็นไปได้ และดำเนินการที่เหมาะสมในแบบเรียลไทม์ ระบบเหล่านี้ยังสามารถช่วยในการฝึกอบรมนักวิเคราะห์ใหม่โดยการเข้ารหัสความรู้ของผู้เชี่ยวชาญที่มีประสบการณ์และแปลเป็นข้อมูลเชิงลึกที่นำไปปฏิบัติได้

ประโยชน์ที่สำคัญของ Agentic AI ในความปลอดภัยทางไซเบอร์:

  • การตรวจจับภัยคุกคามอัตโนมัติ: ตรวจสอบการรับส่งข้อมูลเครือข่ายและบันทึกของระบบอย่างต่อเนื่องเพื่อระบุพฤติกรรมที่ผิดปกติซึ่งบ่งชี้ถึงภัยคุกคามทางไซเบอร์
  • การตอบสนองต่อเหตุการณ์อย่างรวดเร็ว: ทำให้กระบวนการตรวจสอบและตอบสนองต่อเหตุการณ์ด้านความปลอดภัยเป็นไปโดยอัตโนมัติ ลดเวลาในการกักกันและลดความเสียหาย
  • การจัดการช่องโหว่: ระบุและจัดลำดับความสำคัญของช่องโหว่ในซอฟต์แวร์และระบบ ทำให้สามารถแก้ไขและบรรเทาปัญหาในเชิงรุกได้
  • การคัดกรองการแจ้งเตือนความปลอดภัย: วิเคราะห์และจัดลำดับความสำคัญของการแจ้งเตือนความปลอดภัย กรองผลบวกลวงออก และมุ่งเน้นไปที่ภัยคุกคามที่สำคัญที่สุด
  • การดำเนินงานด้านความปลอดภัยที่เพิ่มขึ้น: ทำให้งานประจำเป็นไปโดยอัตโนมัติและให้ข้อมูลเชิงลึกแบบเรียลไทม์ ปรับปรุงประสิทธิภาพและประสิทธิผลของศูนย์ปฏิบัติการรักษาความปลอดภัย

การรักษาความปลอดภัยแอปพลิเคชัน Agentic AI

ระบบ Agentic AI ไม่ใช่ผู้สังเกตการณ์เชิงรับ พวกเขาให้เหตุผลและดำเนินการกับข้อมูลอย่างแข็งขัน ซึ่งนำมาซึ่งชุดของความท้าทายด้านความปลอดภัยใหม่ เอเจนต์เหล่านี้อาจเข้าถึงเครื่องมือที่ละเอียดอ่อน สร้างผลลัพธ์ที่กระตุ้นให้เกิดผลกระทบปลายน้ำ หรือโต้ตอบกับข้อมูลที่เป็นความลับในแบบเรียลไทม์ เพื่อให้มั่นใจว่าระบบเหล่านี้ทำงานอย่างปลอดภัยและคาดการณ์ได้ องค์กรต้องใช้มาตรการรักษาความปลอดภัยที่แข็งแกร่งตลอดวงจรชีวิตทั้งหมด ตั้งแต่การทดสอบก่อนการปรับใช้ไปจนถึงการควบคุมรันไทม์

ก่อนที่จะปรับใช้ระบบ Agentic AI ในการผลิต สิ่งสำคัญคือต้องทำการ red teaming อย่างละเอียดและการออกกำลังกายในการทดสอบ การออกกำลังกายเหล่านี้ช่วยระบุจุดอ่อนในวิธีที่เอเจนต์ตีความข้อความแจ้ง ใช้เครื่องมือ หรือจัดการกับอินพุตที่ไม่คาดคิด การทดสอบควรรวมถึงการประเมินว่าเอเจนต์ปฏิบัติตามข้อจำกัดที่กำหนดไว้อย่างดีเพียงใด กู้คืนจากความล้มเหลว และต่อต้านการโจมตีที่บิดเบือนหรือเป็นปฏิปักษ์

Runtime guardrails เป็นวิธีการบังคับใช้ขอบเขตนโยบาย จำกัด พฤติกรรมที่ไม่ปลอดภัย และตรวจสอบให้แน่ใจว่าผลลัพธ์ของเอเจนต์สอดคล้องกับเป้าหมายขององค์กร โดยทั่วไป guardrails เหล่านี้จะถูกนำไปใช้ผ่านซอฟต์แวร์ที่ช่วยให้นักพัฒนาสามารถกำหนด ปรับใช้ และอัปเดตกฎที่ควบคุมสิ่งที่เอเจนต์ AI สามารถพูดและทำได้อย่างรวดเร็ว ความสามารถในการปรับตัวนี้เป็นสิ่งจำเป็นสำหรับการตอบสนองอย่างรวดเร็วและมีประสิทธิภาพต่อปัญหาที่เกิดขึ้นใหม่ โดยรักษารูปแบบการทำงานของเอเจนต์ที่สอดคล้องกันและปลอดภัยในสภาพแวดล้อมการผลิต

มาตรการรักษาความปลอดภัยที่จำเป็นสำหรับแอปพลิเคชัน Agentic AI:

  • Red Teaming และการทดสอบ: จำลองการโจมตีในโลกแห่งความเป็นจริงเพื่อระบุช่องโหว่และจุดอ่อนในระบบ AI ก่อนการปรับใช้
  • Runtime Guardrails: บังคับใช้ขอบเขตนโยบายและ จำกัด พฤติกรรมที่ไม่ปลอดภัยระหว่างการทำงานของระบบ AI
  • การประมวลผลที่เป็นความลับ: ปกป้องข้อมูลที่ละเอียดอ่อนในขณะที่กำลังประมวลผลในรันไทม์ ลดความเสี่ยงของการเปิดเผย
  • ความปลอดภัยของห่วงโซ่อุปทานซอฟต์แวร์: ตรวจสอบให้แน่ใจถึงความถูกต้องและความสมบูรณ์ของส่วนประกอบ AI ที่ใช้ในกระบวนการพัฒนาและการปรับใช้
  • การสแกนโค้ดเป็นประจำ: ระบุช่องโหว่ในโค้ดซอฟต์แวร์และอำนวยความสะดวกในการแก้ไขและการบรรเทาปัญหาอย่างทันท่วงที

การประมวลผลที่เป็นความลับ

การป้องกันรันไทม์ยังมีบทบาทสำคัญในการปกป้องข้อมูลที่ละเอียดอ่อนและการกระทำของเอเจนต์ระหว่างการดำเนินการ ทำให้มั่นใจได้ถึงการดำเนินงานที่ปลอดภัยและน่าเชื่อถือ ตัวอย่างเช่น Confidential Computing ช่วยปกป้องข้อมูลในขณะที่กำลังประมวลผลในรันไทม์ ปกป้องข้อมูลที่ใช้งานได้อย่างมีประสิทธิภาพ สิ่งนี้ช่วยลดความเสี่ยงของการเปิดเผยระหว่างทั้งขั้นตอนการฝึกอบรมและการอนุมานสำหรับแบบจำลอง AI ทุกขนาด

แพลตฟอร์มซอฟต์แวร์ที่ปลอดภัย

รากฐานของแอปพลิเคชัน Agentic AI ใด ๆ คือชุดเครื่องมือซอฟต์แวร์ ไลบรารี และบริการที่ใช้ในการสร้างสแต็กการอนุมาน แพลตฟอร์มซอฟต์แวร์ควรได้รับการพัฒนาโดยใช้กระบวนการวงจรชีวิตซอฟต์แวร์ที่ปลอดภัย ซึ่งรักษาความเสถียรของ Application Programming Interface (API) ในขณะที่จัดการกับช่องโหว่ตลอดวงจรชีวิตของซอฟต์แวร์ ซึ่งรวมถึงการสแกนโค้ดเป็นประจำและการเผยแพร่แพตช์หรือการบรรเทาปัญหาด้านความปลอดภัยอย่างทันท่วงที

Software Bill of Materials (SBOM)

ความถูกต้องและความสมบูรณ์ของส่วนประกอบ AI ในห่วงโซ่อุปทานเป็นสิ่งสำคัญสำหรับการปรับขนาดความน่าเชื่อถือในระบบ Agentic AI สแต็กซอฟต์แวร์ AI Enterprise ควรรวมถึงลายเซ็นคอนเทนเนอร์ การลงนามแบบจำลอง และ Software Bill of Materials (SBOM) เพื่อเปิดใช้งานการตรวจสอบส่วนประกอบเหล่านี้

แต่ละเทคโนโลยีเหล่านี้มีเลเยอร์ความปลอดภัยเพิ่มเติมเพื่อปกป้องข้อมูลที่สำคัญและแบบจำลองที่มีค่าในสภาพแวดล้อมการปรับใช้ที่หลากหลาย ตั้งแต่ในองค์กรไปจนถึงคลาวด์

การรักษาความปลอดภัยโครงสร้างพื้นฐานของ Agentic

เมื่อระบบ Agentic AI กลายเป็นอิสระมากขึ้นและผสานรวมเข้ากับขั้นตอนการทำงานขององค์กรอย่างลึกซึ้ง โครงสร้างพื้นฐานพื้นฐานที่พวกเขาพึ่งพาจึงกลายเป็นส่วนประกอบสำคัญของท่าทางความปลอดภัยโดยรวม ไม่ว่าจะปรับใช้ในศูนย์ข้อมูล ที่ edge หรือบนพื้นโรงงาน Agentic AI ต้องการโครงสร้างพื้นฐานที่สามารถบังคับใช้การแยก การมองเห็น และการควบคุมโดยการออกแบบ

ระบบ Agentic โดยธรรมชาติแล้วทำงานด้วยความเป็นอิสระอย่างมาก ทำให้พวกเขาสามารถดำเนินการที่ส่งผลกระทบซึ่งอาจเป็นประโยชน์หรือเป็นอันตรายได้ ความเป็นอิสระโดยธรรมชาติทำให้จำเป็นต้องปกป้องปริมาณงานรันไทม์ ใช้การตรวจสอบการปฏิบัติงาน และบังคับใช้หลักการ zero-trust อย่างเคร่งครัดเพื่อรักษาความปลอดภัยระบบเหล่านี้อย่างมีประสิทธิภาพ

Data Processing Units (DPUs)

DPU รวมกับโซลูชัน telemetry ขั้นสูง ให้กรอบงานที่ช่วยให้แอปพลิเคชันเข้าถึงการมองเห็นที่ครอบคลุมและแบบเรียลไทม์ในพฤติกรรมของปริมาณงานของเอเจนต์และระบุภัยคุกคามได้อย่างแม่นยำผ่านนิติเวชหน่วยความจำขั้นสูง การปรับใช้การควบคุมความปลอดภัยโดยตรงบน DPU แทนที่จะเป็น CPU ของเซิร์ฟเวอร์ จะแยกภัยคุกคามในระดับโครงสร้างพื้นฐานเพิ่มเติม ลดรัศมีการระเบิดของการประนีประนอมที่อาจเกิดขึ้นอย่างมาก และเสริมสร้างสถาปัตยกรรมความปลอดภัยทุกที่ที่ครอบคลุม

Confidential Computing ได้รับการสนับสนุนบน GPU ดังนั้นเทคโนโลยีการแยกสามารถขยายไปยังเครื่องเสมือนที่เป็นความลับได้เมื่อผู้ใช้ย้ายจาก GPU เดียวไปยัง GPU หลายตัว Secure AI ให้บริการโดย Protected PCIe และสร้างขึ้นบน confidential computing ช่วยให้ลูกค้าสามารถปรับขนาดปริมาณงานจาก GPU เดียวไปยัง GPU หลายตัว สิ่งนี้ช่วยให้ บริษัท สามารถปรับตัวเข้ากับความต้องการ Agentic AI ของพวกเขาในขณะที่ส่งมอบความปลอดภัยด้วยวิธีที่มีประสิทธิภาพสูงสุด

ส่วนประกอบโครงสร้างพื้นฐานเหล่านี้รองรับการรับรองทั้งในและนอกสถานที่ ทำให้ลูกค้าสามารถตรวจสอบความสมบูรณ์ของแพลตฟอร์มก่อนที่จะปรับใช้ปริมาณงานที่ละเอียดอ่อน

AI Factories

ความสามารถด้านความปลอดภัยเหล่านี้มีความสำคัญอย่างยิ่งในสภาพแวดล้อมเช่น AI factories ซึ่งระบบ Agentic เริ่มต้นขึ้นเพื่อขับเคลื่อนระบบอัตโนมัติ การตรวจสอบ และการตัดสินใจในโลกแห่งความเป็นจริง การขยาย Agentic AI ไปยังระบบไซเบอร์-ฟิสิกส์จะเพิ่มความเสี่ยง เนื่องจากการประนีประนอมสามารถส่งผลกระทบโดยตรงต่อเวลาทำงาน ความปลอดภัย และความสมบูรณ์ของการดำเนินงานทางกายภาพ พันธมิตรชั้นนำกำลังบูรณาการเทคโนโลยี AI ความปลอดภัยทางไซเบอร์แบบเต็มสแต็กเพื่อช่วยลูกค้าเสริมสร้างโครงสร้างพื้นฐานที่สำคัญเพื่อต่อต้านภัยคุกคามทางไซเบอร์ในอุตสาหกรรมต่าง ๆ เช่น พลังงาน สาธารณูปโภค และการผลิต

ข้อควรพิจารณาด้านความปลอดภัยของโครงสร้างพื้นฐานที่สำคัญสำหรับ Agentic AI:

  • การแยก: การแยกปริมาณงาน Agentic AI ออกจากระบบอื่น ๆ เพื่อป้องกันการเคลื่อนที่ในแนวนอนในกรณีที่มีการประนีประนอม
  • การมองเห็น: การได้รับการมองเห็นแบบเรียลไทม์ในพฤติกรรมของปริมาณงาน Agentic AI เพื่อตรวจจับและตอบสนองต่อภัยคุกคาม
  • การควบคุม: การใช้การควบคุมการเข้าถึงและนโยบายที่เข้มงวดเพื่อ จำกัด การกระทำที่ระบบ Agentic AI สามารถทำได้
  • Zero Trust: การสันนิษฐานว่าไม่มีผู้ใช้หรืออุปกรณ์ใดน่าเชื่อถือโดยเนื้อแท้ และการตรวจสอบทุกคำขอการเข้าถึง
  • Attestation: การตรวจสอบความสมบูรณ์ของแพลตฟอร์มก่อนที่จะปรับใช้ปริมาณงานที่ละเอียดอ่อน

สร้างความไว้วางใจเมื่อ AI ดำเนินการ

ในภูมิทัศน์ภัยคุกคามที่พัฒนาอย่างรวดเร็วในปัจจุบัน ทุกองค์กรต้องมั่นใจว่าการลงทุนในความปลอดภัยทางไซเบอร์ของตนรวมถึง AI เพื่อปกป้องขั้นตอนการทำงานในอนาคต ทุกปริมาณงานจะต้องได้รับการเร่งความเร็วเพื่อให้ผู้พิทักษ์มีเครื่องมือในการทำงานด้วยความเร็วของ AI ได้ในที่สุด