GPT-4.1 Tạo Mã Không An Toàn

LLMs và Việc Tạo Mã Không An Toàn: Kịch Bản Mặc Định

Nghiên cứu mới nhất từ Backslash Security đã tiết lộ một xu hướng đáng lo ngại: Các Mô hình Ngôn ngữ Lớn (LLMs) như GPT-4.1, cùng với các mô hình được sử dụng rộng rãi khác, có xu hướng tạo ra mã không an toàn theo mặc định. Điều này có nghĩa là nếu không có các hướng dẫn hoặc quy tắc cụ thể tập trung vào bảo mật, mã được tạo ra bởi các hệ thống AI này thường dễ bị tổn thương trước các điểm yếu và khai thác phổ biến. Tuy nhiên, nghiên cứu cũng chỉ ra rằng tính bảo mật của mã được tạo ra có thể được cải thiện đáng kể bằng cách cung cấp thêm hướng dẫn bảo mật hoặc thực hiện quản trị dựa trên quy tắc.

Để khám phá sâu hơn vấn đề này, Backslash Security đã công bố ra mắt Máy chủ Giao thức Ngữ cảnh Mô hình (MCP), cùng với các Quy tắc và Tiện ích mở rộng được thiết kế cho Môi trường Phát triển Tích hợp Agentic (IDEs). Các công cụ này nhằm giải quyết các lỗ hổng bảo mật được xác định trong mã do LLM tạo ra và cung cấp cho các nhà phát triển phương tiện để tạo ra các ứng dụng an toàn hơn.

Backslash Security đã tiến hành một loạt các thử nghiệm trên bảy phiên bản khác nhau của các LLMs phổ biến, bao gồm các mô hình GPT của OpenAI, Claude của Anthropic và Gemini của Google. Mục tiêu là đánh giá cách các kỹ thuật prompting khác nhau ảnh hưởng đến khả năng tạo mã an toàn của các mô hình. Tính bảo mật của mã đầu ra được đánh giá dựa trên khả năng phục hồi trước mười trường hợp sử dụng Common Weakness Enumeration (CWE), đại diện cho một loạt các lỗ hổng phần mềm phổ biến.

Kết quả của các thử nghiệm này liên tục cho thấy rằng tính bảo mật của mã được tạo ra được cải thiện với các kỹ thuật prompting tinh vi hơn. Tuy nhiên, chủ đề bao trùm là tất cả các LLMs được thử nghiệm thường tạo ra mã không an toàn khi chúng tự hoạt động. Điều này cho thấy rằng các mô hình này, trong cấu hình mặc định của chúng, không ưu tiên bảo mật và thường không giải quyết các điểm yếu mã hóa phổ biến.

Prompts Ngây Thơ: Công Thức Cho Lỗ Hổng

Khi được trình bày với các prompts đơn giản, ‘ngây thơ’ không đề cập rõ ràng đến các cân nhắc về bảo mật, tất cả các LLMs được thử nghiệm đều tạo ra mã không an toàn, dễ bị tấn công ít nhất bốn trong số mười CWE phổ biến. Điều này làm nổi bật sự thiếu nhận thức về bảo mật vốn có trong các mô hình này khi hoạt động mà không có hướng dẫn cụ thể.

Tác Động Của Prompts Tập Trung Vào Bảo Mật

Các prompts chỉ định chung một nhu cầu về bảo mật đã dẫn đến kết quả an toàn hơn, cho thấy rằng LLMs có khả năng tạo ra mã an toàn hơn khi được hướng dẫn rõ ràng để làm như vậy. Hơn nữa, các prompts yêu cầu mã tuân thủ các phương pháp hay nhất của Open Web Application Security Project (OWASP) đã mang lại kết quả thậm chí còn tốt hơn. OWASP là một tổ chức phi lợi nhuận hoạt động để cải thiện tính bảo mật của phần mềm. Tuy nhiên, ngay cả với các prompts tinh vi hơn này, một số lỗ hổng mã vẫn tồn tại trong năm trong số bảy LLMs được thử nghiệm, nhấn mạnh những thách thức trong việc tạo mã an toàn một cách nhất quán với LLMs.

Prompts Dựa Trên Quy Tắc: Một Con Đường Đến Mã An Toàn

Cách tiếp cận hiệu quả nhất để tạo mã an toàn liên quan đến các prompts ràng buộc với các quy tắc do Backslash chỉ định để giải quyết các CWE cụ thể. Các prompts dựa trên quy tắc này dẫn đến mã an toàn và không dễ bị tấn công các CWE đã thử nghiệm. Điều này cho thấy rằng việc cung cấp cho LLMs các hướng dẫn cụ thể, có mục tiêu là rất quan trọng để đảm bảo tính bảo mật của mã được tạo ra.

Biến Động Hiệu Suất Giữa Các LLMs

Nhìn chung, GPT-4o của OpenAI đã chứng minh hiệu suất thấp nhất trên tất cả các prompts, đạt được kết quả mã an toàn chỉ 1 trên 10 khi sử dụng các prompts ‘ngây thơ’. Ngay cả khi được nhắc tạo mã an toàn, nó vẫn tạo ra các đầu ra không an toàn, dễ bị tấn công tám trên mười vấn đề. GPT-4.1 không hoạt động tốt hơn đáng kể với các prompts ngây thơ, đạt 1,5 trên 10.

Ngược lại, Claude 3.7 Sonnet nổi lên như là người có hiệu suất tốt nhất trong số các công cụ GenAI được thử nghiệm. Nó đạt 6 trên 10 khi sử dụng các prompts ngây thơ và 10 trên 10 hoàn hảo khi sử dụng các prompts tập trung vào bảo mật. Điều này cho thấy rằng một số LLMs được trang bị tốt hơn để xử lý các cân nhắc về bảo mật, ngay cả khi không có hướng dẫn rõ ràng.

Các Giải Pháp Của Backslash Security Để Mã Hóa Vibe An Toàn

Để giải quyết các vấn đề được tiết lộ bởi thử nghiệm prompt LLM của mình, Backslash Security đang giới thiệu một số tính năng mới được thiết kế để cho phép mã hóa vibe an toàn. Mã hóa Vibe đề cập đến thực tiễn tạo mã bằng các công cụ AI như LLMs.

Quy Tắc & Chính Sách AI Của Backslash

Quy tắc & Chính sách AI của Backslash cung cấp các quy tắc có thể đọc được bằng máy, có thể được đưa vào các prompts để đảm bảo phạm vi phủ sóng CWE. Các quy tắc này có thể được sử dụng với các công cụ như Cursor, một trình chỉnh sửa mã phổ biến. Ngoài ra, các chính sách AI kiểm soát quy tắc AI nào đang hoạt động trong IDE thông qua nền tảng Backslash, cho phép các tổ chức tùy chỉnh cài đặt bảo mật của họ.

Tiện Ích Mở Rộng IDE Của Backslash

Tiện ích mở rộng IDE của Backslash tích hợp trực tiếp vào quy trình làm việc hiện có của các nhà phát triển, cho phép họ nhận được các đánh giá bảo mật Backslash trên mã do cả con người và AI viết. Sự tích hợp này là rất quan trọng để đảm bảo rằng các cân nhắc về bảo mật được giải quyết trong suốt quá trình phát triển.

Máy Chủ Giao Thức Ngữ Cảnh Mô Hình (MCP) Của Backslash

Máy chủ Giao thức Ngữ cảnh Mô hình (MCP) Của Backslash là một API nhận biết ngữ cảnh tuân thủ tiêu chuẩn MCP. Nó kết nối Backslash với các công cụ AI, cho phép mã hóa, quét và sửa chữa an toàn. Tiêu chuẩn MCP cung cấp một khuôn khổ chung cho các công cụ AI giao tiếp vàchia sẻ thông tin, tạo điều kiện cho việc phát triển các ứng dụng hỗ trợ AI an toàn.

Giải Quyết Các Thách Thức Của Mã Do AI Tạo Ra

Yossi Pik, người đồng sáng lập và CTO của Backslash Security, nhấn mạnh những thách thức mà mã do AI tạo ra đặt ra cho các nhóm bảo mật. Ông lưu ý rằng ‘Mã do AI tạo ra - hoặc mã hóa vibe - có thể cảm thấy như một cơn ác mộng đối với các nhóm bảo mật. Nó tạo ra một loạt mã mới và mang đến các rủi ro LLM như ảo giác và độ nhạy prompt.’ Ảo giác đề cập đến các trường hợp LLMs tạo ra thông tin không chính xác hoặc vô nghĩa, trong khi độ nhạy prompt đề cập đến xu hướng LLMs tạo ra các đầu ra khác nhau dựa trên các biến thể tinh tế trong prompt đầu vào.

Tuy nhiên, Pik cũng tin rằng AI có thể là một công cụ có giá trị cho các nhóm AppSec khi được sử dụng với các kiểm soát phù hợp. Ông lập luận rằng ‘với các kiểm soát phù hợp - như các quy tắc do tổ chức xác định và máy chủ MCP nhận biết ngữ cảnh được cắm vào một nền tảng bảo mật được xây dựng có mục đích - AI thực sự có thể cung cấp cho các nhóm AppSec nhiều quyền kiểm soát hơn ngay từ đầu.’ Backslash Security đặt mục tiêu cung cấp các kiểm soát này thông qua các quy tắc dựa trên chính sách động, máy chủ MCP nhạy cảm với ngữ cảnh và tiện ích mở rộng IDE, tất cả đều được thiết kế cho kỷ nguyên mã hóa mới.

Hàm Ý Của Mã Do AI Tạo Ra Không An Toàn

Những phát hiện từ nghiên cứu của Backslash Security có ý nghĩa quan trọng đối với ngành phát triển phần mềm. Khi các công cụ tạo mã hỗ trợ AI ngày càng trở nên phổ biến, điều quan trọng là phải hiểu những rủi ro liên quan đến việc dựa vào các công cụ này mà không có các biện pháp bảo mật phù hợp.

Tăng Tính Dễ Bị Tấn Công Trước Các Cuộc Tấn Công Mạng

Mã do AI tạo ra không an toàn có thể tạo ra các lỗ hổng mới mà tội phạm mạng có thể khai thác. Các lỗ hổng này có thể dẫn đến vi phạm dữ liệu, xâm phạm hệ thống và các sự cố bảo mật khác.

Khó Khăn Trong Việc Xác Định Và Khắc Phục Lỗ Hổng

Khối lượng mã do AI tạo ra có thể gây khó khăn cho việc xác định và khắc phục lỗ hổng. Các nhóm bảo mật có thể phải vật lộn để theo kịp tốc độ tạo mã nhanh chóng, dẫn đến tồn đọng các vấn đề bảo mật.

Thiếu Nhận Thức Về Bảo Mật Giữa Các Nhà Phát Triển

Nhiều nhà phát triển có thể không hoàn toàn nhận thức được những rủi ro bảo mật liên quan đến mã do AI tạo ra. Việc thiếu nhận thức này có thể dẫn đến việc các nhà phát triển vô tình đưa các lỗ hổng vào ứng dụng của họ.

Thách Thức Tuân Thủ Quy Định

Các tổ chức dựa vào mã do AI tạo ra có thể phải đối mặt với các thách thức tuân thủ quy định. Nhiều quy định yêu cầu các tổ chức thực hiện các biện pháp bảo mật đầy đủ để bảo vệ dữ liệu nhạy cảm. Mã do AI tạo ra không an toàn có thể gây khó khăn cho việc đáp ứng các yêu cầu này.

Các Phương Pháp Hay Nhất Để Tạo Mã Hỗ Trợ AI An Toàn

Để giảm thiểu những rủi ro liên quan đến mã do AI tạo ra không an toàn, các tổ chức nên áp dụng các phương pháp hay nhất sau:

Cung Cấp Đào Tạo Bảo Mật Cho Các Nhà Phát Triển

Các nhà phát triển nên được đào tạo về những rủi ro bảo mật liên quan đến mã do AI tạo ra. Đào tạo này nên bao gồm các chủ đề như CWE phổ biến, thực hành mã hóa an toàn và cách sử dụng các công cụ bảo mật.

Thực Hiện Các Chính Sách Và Thủ Tục Bảo Mật

Các tổ chức nên thực hiện các chính sách và thủ tục bảo mật giải quyết việc sử dụng mã do AI tạo ra. Các chính sách này nên xác định các trường hợp sử dụng được chấp nhận, các yêu cầu bảo mật và các quy trình xem xét và phê duyệt mã do AI tạo ra.

Sử Dụng Các Công Cụ Bảo Mật Để Quét Mã Do AI Tạo Ra

Các tổ chức nên sử dụng các công cụ bảo mật để quét mã do AI tạo ra để tìm lỗ hổng. Các công cụ này có thể giúp xác định các CWE phổ biến và các vấn đề bảo mật khác.

Thực Hiện Vòng Đời Phát Triển An Toàn (SDLC)

Các tổ chức nên thực hiện vòng đời phát triển an toàn (SDLC) kết hợp các cân nhắc về bảo mật trong suốt quá trình phát triển. Điều này bao gồm thực hiện đánh giá bảo mật mã do AI tạo ra, thực hiện kiểm tra xâm nhập và thực hiện giám sát bảo mật.

Thiết Lập Chương Trình Thưởng Lỗi

Các tổ chức nên thiết lập một chương trình thưởng lỗi để khuyến khích các nhà nghiên cứu bảo mật tìm và báo cáo các lỗ hổng trong mã do AI tạo ra. Điều này có thể giúp xác định các lỗ hổng có thể đã bị các nhóm bảo mật nội bộ bỏ qua.

Luôn Cập Nhật Thông Tin Về Các Mối Đe Dọa Bảo Mật Mới Nhất

Các tổ chức nên luôn cập nhật thông tin về các mối đe dọa và lỗ hổng bảo mật mới nhất ảnh hưởng đến mã do AI tạo ra. Điều này có thể giúp họ chủ động giải quyết các vấn đề bảo mật tiềm ẩn.

Hợp Tác Với Các Chuyên Gia Bảo Mật

Các tổ chức nên hợp tác với các chuyên gia bảo mật để đánh giá tính bảo mật của mã do AI tạo ra và phát triển các chiến lược để giảm thiểu rủi ro.

Tương Lai Của Việc Tạo Mã Hỗ Trợ AI An Toàn

Khi các công cụ tạo mã hỗ trợ AI tiếp tục phát triển, điều quan trọng là phải ưu tiên bảo mật. Bằng cách thực hiện các phương pháp hay nhất được nêu ở trên, các tổ chức có thể khai thác những lợi ích của việc tạo mã hỗ trợ AI đồng thời giảm thiểu những rủi ro liên quan đến mã không an toàn.

Tiến Bộ Trong Bảo Mật AI

Các nỗ lực nghiên cứu và phát triển đang diễn ra tập trung vào việc cải thiện tính bảo mật của các hệ thống AI. Các nỗ lực này bao gồm phát triển các kỹ thuật mới để phát hiện và ngăn chặn các cuộc tấn công đối nghịch, cải thiện tính mạnh mẽ của các mô hình AI và tạo ra các kiến trúc AI an toàn hơn.

Tích Hợp Bảo Mật Vào Phát Triển AI

Bảo mật ngày càng được tích hợp vào quá trình phát triển AI. Điều này bao gồm kết hợp các cân nhắc về bảo mật vào thiết kế của các mô hình AI, sử dụng các thực hành mã hóa an toàn và thực hiện kiểm tra bảo mật trong suốt vòng đời phát triển.

Hợp Tác Giữa Các Chuyên Gia AI Và Bảo Mật

Sự hợp tác giữa các chuyên gia AI và bảo mật là rất cần thiết để đảm bảo tính bảo mật của các hệ thống AI. Sự hợp tác này có thể giúp xác định các rủi ro bảo mật tiềm ẩn và phát triển các chiến lược giảm thiểu hiệu quả.

Nâng Cao Nhận Thức Về Rủi Ro Bảo Mật AI

Nâng cao nhận thức về rủi ro bảo mật AI đang thúc đẩy sự phát triển của các công cụ và kỹ thuật bảo mật mới. Điều này bao gồm các công cụ để phát hiện các cuộc tấn công đối nghịch, phân tích tính bảo mật của các mô hình AI và giám sát các hệ thống AI để tìm hoạt động đáng ngờ.

Bằng cách giải quyết các thách thức bảo mật liên quan đến mã do AI tạo ra, các tổ chức có thể mở khóa toàn bộ tiềm năng của quá trình phát triển hỗ trợ AI đồng thời bảo vệ hệ thống và dữ liệu của họ khỏi các cuộc tấn công mạng.