Sự phát triển và hội nhập nhanh chóng của Trí tuệ Nhân tạo (AI) vào cuộc sống kỹ thuật số hàng ngày của chúng ta đã nhận được cả sự phấn khích lẫn lo ngại. Mặc dù AI hứa hẹn sẽ cách mạng hóa các ngành công nghiệp và nâng cao hiệu quả, nhưng nó cũng đặt ra một loạt các thách thức mới, đặc biệt liên quan đến việc tội phạm mạng khai thác nó. Một báo cáo bảo mật AI gần đây từ Check Point, một công ty nghiên cứu công nghệ phần mềm, đã làm sáng tỏ mối đe dọa ngày càng tăng này, tiết lộ cách tin tặc ngày càng tận dụng các công cụ AI để khuếch đại quy mô, hiệu quả và tác động của các hoạt động độc hại của chúng.
Báo cáo của Check Point, báo cáo đầu tiên thuộc loại này, nhấn mạnh sự cần thiết cấp bách của các biện pháp bảo vệ AI mạnh mẽ khi công nghệ tiếp tục phát triển. Báo cáo nhấn mạnh rằng các mối đe dọa AI không còn là các kịch bản giả định mà đang tích cực phát triển trong thời gian thực. Khi các công cụ AI trở nên dễ tiếp cận hơn, những kẻ đe dọa đang khai thác khả năng tiếp cận này theo hai cách chính: nâng cao khả năng của chúng thông qua AI và nhắm mục tiêu vào các tổ chức và cá nhân đang áp dụng công nghệ AI.
Sự Hấp Dẫn của Các Mô Hình Ngôn Ngữ Đối Với Tội Phạm Mạng
Tội phạm mạng đang theo dõi chặt chẽ các xu hướng trong việc áp dụng AI. Bất cứ khi nào một mô hình ngôn ngữ lớn (LLM) mới được phát hành cho công chúng, những kẻ độc hại này nhanh chóng khám phá tiềm năng của nó cho các mục đích xấu xa. ChatGPT và API của OpenAI hiện là các công cụ được ưa chuộng trong số những tên tội phạm này, nhưng các mô hình khác như Google Gemini, Microsoft Copilot và Anthropic Claude đang dần được ưa chuộng.
Sức hấp dẫn của các mô hình ngôn ngữ này nằm ở khả năng tự động hóa và mở rộng quy mô các khía cạnh khác nhau của tội phạm mạng, từ việc tạo ra các email lừa đảo thuyết phục đến tạo mã độc hại. Báo cáo nêu bật một xu hướng đáng lo ngại: việc phát triển và buôn bán các LLM độc hại chuyên dụng được thiết kế đặc biệt cho tội phạm mạng, thường được gọi là “mô hình đen tối”.
Sự Trỗi Dậy của Các Mô Hình AI Đen Tối
Các mô hình mã nguồn mở, chẳng hạn như DeepSeek và Qwen của Alibaba, ngày càng trở nên hấp dẫn đối với tội phạm mạng do các hạn chế sử dụng tối thiểu và khả năng truy cập cấp miễn phí của chúng. Các mô hình này cung cấp một nền tảng màu mỡ cho việc thử nghiệm và điều chỉnh độc hại. Tuy nhiên, báo cáo tiết lộ một xu hướng đáng báo động hơn: việc phát triển và buôn bán các LLM độc hại chuyên dụng được thiết kế đặc biệt cho tội phạm mạng. Các “mô hình đen tối” này được thiết kế để vượt qua các biện pháp bảo vệ đạo đức và được công khai tiếp thị như các công cụ hack.
Một ví dụ khét tiếng là WormGPT, một mô hình được tạo ra bằng cách jailbreak ChatGPT. Được coi là “AI hack tối thượng,” WormGPT có thể tạo ra các email lừa đảo, viết phần mềm độc hại và tạo ra các tập lệnh kỹ thuật xã hội mà không có bất kỳ bộ lọc đạo đức nào. Nó thậm chí còn được hỗ trợ bởi một kênh Telegram cung cấp đăng ký và hướng dẫn, chỉ rõ việc thương mại hóa AI đen tối.
Các mô hình đen tối khác bao gồm GhostGPT, FraudGPT và HackerGPT, mỗi mô hình được thiết kế cho các khía cạnh chuyên biệt của tội phạm mạng. Một số chỉ đơn giản là trình bao bọc jailbreak xung quanh các công cụ chính thống, trong khi những công cụ khác là các phiên bản sửa đổi của các mô hình mã nguồn mở. Các mô hình này thường được cung cấp để bán hoặc cho thuê trên các diễn đàn ngầm và chợ đen, giúp chúng có thể truy cập được đối với một loạt tội phạm mạng.
Nền Tảng AI Giả Mạo và Phát Tán Phần Mềm Độc Hại
Nhu cầu về các công cụ AI cũng đã dẫn đến sự gia tăng của các nền tảng AI giả mạo, trá hình là các dịch vụ hợp pháp nhưng trên thực tế lại là phương tiện cho phần mềm độc hại, đánh cắp dữ liệu và gian lận tài chính. Một ví dụ như vậy là HackerGPT Lite, bị nghi ngờ là một trang web lừa đảo. Tương tự, một số trang web cung cấp tải xuống DeepSeek được báo cáo là đang phân phối phần mềm độc hại.
Các nền tảng giả mạo này thường thu hút những người dùng không nghi ngờ bằng những lời hứa về các khả năng AI tiên tiến hoặc các tính năng độc quyền. Khi người dùng tương tác với nền tảng, họ có thể bị lừa tải xuống phần mềm độc hại hoặc cung cấp thông tin nhạy cảm, chẳng hạn như thông tin đăng nhập hoặc chi tiết tài chính.
Các Ví Dụ Thực Tế Về Các Cuộc Tấn Công Mạng Được Hỗ Trợ Bởi AI
Báo cáo của Check Point nêu bật một trường hợp thực tế liên quan đến một tiện ích mở rộng Chrome độc hại, giả dạng là ChatGPT, đã bị phát hiện đánh cắp thông tin đăng nhập của người dùng. Sau khi được cài đặt, nó đã chiếm đoạt cookie phiên Facebook, cho phép kẻ tấn công toàn quyền truy cập vào tài khoản người dùng - một chiến thuật có thể dễ dàng được mở rộng trên nhiều nền tảng.
Sự cố này nhấn mạnh những rủi ro liên quan đến các tiện ích mở rộng trình duyệt có vẻ vô hại và khả năng tấn công kỹ thuật xã hội do AI cung cấp. Tội phạm mạng có thể sử dụng AI để tạo các trang web hoặc ứng dụng giả mạo thuyết phục bắt chước các dịch vụ hợp pháp, khiến người dùng khó phân biệt giữa hàng thật và kẻ mạo danh độc hại.
Tác Động của AI Đến Quy Mô Tội Phạm Mạng
"Đóng góp chính của các công cụ do AI điều khiển này là khả năng mở rộng các hoạt động tội phạm," báo cáo của Check Point cho biết thêm. "Văn bản do AI tạo ra cho phép tội phạm mạng vượt qua các rào cản ngôn ngữ và văn hóa, tăng cường đáng kể khả năng thực hiện các cuộc tấn công giao tiếp thời gian thực và ngoại tuyến tinh vi."
AI cho phép tội phạm mạng tự động hóa các tác vụ mà trước đây tốn thời gian và tốn nhiều công sức. Ví dụ: AI có thể được sử dụng để tạo ra hàng nghìn email lừa đảo được cá nhân hóa chỉ trong vài phút, làm tăng khả năng ai đó sẽ trở thành nạn nhân của trò gian lận.
Hơn nữa, AI có thể được sử dụng để cải thiện chất lượng của các email lừa đảo và các cuộc tấn công kỹ thuật xã hội khác. Bằng cách phân tích dữ liệu người dùng và điều chỉnh thông điệp cho từng người nhận, tội phạm mạng có thể tạo ra các trò gian lận có tính thuyết phục cao, khó bị phát hiện.
Bức Tranh Đe Dọa Ở Kenya
Các nhà chức trách Kenya cũng đang gióng lên hồi chuông cảnh báo về sự gia tăng của các cuộc tấn công mạng do AI hỗ trợ. Vào tháng 10 năm 2024, Cơ quan Truyền thông Kenya (CA) đã cảnh báo về sự gia tăng các cuộc tấn công mạng do AI hỗ trợ - ngay cả khi các mối đe dọa nói chung giảm 41,9% trong quý kết thúc vào tháng 9.
"Tội phạm mạng ngày càng sử dụng các cuộc tấn công do AI hỗ trợ để nâng cao hiệu quả và quy mô hoạt động của chúng," Tổng Giám đốc CA David Mugonyi cho biết. "Họ tận dụng AI và học máy để tự động hóa việc tạo ra các email lừa đảo và các loại kỹ thuật xã hội khác."
Ông cũng lưu ý rằng những kẻ tấn công ngày càng khai thác các cấu hình sai hệ thống - chẳng hạn như các cổng mở và kiểm soát truy cập yếu - để truy cập trái phép, đánh cắp dữ liệu nhạy cảm và triển khai phần mềm độc hại.
Kenya không đơn độc trong việc đối mặt với mối đe dọa này. Các quốc gia trên thế giới đang phải vật lộn với những thách thức của tội phạm mạng do AI hỗ trợ.
Khả năng tiếp cận các công cụ AI và sự tinh vi ngày càng tăng của các cuộc tấn công mạng đang gây khó khăn hơn cho các tổ chức và cá nhân trong việc tự bảo vệ mình.
Cuộc Chạy Đua Vũ Trang Để Bảo Vệ AI
Khi cuộc đua chấp nhận AI tăng tốc, thì cuộc chạy đua vũ trang để bảo vệ nó cũng vậy . Đối với các tổ chức và người dùng, sự cảnh giác không còn là tùy chọn - mà là bắt buộc.
Để giảm thiểu rủi ro do tội phạm mạng do AI gây ra, các tổ chức cần áp dụng một cách tiếp cận bảo mật nhiều lớp bao gồm:
- Phát hiện mối đe dọa do AI cung cấp: Triển khai các giải pháp bảo mật dựa trên AI có thể phát hiện và ứng phó với các cuộc tấn công do AI hỗ trợ trong thời gian thực.
- Đào tạo nhân viên: Giáo dục nhân viên về những rủi ro của các cuộc tấn công kỹ thuật xã hội do AI cung cấp và trang bị cho họ các kỹ năng để xác định và tránh các trò gian lận này.
- Kiểm soát truy cập mạnh mẽ: Triển khai các biện pháp kiểm soát truy cập mạnh mẽ để ngăn chặn truy cập trái phép vào dữ liệu và hệ thống nhạy cảm.
- Kiểm tra bảo mật thường xuyên: Tiến hành kiểm tra bảo mật thường xuyên để xác định và giải quyết các lỗ hổng trong hệ thống và cơ sở hạ tầng.
- Hợp tác và chia sẻ thông tin: Chia sẻ thông tin tình báo về mối đe dọa với các tổ chức và nhà cung cấp bảo mật khác để cải thiện khả năng phòng thủ tập thể chống lại tội phạm mạng do AI hỗ trợ.
- Phát triển và triển khai AI có đạo đức: Đảm bảo rằng các hệ thống AI được phát triển và triển khai một cách có đạo đức và có trách nhiệm, với các biện pháp bảo vệ để ngăn chặn việc lạm dụng.
Các cá nhân cũng có thể thực hiện các bước để bảo vệ bản thân khỏi tội phạm mạng do AI hỗ trợ, bao gồm:
- Thận trọng với email và tin nhắn không mong muốn: Thận trọng khi mở email và tin nhắn từ những người gửi không xác định, đặc biệt là những email và tin nhắn có chứa liên kết hoặc tệp đính kèm.
- Xác minh tính xác thực của các trang web và ứng dụng: Đảm bảo rằng các trang web và ứng dụng là hợp pháp trước khi cung cấp bất kỳ thông tin cá nhân nào.
- Sử dụng mật khẩu mạnh và bật xác thực đa yếu tố: Bảo vệ tài khoản bằng mật khẩu mạnh, duy nhất và bật xác thực đa yếu tố bất cứ khi nào có thể.
- Luôn cập nhật phần mềm: Thường xuyên cập nhật phần mềm và hệ điều hành để vá các lỗ hổng bảo mật.
- Báo cáo các trò gian lận bị nghi ngờ: Báo cáo các trò gian lận bị nghi ngờ cho các cơ quan có thẩm quyền thích hợp.
Cuộc chiến chống lại tội phạm mạng do AI hỗ trợ là một trận chiến đang diễn ra. Bằng cách luôn được thông báo, áp dụng các biện pháp bảo mật mạnh mẽ và làm việc cùng nhau, các tổ chức và cá nhân có thể giảm nguy cơ trở thành nạn nhân của những mối đe dọa đang phát triển này.