“Vũ khí” Dark AI đe dọa đến sự an toàn của người dùng Internet

Vũ khí Dark AI đe dọa đến sự an toàn của người dùng Internet

Trí tuệ nhân tạo (AI) ngày càng bị lợi dụng để tạo ra “Dark AI” – công cụ tấn công mới trong tay tội phạm mạng, đặt người dùng Internet trước nhiều nguy cơ chưa từng có.

“Chúng ta đang bước vào một kỷ nguyên mới của an ninh mạng và xã hội, nơi AI chính thống đóng vai trò lá chắn phòng thủ, còn Dark AI lại bị biến thành vũ khí tấn công nguy hiểm,” ông Sergey Lozhkin, Trưởng nhóm Nghiên cứu và Phân tích toàn cầu (GReAT) của Kaspersky, cảnh báo tại Tuần lễ An ninh mạng tổ chức đầu tháng 8 ở Đà Nẵng.

Dark AI là thuật ngữ chỉ việc triển khai các mô hình ngôn ngữ lớn (LLM) nằm ngoài hệ thống kiểm soát, không tuân thủ tiêu chuẩn an toàn, nhằm phục vụ mục đích phi pháp. Khác với các nền tảng AI chính thống vốn tích hợp cơ chế bảo vệ, Dark AI thường bị khai thác để phát tán mã độc, soạn email lừa đảo, thao túng thông tin hoặc đánh cắp dữ liệu mà không chịu bất kỳ sự giám sát nào.

Theo ông Lozhkin, sự trỗi dậy của Dark AI gắn liền với sự xuất hiện của các mô hình Black Hat GPT từ giữa năm 2023. Đây là những biến thể được “huấn luyện ngầm” để tạo mã độc, hỗ trợ viết email lừa đảo có tính thuyết phục cao, tạo giọng nói giả, video deepfake hoặc điều phối các cuộc tấn công mô phỏng. Một số công cụ đã được ghi nhận gồm WormGPT, DarkBard, FraudGPT hay Xanthorox – tất cả đều được sử dụng nhằm phục vụ hoạt động tội phạm mạng và tự động hóa độc hại.

Không chỉ tội phạm mạng, một số nhóm tin tặc được cho là có sự hậu thuẫn từ chính phủ cũng bắt đầu khai thác LLM trong các chiến dịch tấn công tinh vi. Trước đó, OpenAI từng cho biết đã ngăn chặn hơn 20 chiến dịch lợi dụng AI để thực hiện phát tán thông tin sai lệch và tấn công mạng. Với Dark AI, kẻ xấu có thể tạo ra lượng lớn nội dung giả mạo bằng nhiều ngôn ngữ, vượt qua lớp bảo mật truyền thống và dễ dàng đánh lừa nạn nhân. “AI không tự phân biệt đúng sai, nó chỉ thực hiện theo chỉ dẫn”, ông Lozhkin nhấn mạnh.

Trước mối nguy này, Kaspersky khuyến nghị doanh nghiệp cần tăng cường kỷ luật an ninh mạng, đầu tư vào công cụ phát hiện mối đe dọa do AI hỗ trợ, đồng thời đào tạo nhân viên để tránh tình trạng Shadow AI – hiện tượng nhân sự tự ý dùng công cụ AI mà không có sự giám sát, gây nguy cơ rò rỉ dữ liệu. Các biện pháp như xây dựng trung tâm điều hành an ninh mạng (SOC) hay triển khai giải pháp bảo mật thế hệ mới được đánh giá là cần thiết.

Bức tranh toàn cảnh càng đáng lo ngại khi báo cáo An ninh mạng 2025 của Cisco cho thấy thách thức không còn là lý thuyết. Tại Việt Nam, 62% tổ chức thừa nhận thiếu tự tin trong việc phát hiện nhân viên sử dụng AI ngoài tầm kiểm soát. Trong khi đó, dù 44% nhân sự đang dùng các công cụ GenAI được phê duyệt, vẫn có đến 40% bộ phận CNTT thừa nhận không nắm rõ cách nhân viên tương tác với AI.

Trả lời

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *