Dark AI: Nguy cơ tiềm ẩn cho người dùng Internet

Trong bối cảnh kỷ nguyên an ninh mạng và xã hội đang chứng kiến những bước chuyển mình mạnh mẽ, trí tuệ nhân tạo (AI) nổi lên như một “tấm khiên” bảo vệ, song song đó, sự xuất hiện của “Dark AI” lại dấy lên hồi chuông cảnh báo về một loại vũ khí nguy hiểm tiềm tàng trong các cuộc tấn công mạng. Ông Sergey Lozhkin, Trưởng nhóm Nghiên cứu và Phân tích toàn cầu (GReAT) của Kaspersky, đã đưa ra nhận định này tại sự kiện tuần lễ an ninh mạng diễn ra hồi đầu tháng 8 tại Đà Nẵng.

Dark AI, thuật ngữ dùng để chỉ việc triển khai các mô hình ngôn ngữ lớn (LLMs) nằm ngoài sự kiểm soát và các tiêu chuẩn an toàn thông thường, đang bị lợi dụng cho các mục đích phi đạo đức hoặc bất hợp pháp. Khác với các nền tảng AI chính thống được trang bị cơ chế bảo vệ nghiêm ngặt, Dark AI thường bị khai thác để thực hiện các hành vi lừa đảo, thao túng, tấn công mạng hoặc khai thác dữ liệu một cách trái phép, hoàn toàn nằm ngoài tầm kiểm soát.

Một số ứng dụng AI tạo sinh hiển thị trên smartphone. Ảnh: Bảo Lâm
Ứng dụng AI tạo sinh trên smartphone: Tiện lợi và thông minh. Ảnh: Internet

Theo chuyên gia Lozhkin, sự trỗi dậy của Dark AI có liên hệ mật thiết với sự ra đời của các mô hình Black Hat GPT từ giữa năm 2023. Đây là những biến thể AI được tùy chỉnh đặc biệt để tạo ra mã độc, soạn thảo các email lừa đảo với độ tin cậy cao, tạo ra các video và giọng nói deepfake, và thậm chí hỗ trợ tin tặc thực hiện các cuộc tấn công mô phỏng. Một số cái tên đáng chú ý trong số này bao gồm WormGPT, DarkBard, FraudGPT và Xanthorox, tất cả đều được thiết kế để phục vụ cho các hoạt động tội phạm mạng và tự động hóa các hành vi độc hại.

Đáng lo ngại hơn, không chỉ tội phạm mạng đơn lẻ, các nhóm tấn công được hậu thuẫn bởi chính phủ của một số quốc gia cũng đang bắt đầu khai thác các mô hình ngôn ngữ lớn trong các chiến dịch của mình, ông Lozhkin cho biết.

Chuyên gia an ninh mạng Sergey Lozhkin. Ảnh: Kaspersky
Sergey Lozhkin (Kaspersky): Chuyên gia an ninh mạng hàng đầu. Ảnh: Internet

Thực tế, OpenAI đã từng công bố việc ngăn chặn hơn 20 chiến dịch lợi dụng các công cụ AI để thực hiện tấn công mạng và phát tán thông tin sai lệch. Trong các chiến dịch này, kẻ xấu có thể dễ dàng sản xuất hàng loạt nội dung giả mạo bằng nhiều ngôn ngữ khác nhau, vượt qua các lớp bảo mật thông thường và dễ dàng đánh lừa nạn nhân.

Ông Lozhkin nhấn mạnh: “AI vốn dĩ không có khả năng phân biệt đúng sai, nó chỉ đơn thuần thực hiện theo các chỉ dẫn được lập trình.” Tuy nhiên, trong bối cảnh các công cụ Dark AI ngày càng trở nên phổ biến, các tổ chức và cá nhân cần phải tăng cường kỷ luật an ninh mạng, đầu tư vào các giải pháp phát hiện mối đe dọa do AI hỗ trợ và chủ động cập nhật kiến thức để phòng tránh trở thành nạn nhân.

Để đối phó với mối đe dọa này, Kaspersky khuyến nghị các tổ chức nên siết chặt kiểm soát truy cập và tăng cường đào tạo nhân viên, nhằm hạn chế tình trạng “Shadow AI” – khi nhân viên tự ý sử dụng các công cụ AI mà không có sự giám sát, dẫn đến nguy cơ rò rỉ dữ liệu. Các biện pháp khác như xây dựng trung tâm điều hành an ninh mạng (SOC) hoặc triển khai các giải pháp bảo mật thế hệ mới cũng được đề xuất để phát hiện các mối đe dọa do AI tạo ra.

Bức tranh toàn cảnh được thể hiện rõ nét trong báo cáo An ninh mạng năm 2025 của Cisco, cho thấy thách thức này không chỉ mang tính lý thuyết. Tại Việt Nam, có tới 62% tổ chức thừa nhận sự thiếu tự tin trong việc phát hiện nhân viên sử dụng AI nằm ngoài tầm kiểm soát. Mặc dù 44% nhân viên trong các tổ chức tại Việt Nam đang sử dụng các công cụ GenAI đã được phê duyệt, nhưng có tới 40% bộ phận CNTT tham gia khảo sát cho biết họ không nắm rõ cách nhân viên tương tác với AI.

Admin


Nguồn: VnExpress

Leave a Reply

Your email address will not be published. Required fields are marked *