Deepfake lừa đảo: Nguy cơ và cách phòng tránh

Các dịch vụ tạo deepfake, hay video và âm thanh giả mạo, đang được rao bán tràn lan trên thị trường chợ đen với mức giá khởi điểm chỉ từ 30 USD (khoảng 800.000 đồng) cho tin nhắn thoại giả và 50 USD (khoảng 1.300.000 đồng) cho video giả. Thông tin này được công bố trong báo cáo mới nhất của nhóm Nghiên cứu và Phân tích toàn cầu Kaspersky. Mức giá cụ thể có thể thay đổi tùy thuộc vào độ phức tạp và thời lượng của nội dung deepfake.

Điều đáng chú ý là mức giá này đã giảm đáng kể so với trước đây. Các báo cáo trước đây ghi nhận chi phí tạo deepfake dao động từ 300 đến 20.000 USD/phút, cho thấy sự sụt giảm hàng chục lần về giá thành.

Theo các chuyên gia, những gói deepfake này cho phép những kẻ xấu dễ dàng và nhanh chóng tạo ra các đoạn âm thanh và video giả mạo theo thời gian thực. Các quảng cáo dịch vụ còn cung cấp nhiều tính năng hấp dẫn như thay đổi khuôn mặt (face swapping) trực tiếp trong các cuộc gọi video trên các nền tảng hội nghị trực tuyến, “thay” mặt để xác thực danh tính, giả mạo nguồn phát camera trên thiết bị, và công cụ giả giọng nói (voice cloning) cho phép bắt chước giọng nói, điều chỉnh cao độ và âm sắc để thể hiện các cảm xúc khác nhau.

Tại hội nghị về an toàn thông tin CIO CSO 2025 diễn ra hồi đầu tháng 10, các chuyên gia từ công ty An ninh mạng Viettel cũng đã cảnh báo về sự phát triển của deepfake, đặc biệt là trong các hoạt động lừa đảo qua giọng nói (vishing) và video. Một ví dụ điển hình là vụ việc một công ty tư vấn tại Hong Kong (Trung Quốc) bị thiệt hại 25 triệu USD do kẻ lừa đảo giả mạo giám đốc tài chính, thực hiện cuộc gọi video và ra lệnh chuyển tiền.

Một chuyên gia nhận định: “AI đã hạ thấp rào cản kỹ thuật cho những kẻ tấn công xuống rất nhiều. Ngay cả những người không có nhiều kiến thức về kỹ thuật cũng có thể tham gia vào các hoạt động tấn công.”

Ông Dmitry Galov, Trưởng nhóm Nghiên cứu và Phân tích toàn cầu của Kaspersky, nhấn mạnh rằng thị trường chợ đen không chỉ chứng kiến sự bùng nổ về quảng cáo các dịch vụ deepfake mà còn cả sự gia tăng về nhu cầu sử dụng công cụ này.

Thử nghiệm dùng mặt giả để kiểm tra khả năng xác thực khuôn mặt trên một ứng dụng điện thoại. Ảnh: Lưu Quý
Thử nghiệm mặt nạ giả: Đánh giá bảo mật xác thực khuôn mặt trên điện thoại. Ảnh: Internet

Các chuyên gia cũng phát hiện ra rằng tội phạm mạng đang tích cực ứng dụng trí tuệ nhân tạo (AI), trong đó có nhiều nền tảng phát triển các mô hình ngôn ngữ lớn (LLM) độc hại được xây dựng hoàn toàn từ đầu, tách biệt với các mô hình LLM công khai và có khả năng chạy trực tiếp trên thiết bị của tội phạm.

Ông Galov nhận định: “Dù công nghệ này chưa tạo ra một mối đe dọa mạng hoàn toàn mới, chúng khiến những kẻ tấn công trở nên nguy hiểm hơn đáng kể.”

Trong bối cảnh đó, các chuyên gia bảo mật khuyến nghị một trong những hướng đi triển vọng là tận dụng chính AI để tăng năng suất của các chuyên gia bảo mật và nâng cao hiệu quả phòng vệ.

Ngoài việc trang bị các công cụ bảo vệ, các chuyên gia của Kaspersky cũng khuyến cáo các tổ chức và doanh nghiệp cần đảm bảo rằng nhân viên của họ hiểu rõ về deepfake và mức độ nguy hiểm của công nghệ này. Các tổ chức nên thường xuyên tổ chức các khóa đào tạo để giúp nhân viên nhận biết các dấu hiệu đặc trưng của deepfake, chẳng hạn như chuyển động giật, không mượt mà, ánh sáng không đồng nhất giữa các khung hình, tông màu da thiếu tự nhiên, chớp mắt bất thường hoặc ít chớp mắt, hình ảnh bị méo hoặc biến dạng, và video cố tình quay ở chất lượng thấp hoặc trong điều kiện ánh sáng kém.

Admin


Nguồn: VnExpress

Leave a Reply

Your email address will not be published. Required fields are marked *