AI Bị Đánh Lừa Bởi Dữ Liệu Độc Hại Như Thế Nào?

Theo các chuyên gia từ Wiz và Conversation, tấn công đầu độc dữ liệu đang nổi lên như một mối đe dọa đáng kể đối với các hệ thống trí tuệ nhân tạo (AI) và học máy (ML). Hình thức tấn công này nhắm vào dữ liệu huấn luyện của mô hình AI, với mục tiêu làm suy yếu hoặc thậm chí kiểm soát hành vi của nó.

Kẻ tấn công sẽ tìm cách đưa thông tin sai lệch hoặc không chính xác vào tập dữ liệu huấn luyện. Điều này có thể được thực hiện bằng cách thêm dữ liệu mới, thay đổi dữ liệu hiện có, hoặc xóa một phần dữ liệu gốc. Mục đích cuối cùng là tác động tiêu cực đến khả năng học hỏi và đưa ra quyết định chính xác của mô hình AI.

Các ngành công nghiệp phụ thuộc nhiều vào AI, như tài chính, chăm sóc sức khỏe và các hệ thống tự động, đặc biệt dễ bị tổn thương. Một ví dụ điển hình được Wiz đưa ra là hệ thống camera giám sát tại các nhà ga xe lửa. Các camera này cung cấp dữ liệu cho AI để quản lý hoạt động, từ việc theo dõi mức độ sạch sẽ đến tình trạng trống của bến đỗ. Nếu dữ liệu này bị “đầu độc”, hệ thống có thể đưa ra các quyết định sai lầm, gây ra hậu quả nghiêm trọng.

Dữ liệu độc hại có thể thay đổi hành vi của mô hình AI theo hướng lệch lạc. Ảnh: Barracuda
Dữ Liệu Độc Hại Làm Lệch Lạc Hành Vi AI: Ảnh Barracuda. Ảnh: Internet

Ví dụ, kẻ tấn công có thể sử dụng đèn laser để tạo ra tín hiệu giả, khiến camera nhầm lẫn và báo cáo sai về tình trạng bến đỗ. Điều này có thể dẫn đến việc trì hoãn các chuyến tàu và gây ra những hậu quả nghiêm trọng, thậm chí là chết người.

Một ví dụ khác, từng gây xôn xao dư luận, là trường hợp của chatbot Tay do Microsoft phát triển năm 2016. Chỉ sau vài giờ ra mắt, Tay đã bị người dùng mạng “đầu độc” bằng những bình luận không phù hợp. Chatbot này nhanh chóng bắt chước và lan truyền những ngôn từ phản cảm, buộc Microsoft phải gỡ bỏ và công khai xin lỗi. Sự việc này cho thấy rõ mức độ nguy hiểm của tấn công đầu độc dữ liệu, có thể làm hỏng hoặc phá hủy hoàn toàn mục đích sử dụng ban đầu của công nghệ.

Tuy nhiên, các nhà nghiên cứu đang nỗ lực phát triển các biện pháp đối phó. Tại Đại học Quốc tế Florida, phó giáo sư M. Hadi Amini và cộng sự đang tập trung vào việc xây dựng công nghệ để chống lại tấn công đầu độc dữ liệu. Một trong những phương pháp đầy hứa hẹn là “học liên kết”, cho phép mô hình AI học hỏi từ các nguồn dữ liệu phi tập trung mà không cần tập trung dữ liệu thô tại một nơi.

Hệ thống phi tập trung này có khả năng chống chịu tốt hơn so với các hệ thống tập trung, vì không có một điểm yếu duy nhất để khai thác. Dữ liệu bị “đầu độc” từ một thiết bị sẽ không ảnh hưởng ngay lập tức đến toàn bộ mô hình.

Một giải pháp khác là ứng dụng công nghệ blockchain. Blockchain cung cấp một sổ cái kỹ thuật số an toàn và minh bạch để ghi lại các giao dịch và theo dõi tài sản. Bằng cách bảo vệ quá trình huấn luyện AI bằng blockchain, các bản cập nhật có thể được xác thực và các dấu hiệu bất thường có thể được phát hiện sớm, ngăn chặn tấn công đầu độc dữ liệu lan rộng.

Cấu trúc được đánh dấu thời gian của blockchain cũng cho phép truy tìm nguồn gốc thông tin đầu vào, giúp khắc phục thiệt hại và tăng cường bảo vệ trong tương lai. Hơn nữa, khả năng tương tác của blockchain cho phép các mạng chia sẻ cảnh báo về các mẫu dữ liệu bị “đầu độc”, tạo ra một hệ thống phòng thủ hợp tác.

Ngoài ra, các nhà nghiên cứu có thể sử dụng các bộ lọc rà soát trước để kiểm tra dữ liệu trước khi đưa vào huấn luyện, hoặc huấn luyện các hệ thống học máy để chúng nhạy cảm hơn với nguy cơ tấn công mạng. Những nỗ lực này hứa hẹn sẽ giúp bảo vệ các hệ thống AI khỏi mối đe dọa ngày càng tăng của tấn công đầu độc dữ liệu.

Admin


Nguồn: VnExpress

Leave a Reply

Your email address will not be published. Required fields are marked *