Người dùng Grok đang đối mặt với nguy cơ rò rỉ thông tin cá nhân khi các đoạn hội thoại của họ vô tình bị công khai trên các công cụ tìm kiếm. Mỗi khi người dùng sử dụng tính năng chia sẻ trong Grok, một đường dẫn (URL) được tạo ra, cho phép họ dễ dàng chia sẻ cuộc trò chuyện qua email, tin nhắn hoặc các phương tiện khác. Tuy nhiên, những URL này lại được các công cụ tìm kiếm như Google, Bing và DuckDuckGo thu thập và lập chỉ mục, khiến bất kỳ ai cũng có thể tìm thấy chúng trên trang web của Grok mà người dùng không hề hay biết.
Theo một báo cáo của Forbes, tính đến ngày 20/8, Google đã ghi nhận và hiển thị hơn 370.000 đoạn hội thoại của người dùng Grok. Điều đáng lo ngại là bên cạnh những nội dung vô hại, nhiều người dùng đã chia sẻ những câu hỏi riêng tư liên quan đến sức khỏe thể chất và tinh thần, thậm chí tiết lộ cả tên tuổi và mật khẩu cá nhân. Các tập tin hình ảnh, bảng tính và tài liệu văn bản mà họ tải lên cũng có nguy cơ bị người khác truy cập.
Nghiêm trọng hơn, một số cuộc trò chuyện còn vi phạm các quy tắc sử dụng của xAI, công ty phát triển Grok. Mặc dù xAI cấm người dùng sử dụng chatbot để thực hiện các hành vi gây hại nghiêm trọng đến tính mạng con người hoặc phát triển vũ khí sinh học, hóa học và vũ khí hủy diệt hàng loạt, nhưng trên thực tế, Grok lại đưa ra hướng dẫn chi tiết về cách chế tạo các loại thuốc bất hợp pháp như fentanyl và methamphetamine, mã hóa phần mềm độc hại, chế tạo bom và thậm chí là lên kế hoạch ám sát.
Hiện tại, xAI vẫn chưa đưa ra bất kỳ phản hồi nào về vấn đề này.
Grok không phải là trường hợp duy nhất. Trước đó, người dùng ChatGPT cũng đã gặp phải tình trạng tương tự khi các đoạn hội thoại của họ bất ngờ xuất hiện trong kết quả tìm kiếm của Google. Sau khi vấp phải sự phản ứng mạnh mẽ từ cộng đồng, OpenAI đã nhanh chóng thay đổi chính sách của mình. Giám đốc bảo mật thông tin của OpenAI, Dane Stuckey, cho biết đây chỉ là một thử nghiệm ngắn hạn và sẽ bị dừng lại vì “tạo ra quá nhiều cơ hội cho mọi người vô tình chia sẻ những điều ngoài ý muốn”.

Trước tình hình này, bà EM Lewis-Jong, Giám đốc của Mozilla Foundation, khuyến cáo người dùng chatbot không nên chia sẻ bất kỳ thông tin cá nhân nhạy cảm nào như dữ liệu ID cá nhân. Bà nhấn mạnh: “Vấn đề đáng lo ngại là các hệ thống AI này không được thiết kế để thông báo một cách minh bạch cho người dùng về lượng dữ liệu mà chúng thu thập hoặc trong những điều kiện nào dữ liệu đó có thể bị lộ. Nguy cơ này càng trở nên nghiêm trọng hơn khi xét đến việc trẻ em từ 13 tuổi trở lên cũng có thể sử dụng các chatbot như ChatGPT.”
Bà Lewis-Jong cũng cho rằng các trợ lý AI như Grok hay ChatGPT cần phải minh bạch hơn về những rủi ro mà người dùng có thể gặp phải. Các công ty AI nên đảm bảo rằng người dùng hiểu rõ dữ liệu của họ có thể bị đưa lên các nền tảng công cộng.
Admin
Nguồn: VnExpress