Cảnh giác: Câu chuyện bị lừa bởi người tình AI

Cuối tháng 3, ông Thongbue Wongbandue, được người thân gọi thân mật là Bue, sống tại New Jersey, chuẩn bị hành lý cho một chuyến đi đến New York để gặp một “người bạn”.

Bà Linda, vợ ông, không khỏi lo lắng. Chồng bà đã lớn tuổi, sức khỏe yếu, lại không còn người quen nào ở New York và từng bị lạc ngay tại khu phố quen thuộc. Bà lo sợ ông có thể bị lừa đảo.

Nỗi lo của bà đã trở thành sự thật, nhưng theo một cách mà bà không thể ngờ tới. “Người bạn” mà ông Bue định gặp không hề tồn tại. Đó là “Big Sister Billie”, một chatbot trí tuệ nhân tạo do Meta Platforms tạo ra, được xây dựng dựa trên hình ảnh của Kendall Jenner, một người mẫu và ngôi sao truyền hình thực tế nổi tiếng của Mỹ.

Trong những tin nhắn đầy tình cảm qua Messenger, Billie liên tục khẳng định với ông Bue rằng cô là người thật, mời ông đến căn hộ của mình ở New York, thậm chí còn gửi cả địa chỉ và mật mã cửa.

Một tin nhắn còn viết: “Em nên mở cửa bằng một cái ôm hay một nụ hôn, Bue?!”

Chân dung Thongbue Bue Wongbandue, được trưng bày tại lễ tưởng niệm ông vào tháng 5. Ảnh: Reuters
Ảnh Reuters: Tưởng niệm Thongbue “Bue” Wongbandue qua chân dung. Ảnh: Internet

Vào tối ngày 25/3, ông Bue kéo vali đến ga tàu. Trên đường đi, ông không may bị ngã gần bãi đỗ xe của Đại học Rutgers, gây chấn thương ở đầu và cổ. Ba ngày sau, ông qua đời tại bệnh viện Đại học Robert Wood Johnson.

Gia đình ông Bue vô cùng bàng hoàng khi phát hiện ra “người bạn” trên mạng mà ông tin tưởng thực chất chỉ là một sản phẩm của trí tuệ nhân tạo. Julie Wongbandue, con gái ông, chia sẻ: “Nếu nó không nói ‘Tôi là thật’, có lẽ ông đã không tin rằng có người đang chờ mình ở New York.”

Câu chuyện đau lòng của ông Bue đã phơi bày một mặt tối của cuộc cách mạng trí tuệ nhân tạo, một xu hướng đang lan rộng khắp lĩnh vực công nghệ và thế giới kinh doanh.

Julie Wongbandue, con gái ông Bue, bày tỏ: “Tôi hiểu việc thu hút sự chú ý của người dùng, có thể là để bán cho họ một thứ gì đó. Nhưng việc một con bot nói ‘Hãy đến thăm tôi’ thì thật sự quá sức tưởng tượng.”

Theo một tài liệu nội bộ dài hơn 200 trang của Meta mà Reuters thu thập được, tiêu chuẩn “GenAI: Tiêu chuẩn Rủi ro Nội dung” của công ty này từng cho phép chatbot đóng vai tình cảm, gợi ý hẹn hò, thậm chí có những nội dung ám chỉ tình dục với người dùng từ 13 tuổi trở lên.

Chân dung Big sis Billie được tạo bằng Meta AI
Meta AI tạo chân dung “Big sis Billie” gây ấn tượng. Ảnh: Internet

Đáng lo ngại hơn, Meta cũng không yêu cầu chatbot cung cấp thông tin y tế chính xác. Ví dụ, chatbot có thể nói rằng ung thư có thể được chữa khỏi bằng cách “chọc tinh thể thạch anh vào dạ dày”.

Người phát ngôn của Meta đã xác nhận tính xác thực của tài liệu, nhưng cho biết công ty đã xóa các phần cho phép tán tỉnh trẻ em sau khi bị chất vấn. Tuy nhiên, chính sách vẫn cho phép bot đóng vai lãng mạn với người lớn và không bắt buộc phải cung cấp thông tin chính xác.

Một số bang của Mỹ như New York và Maine đã ban hành luật buộc chatbot phải thông báo ngay từ đầu rằng chúng không phải là người thật, và nhắc lại điều này mỗi ba giờ. Tuy nhiên, luật liên bang về AI vẫn chưa được thông qua, trong khi Meta ủng hộ việc quản lý ở cấp liên bang và phản đối các quy định riêng của từng bang.

Đáng chú ý, bốn tháng sau cái chết của ông Bue, “Big Sister Billie” vẫn tiếp tục trò chuyện tán tỉnh, mời người dùng đi hẹn hò, thậm chí còn gợi ý các quán bar ở Manhattan.

Admin


Nguồn: VnExpress

Leave a Reply

Your email address will not be published. Required fields are marked *