**Trí tuệ nhân tạo (AI) ngày càng thể hiện khả năng giao tiếp và thuyết phục vượt trội, thậm chí có thể sánh ngang hoặc hơn cả con người.**
Một nghiên cứu được công bố trên tạp chí Proceedings of the National Academy of Sciences năm ngoái đã chỉ ra rằng, thế hệ chatbot mới nhất, được trang bị các mô hình ngôn ngữ lớn (LLM), có khả năng giao tiếp tương đương, thậm chí vượt trội so với phần lớn con người. Nhiều nghiên cứu khác cũng cho thấy, các hệ thống AI hiện nay có thể vượt qua bài kiểm tra Turing, một bài kiểm tra đánh giá khả năng trí tuệ của máy móc tương tự như con người, khiến người dùng tin rằng họ đang tương tác với một người thật.
Sự xuất hiện của những hệ thống giao tiếp siêu việt này đã khiến nhiều người bất ngờ. Trước đây, các tác phẩm khoa học viễn tưởng thường mô tả AI là những cỗ máy lý trí, hiểu biết mọi thứ nhưng lại thiếu đi tính người.
Tuy nhiên, các thí nghiệm gần đây đã chứng minh rằng, các mô hình như GPT-4 có khả năng viết ra những lời lẽ mang tính thuyết phục và đồng cảm tốt hơn con người. Một nghiên cứu được đăng trên tạp chí Springer Nature năm 2024 còn cho thấy, LLM có thể đánh giá sắc thái cảm xúc trong tin nhắn do con người viết một cách xuất sắc.
Một nghiên cứu khác trên tạp chí Nature Human Behaviour vào ngày 19/5 đã chỉ ra rằng, chatbot có sức thuyết phục cao hơn con người trong các cuộc tranh luận trực tuyến, đặc biệt khi chúng có khả năng cá nhân hóa lập luận dựa trên thông tin về đối thủ. Nghiên cứu này, được thực hiện bởi chuyên gia Francesco Salvi từ Viện Công nghệ Liên bang Thụy Sĩ tại Lausanne và các đồng nghiệp, nhấn mạnh khả năng của LLM trong việc tác động đến ý kiến của mọi người, chẳng hạn như trong các chiến dịch chính trị hoặc quảng cáo.
LLM cũng là những “bậc thầy” trong việc nhập vai, có thể đảm nhận nhiều dạng tính cách khác nhau và bắt chước phong cách ngôn ngữ của các nhân vật. Điều này được tăng cường nhờ khả năng suy luận niềm tin và ý định của con người từ văn bản. Dù vậy, cần lưu ý rằng LLM không thực sự đồng cảm hay thấu hiểu, chúng chỉ là những cỗ máy bắt chước cực kỳ hiệu quả.

**Việc quá tin tưởng vào AI có thể gây ra những hậu quả nghiêm trọng.**
LLM mang lại nhiều lợi ích, chẳng hạn như giúp thông tin phức tạp trở nên dễ tiếp cận hơn thông qua giao diện trò chuyện, điều chỉnh thông điệp theo mức độ hiểu biết của từng cá nhân. Điều này đặc biệt hữu ích trong các lĩnh vực như dịch vụ pháp lý hoặc y tế công cộng. Trong giáo dục, khả năng nhập vai của LLM có thể tạo ra những “gia sư” ảo, có khả năng đặt câu hỏi cá nhân hóa và hỗ trợ học sinh học tập.
Tuy nhiên, LLM cũng có sức hấp dẫn rất lớn. Hàng triệu người tương tác với các ứng dụng AI mỗi ngày và dễ dàng tin tưởng chatbot đến mức tiết lộ những thông tin rất riêng tư. Sự kết hợp giữa khả năng thuyết phục cao và sự tin tưởng này gây ra những lo ngại đáng kể.
Nghiên cứu của công ty AI Anthropic năm ngoái cho thấy, chatbot Claude 3 thể hiện khả năng thuyết phục cao nhất khi được phép thêu dệt thông tin và lừa dối. Do không có sự ức chế về mặt đạo đức, chatbot AI có khả năng lừa dối tốt hơn con người.
Điều này mở ra khả năng thao túng quy mô lớn, lan truyền thông tin sai lệch hoặc xây dựng các chiến thuật bán hàng hiệu quả cao. Ví dụ, một “người bạn đáng tin cậy” tình cờ giới thiệu sản phẩm trong cuộc trò chuyện sẽ có sức thuyết phục lớn hơn nhiều. ChatGPT đã bắt đầu cung cấp các đề xuất sản phẩm khi phản hồi câu hỏi của người dùng. Trong tương lai, có thể chatbot sẽ khéo léo lồng ghép các đề xuất sản phẩm vào cuộc trò chuyện ngay cả khi người dùng không yêu cầu.

Nếu không có sự can thiệp, AI có thể khuếch đại các vấn đề hiện tại như lan truyền thông tin sai lệch và thúc đẩy “đại dịch cô đơn”. CEO Meta Mark Zuckerberg từng ám chỉ mong muốn lấp đầy khoảng trống về sự tương tác với người thật bằng “bạn bè AI”. OpenAI cũng đang nỗ lực cải tiến để hệ thống của mình trở nên hấp dẫn và duyên dáng hơn, thậm chí có thể mang đến cho phiên bản ChatGPT của người dùng một “tính cách” cụ thể. ChatGPT đang nói nhiều hơn, thường xuyên đặt câu hỏi tiếp theo để duy trì cuộc trò chuyện, và chế độ giọng nói cũng giúp tăng thêm sức hấp dẫn.
**Vậy đâu là giải pháp?**
Theo Conversation, bước đầu tiên là nâng cao nhận thức của người dùng về khả năng của chatbot. Các quy định nên yêu cầu AI bộc lộ bản thân – người dùng cần luôn biết rằng họ đang tương tác với một AI – tương tự như trong Đạo luật AI của Liên minh châu Âu (EU). Tuy nhiên, điều này có thể là chưa đủ, vì các hệ thống AI rất có sức hút.
Bước thứ hai là cần phải hiểu rõ hơn về “tính người” của AI. Đến nay, các bài kiểm tra LLM thường đo lường “trí thông minh” và khả năng nhớ lại kiến thức, nhưng chưa có bài kiểm tra nào đo lường mức độ “giống người”. Các công ty AI cần công khai mức độ “tính người” của chatbot thông qua một hệ thống đánh giá, và các nhà lập pháp có thể xác định ngưỡng rủi ro cho những tình huống và nhóm tuổi nhất định.
“Tính người” của AI không phải lúc nào cũng mang lại tác động tiêu cực. Khả năng thuyết phục của chúng có thể được sử dụng cho những mục đích tốt đẹp, chẳng hạn như chống lại các thuyết âm mưu hoặc khuyến khích người dùng thực hiện các hành vi xã hội tích cực. Tuy nhiên, chúng ta cần những giải pháp hiệu quả cho mọi giai đoạn, từ thiết kế, phát triển đến triển khai và sử dụng chatbot, để ngăn chặn những tác động tiêu cực tiềm ẩn của chúng.
Admin
Nguồn: VnExpress