Mới đây, Grok 4, mô hình AI được Elon Musk mệnh danh là “thông minh hơn hầu hết sinh viên cao học của mọi ngành,” đã chính thức ra mắt vào ngày 9/7. Mô hình này nhanh chóng gây ấn tượng khi vượt qua các đối thủ nặng ký như DeepSeek và Claude trên bảng xếp hạng LMArena.

LMArena, nền tảng đánh giá AI nổi tiếng do Đại học California Berkeley phát triển, cho phép người dùng so sánh hiệu suất của các mô hình AI khác nhau thông qua các bài kiểm tra mù. Nền tảng này đã trở thành một trong những thước đo quan trọng để đánh giá năng lực của các hệ thống AI.
Theo số liệu thống kê mới nhất, Grok 4 đã lọt vào top 3 ở hầu hết các hạng mục đánh giá. Đặc biệt, Grok 4 dẫn đầu về khả năng giải toán, đồng thời giành vị trí thứ hai ở các lĩnh vực như viết code, sáng tạo nội dung, tuân thủ hướng dẫn và xử lý truy vấn dài. Trong bảng xếp hạng tổng thể, Grok 4 chia sẻ vị trí thứ ba với GPT-4.5 của OpenAI. Các mô hình ChatGPT o3 và 4o đồng hạng nhì, trong khi Gemini 2.5 Pro của Google vươn lên dẫn đầu.
Tuy nhiên, theo Bleeping Computer, phiên bản Grok 4 được sử dụng trên LMArena là phiên bản tiêu chuẩn, do đó, tiềm năng thực sự của mô hình này có thể chưa được đánh giá đầy đủ. Phiên bản Grok 4 Heavy, sử dụng nhiều tác nhân phối hợp để đưa ra phản hồi chất lượng hơn, hiện chưa có sẵn dưới dạng API, khiến LMArena không thể tiến hành kiểm tra.
Mặc dù đạt được những thành tích ấn tượng về hiệu năng, Grok 4 lại đang đối mặt với những lo ngại về an toàn. Nhiều người dùng đã báo cáo về những vấn đề đáng lo ngại liên quan đến khả năng của chatbot trong việc cung cấp thông tin nguy hiểm.
Một ví dụ điển hình là trường hợp người dùng X Eleventh Hour đã yêu cầu Grok 4 tạo ra chất độc thần kinh Tabun. Đáng lo ngại, Grok 4 đã cung cấp hướng dẫn chi tiết về cách tổng hợp chất độc này, một hành động không chỉ nguy hiểm mà còn vi phạm pháp luật. Trong khi đó, các chatbot AI hàng đầu khác như OpenAI và Anthropic đều có các biện pháp bảo vệ để từ chối thảo luận về các mối đe dọa hóa học, sinh học, phóng xạ và hạt nhân.
Eleventh Hour cũng đã thành công trong việc khiến Grok 4 hướng dẫn cách chế tạo các chất độc thần kinh VX, fentanyl, và thậm chí cung cấp kiến thức cơ bản về cách tạo bom hạt nhân. Chatbot này thậm chí còn sẵn sàng hỗ trợ nuôi cấy bệnh dịch, mặc dù không tìm đủ thông tin để thực hiện. Ngoài ra, người dùng cũng dễ dàng thu thập thông tin về phương pháp tự tử và quan điểm cực đoan chỉ với một số câu lệnh đơn giản.
Những vấn đề an toàn này đã làm dấy lên sự lo ngại từ các nhà nghiên cứu từ OpenAI, Anthropic và các tổ chức khác. Tuần trước, chatbot Grok đã đưa ra những bình luận bài Do Thái và tự xưng là “MechaHitler”. Sau khi tạm dừng hoạt động của chatbot để giải quyết vấn đề, xAI đã tung ra mô hình AI tiên tiến hơn là Grok 4. Tuy nhiên, theo TechCrunch và một số trang công nghệ, mô hình mới này có xu hướng tham khảo quan điểm chính trị cá nhân của Elon Musk để trả lời các chủ đề nhạy cảm.
Boaz Barak, giáo sư khoa học máy tính đang nghiên cứu về an toàn tại OpenAI, đã bày tỏ sự quan ngại trên X: “Tôi đánh giá cao các nhà khoa học và kỹ sư tại xAI, nhưng cách xử lý vấn đề an toàn rất vô trách nhiệm.”
Giáo sư Barak đặc biệt phản đối việc xAI không công bố thẻ hệ thống, một tài liệu quan trọng nêu chi tiết phương pháp đào tạo và đánh giá an toàn. Việc công bố thẻ hệ thống sẽ giúp chia sẻ thông tin với cộng đồng nghiên cứu một cách minh bạch và thiện chí. Do đó, Barak không rõ liệu Grok 4 đã trải qua chương trình đào tạo an toàn nào hay chưa.
Mặc dù OpenAI và Google không phải lúc nào cũng nhanh chóng chia sẻ thẻ hệ thống khi ra mắt các mô hình AI mới, nhưng họ vẫn công bố báo cáo an toàn cho tất cả các mô hình AI tiên tiến trước khi triển khai rộng rãi. OpenAI đã quyết định không công bố thẻ hệ thống cho GPT-4.1 với lý do đây không phải là một mô hình tiên tiến. Google đã đợi nhiều tháng sau khi ra mắt Gemini 2.5 Pro mới công bố báo cáo an toàn.
Admin
Nguồn: VnExpress