Trong bối cảnh cuộc đua trí tuệ nhân tạo (AI) ngày càng khốc liệt, Google đã thuê hàng nghìn nhân viên thông qua các công ty trung gian như GlobalLogic (thuộc tập đoàn Hitachi) và Accenture để đánh giá và kiểm duyệt nội dung do AI tạo ra, bao gồm chatbot Gemini và tính năng tóm tắt AI Overviews. Những nhân viên này đóng vai trò quan trọng trong việc đảm bảo an toàn và độ tin cậy của các sản phẩm AI trước khi chúng đến tay người dùng.
Rachael Sawyer, một chuyên viên viết tài liệu kỹ thuật, đã nhận được lời mời làm “nhà phân tích văn bản” trên LinkedIn vào mùa xuân 2024. Tuy nhiên, ngay từ ngày đầu tiên, cô nhận ra công việc thực tế là đánh giá và điều chỉnh nội dung do AI tạo ra. Sawyer là một trong số nhiều người làm công việc thầm lặng này, giúp Google cạnh tranh với các đối thủ như ChatGPT của OpenAI.
Alex, một chuyên viên đánh giá AI từ năm 2023, ví công việc của họ như “đội cứu hộ trên bãi biển”, đảm bảo không có sự cố nào xảy ra. Họ giúp các kỹ sư tinh chỉnh chatbot, cung cấp phản hồi cần thiết và đảm bảo các phản hồi phù hợp với nhiều lĩnh vực khác nhau, từ y học đến vật lý thiên văn, đồng thời tránh các kết quả độc hại.

Các công ty như GlobalLogic tuyển dụng nhân viên đánh giá AI theo hai nhóm chính: chuyên viên tổng quát và chuyên viên cấp cao, với các nhóm nhỏ có kiến thức chuyên môn sâu. Đa số chuyên viên ban đầu được tuyển dụng là giáo viên, nhà văn, thạc sĩ mỹ thuật và tiến sĩ vật lý. Những nhân viên này nằm ở tầng giữa của chuỗi cung ứng AI toàn cầu, nhận lương cao hơn nhân viên dán nhãn dữ liệu ở các nước đang phát triển, nhưng thấp hơn nhiều so với các kỹ sư thiết kế mô hình. Mức lương khởi điểm cho chuyên viên tổng quát là 16 USD/giờ, còn chuyên gia là 21 USD/giờ.
Tuy nhiên, công việc này không hề dễ dàng. Nhiều chuyên viên đánh giá AI chia sẻ với Guardian rằng họ ngày càng chán nản vì phải làm việc tách biệt, đối mặt với thời hạn gấp rút và cảm thấy sản phẩm mình đang tạo ra không an toàn. Một chuyên viên cho biết thời gian cho mỗi nhiệm vụ đã giảm từ 30 phút xuống còn 15 phút, trong khi vẫn phải đọc, xác thực và đánh giá khoảng 500 từ cho mỗi phản hồi.

Sawyer, người bắt đầu đánh giá AI của Google từ tháng 3/2024, ban đầu chỉ phân tích ghi chú cuộc họp và đánh giá phim ngắn do AI tạo. Nhưng dần dần, cô được giao nhiệm vụ kiểm duyệt nội dung cực đoan, bao gồm cả tài liệu bạo lực và tình dục do Gemini tạo ra. Cô cho biết mình không được báo trước về điều này và cảm thấy sốc khi công việc đòi hỏi xử lý những nội dung gây khó chịu như vậy. Áp lực phải hoàn thành hàng chục nhiệm vụ mỗi ngày khiến cô rơi vào vòng xoáy lo lắng và hoảng loạn mà không nhận được sự hỗ trợ về sức khỏe tinh thần từ công ty.
Ngoài ra, công việc đánh giá AI cũng thiếu ổn định. GlobalLogic đã tiến hành nhiều đợt sa thải từ đầu năm 2025, giảm số lượng chuyên viên từ gần 2.000 xuống còn khoảng 1.500 người. Andrew Lauzon, một chuyên viên đánh giá AI, đã bị sa thải vào tháng 8/2024 mà không nhận được lời giải thích thỏa đáng.
Nhiều chuyên viên đánh giá AI đã mất niềm tin vào sản phẩm mà họ đang giúp hoàn thiện. Họ tránh sử dụng các mô hình ngôn ngữ lớn (LLM) hoặc chặn tính năng tóm tắt AI vì đã nhận thức được những vấn đề trong quá trình phát triển. Họ cũng không khuyến khích gia đình và bạn bè sử dụng AI vì lý do tương tự.
Sawyer nhấn mạnh rằng AI không phải là “phép màu công nghệ” như được quảng bá, mà được xây dựng trên công sức của những người làm việc quá sức và bị trả lương thấp. Những chia sẻ này cho thấy một góc khuất trong ngành công nghiệp AI, nơi những người lao động thầm lặng đóng vai trò quan trọng nhưng lại phải đối mặt với nhiều áp lực và bất ổn.
Admin
Nguồn: VnExpress