Vấn đề trách nhiệm pháp lý khi trí tuệ nhân tạo (AI) gây ra những hậu quả tiêu cực đang là chủ đề được quan tâm và thảo luận rộng rãi. Sự phát triển nhanh chóng của AI đã vượt xa khả năng điều chỉnh của luật pháp và chính sách hiện hành, đòi hỏi các cơ quan chức năng ở nhiều quốc gia phải khẩn trương xây dựng khung pháp lý phù hợp để xác định rõ ràng trách nhiệm trong những tình huống AI gây hại.
Một trong những khó khăn lớn nhất là việc xác định ai hoặc tổ chức nào phải chịu trách nhiệm khi AI mắc lỗi. Bản thân AI không có khả năng tự chịu trách nhiệm hoặc nhận thức về hành động của mình, do đó, việc quy trách nhiệm trở nên phức tạp. Tuy nhiên, nhiều ý kiến cho rằng cần phải có một chủ thể cụ thể, có thể là cá nhân hoặc tổ chức, chịu trách nhiệm về những sai sót của AI.
Thứ trưởng Bùi Hoàng Phương đã đề cập đến vấn đề này tại Ngày hội Trí tuệ nhân tạo Việt Nam (AI4VN) 2025, diễn ra vào tháng 9 tại Hà Nội. Ông cho biết Chính phủ Việt Nam đang giao Bộ Khoa học và Công nghệ chủ trì việc xây dựng Luật Trí tuệ nhân tạo. Nếu được thông qua, Việt Nam sẽ là một trong số ít quốc gia trên thế giới có hành lang pháp lý đầy đủ và rõ ràng về AI.
Dự thảo Luật Trí tuệ nhân tạo được xây dựng dựa trên năm nguyên tắc cốt lõi: lấy con người làm trung tâm, đảm bảo an toàn và an ninh mạng, tự chủ quốc gia kết hợp với hội nhập quốc tế, phát triển toàn diện và bền vững, và quản trị một cách cân bằng và hài hòa.
Một điểm đáng chú ý trong dự thảo luật là quy định quản lý theo mức độ rủi ro. Các hệ thống AI có mức độ rủi ro cao sẽ phải chịu sự giám sát chặt chẽ hơn. Bên cạnh đó, luật cũng quy định rõ ràng về tính minh bạch và việc dán nhãn, đảm bảo người dùng được thông báo khi tương tác với AI, giúp phân biệt nội dung do con người tạo ra và nội dung do máy tạo ra, một thách thức lớn trong bối cảnh hiện nay.
Admin
Nguồn: VnExpress