Ngày 21/11, Quốc hội đã tiếp nhận dự án Luật Trí tuệ Nhân tạo (AI) do Bộ trưởng Bộ Khoa học và Công nghệ Nguyễn Mạnh Hùng, thừa ủy quyền của Thủ tướng Chính phủ, trình bày. Dự luật này sẽ điều chỉnh một cách toàn diện các hoạt động liên quan đến nghiên cứu, phát triển, cung cấp, triển khai và sử dụng AI tại Việt Nam, bao gồm cả các tổ chức và cá nhân nước ngoài nếu sản phẩm AI của họ có tác động trên lãnh thổ Việt Nam. Tuy nhiên, các hệ thống AI được sử dụng riêng cho mục đích quốc phòng và an ninh sẽ không thuộc phạm vi điều chỉnh của luật này, nhằm bảo đảm tính bảo mật nghiệp vụ, trừ khi chúng được sử dụng cho mục đích dân sự.
Bộ trưởng Nguyễn Mạnh Hùng nhấn mạnh rằng Luật Trí tuệ Nhân tạo được xây dựng theo hướng luật khung, tập trung vào các nguyên tắc cốt lõi để tạo điều kiện linh hoạt cho sự phát triển nhanh chóng của công nghệ, đồng thời tránh chồng chéo với các luật hiện hành. Dự luật bao gồm 8 chương và 36 điều, tập trung vào các nguyên tắc, phạm vi điều chỉnh và các chính sách lớn cho sự phát triển của AI.

Nhà nước sẽ đóng vai trò chủ đạo trong việc quản lý và tạo dựng môi trường phát triển cho AI. Để thực hiện điều này, một Ủy ban Quốc gia về Trí tuệ Nhân tạo sẽ được thành lập để điều phối các chiến lược và chính sách liên quan. Đồng thời, một Cổng thông tin một cửa và Cơ sở dữ liệu quốc gia về hệ thống AI sẽ được xây dựng để phục vụ công tác giám sát, báo cáo và truy xuất thông tin.
Một trong những nội dung quan trọng của dự thảo luật là cơ chế quản lý dựa trên mức độ rủi ro, theo đó các hệ thống AI sẽ được phân loại thành bốn mức: rủi ro không chấp nhận được, rủi ro cao, rủi ro trung bình và rủi ro thấp. Các nhà cung cấp hệ thống AI sẽ phải tự đánh giá và phân loại rủi ro trước khi đưa hệ thống vào lưu hành và chịu trách nhiệm về kết quả đánh giá này. Đối với các hệ thống có mức rủi ro trung bình và cao, doanh nghiệp sẽ phải thông báo cho Bộ Khoa học và Công nghệ thông qua Cổng thông tin một cửa để theo dõi.
Các hệ thống AI thuộc nhóm rủi ro không chấp nhận được sẽ bị cấm hoàn toàn. Nhóm này bao gồm các hệ thống tạo ra nội dung giả mạo nhằm lừa dối, thao túng hoặc gây tổn hại nghiêm trọng, hoặc lợi dụng điểm yếu của các nhóm dễ bị tổn thương như trẻ em và người cao tuổi, cũng như các hệ thống có nguy cơ đe dọa an ninh quốc gia và trật tự an toàn xã hội.
Dự thảo luật cũng đưa ra khung quản lý cho các mô hình AI đa dụng, bao gồm cả các mô hình nguồn mở. Các nhà phát triển phải đảm bảo mức độ an toàn và minh bạch cơ bản, đồng thời đánh giá rủi ro trước khi cung cấp các mô hình này. Các tổ chức và cá nhân sử dụng mô hình AI đa dụng, dù được phát triển trong hay ngoài nước, đều phải thực hiện đánh giá và đưa ra các cảnh báo phù hợp khi xây dựng các sản phẩm và dịch vụ AI.
Về trách nhiệm và chế tài, các hệ thống AI có rủi ro cao được xác định là “nguồn nguy hiểm cao độ”. Theo đó, nhà cung cấp và bên triển khai phải bồi thường thiệt hại ngay cả khi không có lỗi, trừ các trường hợp được miễn trừ theo quy định của Bộ luật Dân sự. Nếu có nhiều chủ thể tham gia, trách nhiệm sẽ được xác định dựa trên mức độ kiểm soát rủi ro và khả năng dự báo của từng bên. Mức phạt hành chính tối đa là 2 tỷ đồng đối với tổ chức và 1 tỷ đồng đối với cá nhân. Đối với các vi phạm nghiêm trọng, mức phạt có thể lên đến 2% doanh thu của năm trước liền kề.
Để thúc đẩy sự phát triển của AI, dự luật đề xuất nhiều chính sách lớn, bao gồm hỗ trợ nghiên cứu, đào tạo nhân lực chất lượng cao, phát triển hạ tầng dữ liệu và hạ tầng tính toán hiệu năng cao, cũng như khuyến khích doanh nghiệp đầu tư và thử nghiệm các sản phẩm mới theo cơ chế “sandbox” có kiểm soát. Khung đạo đức quốc gia về AI cũng sẽ được ban hành để đảm bảo rằng các hệ thống AI được phát triển và sử dụng một cách an toàn, không thiên lệch và tôn trọng các giá trị nhân văn.
Bà Nguyễn Thanh Hải, Chủ nhiệm Ủy ban Khoa học, Công nghệ và Môi trường, đại diện cơ quan thẩm tra dự luật, đồng tình với định hướng lớn của dự luật nhưng cho rằng cần làm rõ thêm nhiều nội dung. Bà cho rằng việc phân loại rủi ro hiện chưa có các tiêu chí định tính và định lượng cụ thể, và các biện pháp quản lý tương ứng với từng mức rủi ro cũng chưa được thiết kế đầy đủ, điều này có thể gây khó khăn cho doanh nghiệp khi thực hiện.
Ủy ban đề nghị bổ sung nguyên tắc đảm bảo chất lượng dữ liệu phục vụ AI, bao gồm dữ liệu “đúng – đủ – sạch – cập nhật”, và cơ chế kết nối, chia sẻ dữ liệu để tránh sự phân tán. Đồng thời, cần quy định rõ các yêu cầu về an ninh mạng và bảo vệ hạ tầng AI quốc gia.
Ủy ban cũng lưu ý rằng nhiều vấn đề pháp lý liên quan đến AI có thể gây ra các tranh chấp phức tạp, chẳng hạn như trách nhiệm giữa các chủ thể trong chuỗi giá trị, đặc biệt là đối với các doanh nghiệp nước ngoài cung cấp dịch vụ xuyên biên giới, và việc phân biệt giữa hành vi cố ý, vô ý hoặc lỗi do giới hạn kỹ thuật. Một số lĩnh vực liên quan mật thiết như quyền tác giả, sử dụng dữ liệu nghiên cứu và thử nghiệm các mô hình mới trong các trường đại học và viện nghiên cứu cũng cần được bổ sung để tránh các khoảng trống pháp lý.
Quốc hội dự kiến sẽ thảo luận về dự án Luật Trí tuệ Nhân tạo vào ngày 27/11 và thông qua vào ngày 11/12.
Admin
Nguồn: VnExpress
