Trong phiên thảo luận tại Quốc hội chiều 27/11, Bộ trưởng Bộ Khoa học và Công nghệ Nguyễn Mạnh Hùng đã giải đáp các ý kiến của đại biểu về dự luật Trí tuệ nhân tạo (AI). Ông cho biết dự luật được xây dựng theo hướng luật khung, học hỏi kinh nghiệm quốc tế để vừa kiểm soát rủi ro, vừa tạo điều kiện cho đổi mới. Các quy định chi tiết, mang tính kỹ thuật sẽ do Chính phủ ban hành, đảm bảo sự linh hoạt trước sự thay đổi nhanh chóng của công nghệ.
Bộ trưởng Hùng nhấn mạnh, quản trị AI thực chất là quản trị trí tuệ, tương tự như cách xã hội điều chỉnh việc sử dụng tri thức của con người. Trí tuệ hình thành từ giáo dục và thông tin chính thống, do đó dữ liệu đầu vào sẽ được quản lý theo Luật Dữ liệu và Luật Bảo vệ dữ liệu cá nhân. Các doanh nghiệp AI phải công bố nguồn dữ liệu hợp pháp, hệ thống AI phải được đánh giá rủi ro, kiểm định độc lập và có trách nhiệm giải trình.
Về đầu ra, Nhà nước sẽ áp dụng các tiêu chuẩn an toàn, cơ chế hậu kiểm và chế tài xử lý vi phạm. Theo ông Hùng, việc quản trị AI không phải là phát minh ra cơ chế mới hoàn toàn, mà là kế thừa kinh nghiệm quản lý trí tuệ của con người, áp dụng cho một công cụ mạnh mẽ và nhanh chóng hơn.
Ông cũng nhấn mạnh nguyên tắc cao nhất là lấy con người làm trung tâm, AI phục vụ con người và không thay thế quyền quyết định. Tính minh bạch là yêu cầu bắt buộc, người dân phải nhận biết khi nào họ đang tương tác với AI. Trách nhiệm pháp lý khi hệ thống AI gây thiệt hại sẽ được phân định rõ ràng giữa nhà phát triển, nhà cung cấp, đơn vị triển khai và người sử dụng.
Nhà nước sẽ xây dựng trung tâm siêu tính toán và dữ liệu AI quốc gia, phục vụ nghiên cứu và đào tạo; khuyến khích phát triển mô hình ngôn ngữ tiếng Việt và dữ liệu số để giảm sự phụ thuộc vào nước ngoài. AI trong các dịch vụ công và lĩnh vực nhạy cảm phải hoạt động trên hạ tầng AI của Việt Nam. Các lĩnh vực ưu tiên bao gồm hành chính công, y tế, giáo dục, nông nghiệp, công nghiệp và giao thông.
Bộ trưởng Hùng đồng tình với việc quản lý AI theo ba mức độ rủi ro: thấp, trung bình và cao. Về câu hỏi liệu AI có phải là nguồn nguy hiểm cao độ hay không, ông cho rằng nguồn nguy hiểm cao độ thường là các phương tiện vật lý vốn dĩ đã tiềm ẩn nguy cơ, như ô tô hay thuốc nổ. Trong khi đó, AI trong dự thảo luật không phải là phương tiện vật lý gây nguy hiểm, mà rủi ro xuất phát từ các quyết định do AI đưa ra.
Ông cũng lưu ý rằng AI mang lại nhiều lợi ích lớn, nhưng cũng tiềm ẩn rủi ro, và nhiều vấn đề của AI có thể được giải quyết bằng chính AI, như đào tạo nhân lực, phát hiện vi phạm đạo đức hay nhận diện deepfake. “AI và các vấn đề của nó sẽ luôn tồn tại. Chúng ta không loại bỏ mà chung sống và quản trị một cách khôn ngoan,” ông nói.
Đại biểu Hoàng Minh Hiếu (Ủy ban Pháp luật và Tư pháp) đánh giá cao việc cơ quan soạn thảo đã giải trình đầy đủ các ý kiến của đại biểu và đồng tình với cách tiếp cận vừa thúc đẩy phát triển AI, vừa kiểm soát rủi ro. Ông cho rằng cơ chế thử nghiệm có kiểm soát (Sandbox) là rất cần thiết, bởi AI là lĩnh vực mới, liên quan đến nhiều ngành và khó có thể áp dụng hiệu quả nếu chỉ dựa trên khuôn khổ pháp lý hiện hành.
Mục tiêu của Sandbox là tạm thời gỡ bỏ các rào cản pháp lý, cho phép thử nghiệm các mô hình trong một phạm vi giới hạn để thu thập dữ liệu chứng minh hiệu quả, từ đó hoàn thiện các quy định lâu dài. Ông Hiếu cho rằng cách làm này phù hợp với tư duy lập pháp “thể chế đi trước”, mở đường cho đổi mới và đề nghị dự luật cần quy định cụ thể hơn về cơ chế này.

Đại biểu Thạch Phước Bình (đoàn Vĩnh Long) nhất trí với định hướng thúc đẩy Sandbox, dữ liệu mở và hạ tầng tính toán. Ông đề xuất ưu tiên thử nghiệm cho các lĩnh vực y tế, giáo dục, tài chính và hành chính công; đồng thời xác định rõ các tiêu chí lựa chọn doanh nghiệp, thời hạn thử nghiệm và cơ chế minh bạch.
Ông Bình cũng đề nghị Nhà nước hỗ trợ các doanh nghiệp nhỏ, startup tiếp cận hạ tầng tính toán quốc gia, đặc biệt là GPU và siêu máy tính, thông qua các hình thức trợ giá hoặc hạn mức miễn phí. Bên cạnh đó, cần xây dựng kho dữ liệu mở quốc gia, cơ chế chia sẻ dữ liệu công bằng, đáp ứng yêu cầu bảo mật; đồng thời triển khai các chính sách đặc thù để thu hút và giữ chân nhân tài AI từ bậc đại học đến các chuyên gia quốc tế.
Đại biểu Phạm Trọng Nhân nêu thực tế là Trung Quốc đã nộp hơn 62.000 bằng sáng chế AI chỉ trong 10 tháng, gấp 12 lần tổng số bằng sáng chế của Việt Nam từ trước đến nay. Hoa Kỳ thu hút hơn 40 tỷ USD vốn tư nhân vào AI trong năm 2024, trong khi 99% mô hình nền tảng mà Việt Nam đang sử dụng là của nước ngoài. Ông cho rằng đây là những cảnh báo mạnh mẽ về chủ quyền số và nguy cơ phụ thuộc công nghệ.

Ông Nhân đặt vấn đề, trong bối cảnh AI là hạ tầng mềm của năng suất quốc gia, liệu Việt Nam có thể chấp nhận chỉ là nơi tiêu thụ dữ liệu và ứng dụng của các nước khác hay không. Nếu không chủ động, Việt Nam sẽ bị bỏ lại phía sau trong chuỗi giá trị toàn cầu. Ông chỉ ra ba rủi ro lớn hiện hữu, bao gồm bất bình đẳng dữ liệu và quyền riêng tư; sự thiên lệch và thiếu minh bạch trong các quyết định do AI hỗ trợ; và deepfake cùng với các hành vi thao túng nhận thức. Ông dẫn chứng, trong 9 tháng đầu năm 2025, thế giới đã ghi nhận hơn 180.000 video deepfake chính trị, trong đó 41% nhắm vào lãnh đạo các nước đang phát triển.
“Chỉ vài giây video giả cũng có thể gây tổn hại nghiêm trọng đến uy tín và an ninh xã hội,” ông nói. Ông đề xuất 6 định hướng, bao gồm áp dụng quản lý dựa trên rủi ro với 4 mức phân loại; bảo vệ quyền công dân; yêu cầu các nền tảng nước ngoài có trên 5 triệu người dùng phải đặt pháp nhân tại Việt Nam; thành lập Ủy ban An toàn hệ thống AI trực thuộc Thủ tướng; xây dựng cơ chế cập nhật theo thời gian thực; và có chế tài đủ mạnh, bao gồm xử lý hình sự đối với hành vi cố ý triển khai AI rủi ro cao mà không kiểm thử, không minh bạch.
Đại biểu Phạm Trọng Nhân cũng nhấn mạnh rằng dự luật không chỉ là một văn bản kỹ thuật, mà còn là tuyên ngôn về tư duy phát triển của Việt Nam, nhằm biến AI thành động lực mới, sức mạnh mới và năng lực cạnh tranh mới của quốc gia.
Admin
Nguồn: VnExpress
