Đề xuất cấm AI: Ngăn chặn thao túng nhận thức và hành vi

Bộ Tư pháp vừa công bố hồ sơ thẩm định Dự thảo Luật Trí tuệ nhân tạo (AI), cho thấy sự cấp thiết của việc xây dựng một hành lang pháp lý toàn diện cho lĩnh vực này. Hiện tại, các quy định pháp luật về AI mới chỉ được đề cập trong một chương của Luật Công nghiệp công nghệ số, chưa đáp ứng được nhu cầu quản lý, bảo đảm đạo đức và an toàn trong bối cảnh AI đang phát triển mạnh mẽ.

Theo đánh giá của cơ quan soạn thảo, tốc độ phát triển của AI đang vượt xa khả năng hoàn thiện thể chế. Một trong những thách thức pháp lý lớn nhất hiện nay là việc xác định trách nhiệm pháp lý khi AI gây ra thiệt hại. Câu hỏi đặt ra là ai sẽ phải chịu trách nhiệm khi một hệ thống AI gây ra hậu quả tiêu cực, ví dụ như xe tự lái gây tai nạn, phần mềm chẩn đoán y tế đưa ra kết quả sai lệch, hay hệ thống tín dụng tự động từ chối cho vay một cách phân biệt đối xử? Liệu đó là nhà phát triển, nhà sản xuất, người sử dụng hay chính hệ thống AI? Hiện tại, luật pháp chưa có quy định cụ thể cho những tình huống này, gây ra sự hoang mang cho người tiêu dùng và tạo rủi ro cho doanh nghiệp.

Sự phát triển của AI cũng tiềm ẩn nhiều nguy cơ an ninh, đặc biệt là khi công nghệ deepfake bị lạm dụng để tạo ra thông tin sai lệch, bôi nhọ, lừa đảo hoặc gây bất ổn chính trị xã hội. Bên cạnh đó, các thuật toán thiên vị có thể dẫn đến việc AI học và khuếch đại các định kiến có sẵn trong dữ liệu, gây ra những quyết định bất công và phân biệt đối xử trong xã hội.

Hệ thống pháp luật Việt Nam hiện còn thiếu các cơ chế quan trọng như phân loại, kiểm soát rủi ro hệ thống AI; kiểm định, cấp phép và giám sát các hệ thống AI; khuyến khích khởi nghiệp và thương mại hóa sản phẩm AI nội địa. Sự phụ thuộc vào công nghệ và mô hình nước ngoài cũng là một vấn đề cần giải quyết, trong bối cảnh hội nhập và hợp tác quốc tế ngày càng trở nên cấp thiết. Chính vì vậy, việc xây dựng Luật Trí tuệ nhân tạo là vô cùng cần thiết để giải quyết những vấn đề trên.

Dự thảo Luật Trí tuệ nhân tạo đặt con người làm trung tâm, khẳng định AI phải phục vụ và hỗ trợ con người, tôn trọng nhân phẩm, quyền tự do, quyền riêng tư và các giá trị văn hóa, đạo đức. Nguyên tắc này được thể hiện rõ trong Điều 10 của dự thảo, nhấn mạnh rằng con người phải giữ quyền kiểm soát và chịu trách nhiệm cuối cùng đối với mọi quyết định, hành vi và hậu quả phát sinh trong quá trình thiết kế, phát triển, triển khai và sử dụng AI.

Bộ Khoa học và Công nghệ đề xuất phân loại AI theo 4 mức độ rủi ro để có cơ chế quản lý phù hợp. Mức độ rủi ro cao nhất là “rủi ro không chấp nhận được”, bao gồm các AI có khả năng gây tổn hại nghiêm trọng, không thể khắc phục đối với quyền con người, an ninh quốc gia, trật tự, an toàn xã hội, hoặc được sử dụng để thực hiện các hành vi bị pháp luật nghiêm cấm. Các AI thuộc loại này sẽ bị cấm phát triển, cung cấp, đưa ra thị trường hoặc sử dụng tại Việt Nam, mà chỉ được nghiên cứu, thử nghiệm trong các môi trường kiểm soát.

Các AI được thiết kế để trực tiếp thực hiện hành vi bị cấm, thao túng nhận thức của con người gây tổn hại về thể chất hoặc tinh thần, hoặc lợi dụng điểm yếu của các nhóm người dễ bị tổn thương cũng thuộc nhóm “rủi ro không chấp nhận được”. Tương tự, các AI tạo ra nội dung giả mạo gây nguy hại cho an ninh quốc gia hoặc được sử dụng để chống phá Nhà nước cũng bị liệt vào nhóm này.

Mức độ rủi ro thứ hai là “rủi ro cao”, áp dụng cho các AI có khả năng gây tổn hại đến tính mạng, sức khỏe, quyền và lợi ích hợp pháp của cá nhân, tổ chức hoặc lợi ích công cộng quan trọng. Dự thảo Luật đề xuất rằng các AI này phải được đánh giá sự phù hợp trước khi lưu hành và chịu sự thanh tra, kiểm tra của cơ quan nhà nước có thẩm quyền trong quá trình hoạt động.

Hai mức độ rủi ro còn lại là “rủi ro trung bình” (AI có nguy cơ gây lừa dối, nhầm lẫn hoặc thao túng người sử dụng) và “rủi ro thấp” (AI không thuộc ba trường hợp trên).

Dự thảo Luật cũng đề xuất xây dựng Cổng thông tin điện tử một cửa về AI, là một phần của Cổng Dịch vụ công Quốc gia. Cổng này sẽ cung cấp các dịch vụ như tiếp nhận, trả lời các vấn đề liên quan đến phân loại, đăng ký AI; cung cấp thông tin, hướng dẫn, công cụ tra cứu pháp luật, tiêu chuẩn, quy chuẩn và tài liệu kỹ thuật. Đây cũng sẽ là kênh ưu tiên để nhà chức trách tiếp nhận báo cáo sự cố và phản hồi sau khi AI được đưa ra thị trường.

Việc hoàn thiện luật về AI là một xu hướng tất yếu, đã được nhiều quốc gia phát triển thực hiện. Luật về Trí tuệ nhân tạo (AI Act) của EU, có hiệu lực từ ngày 1/8/2024, là một ví dụ điển hình. Đạo luật này tiếp cận dựa trên rủi ro, nhằm đảm bảo các hệ thống AI được sử dụng một cách an toàn, đáng tin cậy, minh bạch và tôn trọng các quyền cơ bản cũng như các giá trị của EU.

Hàn Quốc cũng đã ban hành Luật cơ bản về phát triển trí tuệ nhân tạo và xây dựng nền tảng niềm tin, nhằm cân bằng giữa thúc đẩy và quản lý AI. Luật này quy định các chính sách thúc đẩy phát triển AI lành mạnh và xây dựng nền tảng tin cậy.

Trung Quốc, với tham vọng trở thành cường quốc AI hàng đầu thế giới, đã ban hành nhiều văn bản quản lý AI, nhấn mạnh việc đảm bảo an ninh quốc gia, làm chủ công nghệ lõi và xây dựng các bộ dữ liệu khổng lồ để phát triển các mô hình nền tảng có chủ quyền.

Trong khi đó, Mỹ ưu tiên thúc đẩy đổi mới sáng tạo về AI thông qua các khoản đầu tư lớn vào nghiên cứu và phát triển. Quốc hội, Nhà Trắng và các cơ quan hành pháp liên tục ban hành nhiều văn bản, đạo luật AI kết hợp giữa các luật hiện hành và luật chuyên ngành. Các bang cũng ban hành luật AI riêng, tập trung vào ứng dụng của AI trong chính quyền tiểu bang, bảo vệ người tiêu dùng và ngăn chặn việc tạo ra deepfake và danh tính giả mạo để phạm tội.

Admin


Nguồn: VnExpress

Leave a Reply

Your email address will not be published. Required fields are marked *