Một thiếu nữ tại New Jersey vừa đệ đơn kiện một công ty phát triển công cụ AI “cởi đồ”, cáo buộc công ty này đã tạo ra những hình ảnh khỏa thân giả mạo của cô. Vụ việc thu hút sự quan tâm lớn của dư luận, làm nổi bật những lo ngại về khả năng AI xâm phạm quyền riêng tư cá nhân.
Vụ kiện này được khởi xướng nhằm bảo vệ học sinh và thanh thiếu niên thường xuyên chia sẻ hình ảnh trực tuyến, đồng thời nhấn mạnh sự dễ dàng mà các công cụ AI có thể khai thác những hình ảnh này.
Theo hồ sơ vụ kiện, nguyên đơn đã đăng tải một số ảnh “tự sướng” lên mạng xã hội. Một nam sinh cùng lớp đã sử dụng công cụ AI “ClothOff” để loại bỏ quần áo của cô trong một bức ảnh. Hình ảnh đã chỉnh sửa vẫn giữ nguyên khuôn mặt của cô, khiến nó trở nên vô cùng chân thực.

Bức ảnh giả mạo này nhanh chóng lan truyền trên các nhóm trò chuyện và mạng xã hội. Hiện 17 tuổi, cô gái quyết định khởi kiện AI/Robotics Venture Strategy 3 Ltd., công ty điều hành “ClothOff”. Vụ kiện được đệ trình thay mặt cô bởi một giáo sư tại Trường Luật Yale, cùng một số sinh viên và một luật sư.
Đơn kiện yêu cầu tòa án ban hành lệnh xóa bỏ tất cả các hình ảnh giả mạo, ngăn chặn công ty sử dụng chúng để huấn luyện các mô hình AI, gỡ bỏ công cụ này khỏi Internet và bồi thường thiệt hại về tinh thần và quyền riêng tư cho nạn nhân.
Trên khắp nước Mỹ, các tiểu bang đang tích cực đối phó với sự gia tăng của nội dung khiêu dâm do AI tạo ra. Theo Fox News, đã có 45 tiểu bang thông qua hoặc đề xuất luật hình sự hóa việc sử dụng deepfake mà không có sự đồng ý, với các hình phạt có thể bao gồm án tù tương đương với tội phạm tình dục thông thường.
Ở cấp liên bang, Đạo luật Gỡ bỏ (Take It Down Act) yêu cầu các công ty quản lý ứng dụng phải gỡ bỏ các hình ảnh không được sự đồng thuận trong vòng 48 giờ sau khi nhận được yêu cầu hợp lệ. Tuy nhiên, các công tố viên vẫn gặp nhiều khó khăn do các nhà phát triển ứng dụng thường đặt trụ sở ở nước ngoài hoặc hoạt động thông qua các nền tảng ẩn danh.
Trong bối cảnh này, các chuyên gia cho rằng vụ kiện của cô gái 14 tuổi có thể định hình lại cách tòa án nhìn nhận trách nhiệm pháp lý của AI. Thẩm phán có thể sẽ phải quyết định liệu các nhà phát triển AI có phải chịu trách nhiệm khi người dùng sử dụng AI để phạm tội hay không. Họ cũng cần xem xét liệu bản thân phần mềm có thể được coi là một công cụ gây hại hay không.
Vụ kiện cũng đặt ra một câu hỏi quan trọng khác: Làm thế nào để nạn nhân chứng minh thiệt hại khi không có hành vi xâm hại thể chất, nhưng tổn hại về tinh thần là vô cùng lớn? Phán quyết trong vụ kiện này có thể tạo tiền lệ cho các vụ kiện liên quan đến deepfake trong tương lai.
Vụ kiện này không chỉ là vấn đề cá nhân của một thiếu niên mà còn đánh dấu một bước ngoặt trong cách hệ thống pháp luật xử lý các hành vi lạm dụng kỹ thuật số. Nếu một công cụ AI tạo ra hình ảnh gây tổn hại đến danh tiếng của một người, liệu công ty tạo ra công cụ đó có phải chịu trách nhiệm tương đương với người chia sẻ hình ảnh đó hay không?
Theo các báo cáo, ứng dụng AI “ClothOff” liên quan đến vụ kiện hiện không còn khả dụng ở một số quốc gia. Ví dụ, Vương quốc Anh đã cấm ứng dụng này sau khi vấp phải sự phản đối mạnh mẽ từ công chúng. Tuy nhiên, người dùng ở các khu vực khác, bao gồm cả Hoa Kỳ, dường như vẫn có thể truy cập vào nền tảng web của công ty, nơi vẫn tiếp tục quảng cáo công cụ có khả năng “cởi quần áo bất cứ ai trong ảnh”.
Trên trang web chính thức của mình, công ty phát triển ứng dụng này có một tuyên bố miễn trừ trách nhiệm ngắn gọn: “Chúng tôi khuyến khích người dùng tiếp cận vấn đề này với sự hiểu biết về trách nhiệm và tôn trọng quyền riêng tư của người khác, đảm bảo rằng việc sử dụng ứng dụng ‘cởi đồ’ được thực hiện với nhận thức đầy đủ về các tác động đạo đức”.
Việc ứng dụng này vẫn tồn tại và được sử dụng đặt ra những câu hỏi nghiêm túc về mặt pháp lý và đạo đức, liệu các nhà phát triển AI có đang đi quá xa trong việc tạo ra những ứng dụng “vô bổ” như vậy hay không, theo nhận định của Fox News.
Các chuyên gia về tội phạm học đánh giá rằng khả năng tạo ra ảnh khỏa thân giả từ một bức ảnh đơn giản đe dọa bất kỳ ai có mặt trên mạng. Thanh thiếu niên phải đối mặt với những rủi ro đặc biệt do các công cụ AI rất dễ sử dụng và chia sẻ, gây ra những tổn thương về mặt cảm xúc và sự sỉ nhục mà những hình ảnh như vậy gây ra.
Các bậc phụ huynh và nhà giáo dục bày tỏ lo ngại về tốc độ lan truyền nhanh chóng của công nghệ này trong trường học. Các nhà lập pháp đang chịu áp lực phải hiện đại hóa luật bảo mật. Các công ty lưu trữ hoặc cung cấp các công cụ này giờ đây phải cân nhắc các biện pháp bảo vệ mạnh mẽ hơn và hệ thống gỡ bỏ nhanh hơn.
Các chuyên gia khuyến cáo rằng nếu bạn là nạn nhân của hình ảnh do AI tạo ra, hãy hành động nhanh chóng. Đầu tiên, hãy lưu ảnh chụp màn hình, liên kết và ngày tháng trước khi nội dung biến mất, sau đó yêu cầu gỡ bỏ ngay lập tức khỏi các trang web lưu trữ hình ảnh và nộp báo cáo cho cơ quan chức năng.
Cha mẹ nên thảo luận và giáo dục con cái về an toàn kỹ thuật số, bởi vì ngay cả những bức ảnh rất bình thường cũng có thể bị lợi dụng để tạo ra ảnh đồi trụy.
Tại Việt Nam, Dự thảo Luật Trí tuệ nhân tạo lần đầu tiên đề xuất cấm phát triển các ứng dụng AI độc hại có tính chất thao túng tâm lý, hành vi; lợi dụng các điểm yếu của một nhóm người dễ tổn thương (trẻ em, người cao tuổi, người khuyết tật, người hạn chế nhận thức) để tác động hành vi theo hướng gây tổn hại cho chính họ hoặc người khác. Dự thảo cũng đề xuất cấm các AI sản xuất nội dung giả mạo có khả năng gây nguy hại nghiêm trọng đến an ninh quốc gia, trật tự, an toàn xã hội, quyền con người…
Trong Công ước Hà Nội được 64 quốc gia ký kết hôm 25/10 vừa qua về phòng chống tội phạm mạng, lần đầu tiên hình sự hóa trên quy mô quốc tế việc sử dụng hình ảnh riêng tư không có sự đồng thuận; sản xuất và phân phối, truy cập các hình ảnh khiêu dâm, lạm dụng tình dục trẻ em.
Admin
Nguồn: VnExpress
