Luật sư bị phạt vì ChatGPT bịa án: Vụ việc dở khóc dở cười

Sự trỗi dậy của trí tuệ nhân tạo (AI) trong môi trường làm việc đã mang đến nhiều thay đổi lớn. Bên cạnh nỗi lo về việc làm bị thay thế, nhiều người đã tận dụng AI như một công cụ hỗ trợ đắc lực, kéo theo đó là những tình huống “dở khóc dở cười”.

ChatGPT, một chatbot AI, đã tạo nên cơn sốt nhờ khả năng trả lời đa dạng câu hỏi, viết luận, sáng tác truyện và làm thơ. Nhiều người dùng đã trải nghiệm các sản phẩm viết lách từ ChatGPT và đánh giá cao chất lượng của chúng. Điều này thúc đẩy việc ứng dụng AI vào công việc, đặc biệt trong lĩnh vực viết lách.

Tuy nhiên, việc lạm dụng AI đã dẫn đến những hậu quả nghiêm trọng, đặc biệt trong ngành luật. Chỉ trong vài năm kể từ khi ChatGPT ra đời, nhiều luật sư trên thế giới đã phải đối mặt với các vấn đề pháp lý, thậm chí bị tước bằng hoặc chịu phạt nặng vì sử dụng công cụ này một cách thiếu thận trọng.

Điển hình là các vụ việc bắt nguồn từ những văn bản do luật sư nộp lên tòa án. Trong một trường hợp, ChatGPT đã tạo ra hai vụ kiện tiền lệ với tình tiết tương đồng, khẳng định tính xác thực của chúng và khuyến khích luật sư sử dụng làm căn cứ pháp lý. Luật sư này đã tin tưởng và sử dụng thông tin đó. Song, sự thật phũ phàng là hai vụ kiện kia hoàn toàn không tồn tại. Khi sự việc bị phanh phui, luật sư biện minh rằng đã hỏi kỹ ChatGPT và được AI này cam đoan về tính xác thực. Kết quả là luật sư bị tước bằng hành nghề và chịu nhiều hình phạt khác.

Những sự cố tương tự đặt ra câu hỏi về độ tin cậy của thông tin do AI cung cấp. Khi AI tạo ra thông tin sai lệch và trình bày như thật, liệu người dùng có thể hoàn toàn tin tưởng?

Trong khi sai sót của con người có thể do cố ý hoặc vô ý, động cơ của AI khi tạo ra thông tin sai lệch vẫn là một ẩn số. Liệu đó là lỗi kỹ thuật hay AI “cố tình” tạo ra thông tin giả?

AI, xét cho cùng, chỉ là một phần mềm. Mạng lưới thần kinh nhân tạo của AI thực chất là tập hợp các nguyên tắc và xác suất được vận dụng theo quy trình. Do đó, dù được sử dụng bởi ai, AI vẫn mang một “tính cách” nhất quán, phản ánh bản chất của người tạo ra và huấn luyện nó.

Midjourney, một AI chuyên về tạo ảnh, được “dạy dỗ” bằng cách thu thập toàn bộ hình ảnh trên Internet, theo lời nhà sáng lập. Tuy nhiên, các tác phẩm của Midjourney vẫn mang một phong cách riêng, có thể ví như “cái hồn” trong tranh của Picasso, nhưng lại thiếu đi sự sống động thực sự.

Tương tự, ChatGPT và các AI chuyên dụng khác cũng vậy. Các sản phẩm từ cùng một phần mềm AI thường có tính đồng nhất, bởi chúng đều dựa trên một hệ thống nhất định.

Người dùng AI cần nhận thức rằng AI không thể thực sự sáng tạo mà chỉ có thể tái tạo lại những gì đã được lập trình.

Khi ứng dụng AI trong công việc, người dùng nên xác định rõ vai trò của mình là “sếp”, còn AI là “người làm thuê”. Tuy nhiên, khác với người làm thuê có lương tâm và trách nhiệm, AI thì không.

Mặt khác, người chủ phải có đủ năng lực chuyên môn để đánh giá hiệu quả công việc của nhân viên. Tương tự, khi sử dụng AI, người dùng cần có khả năng làm công việc mà họ giao phó cho AI để kiểm tra chất lượng và tránh phải chịu trách nhiệm cho những sai sót của nó.

Trong công việc viết lách, dù có nhiều khuôn mẫu, mỗi vụ việc vẫn đòi hỏi sự thu thập và phân tích dữ liệu khác nhau. Việc viết bản lý luận chỉ là bước cuối cùng. Sau khi hoàn thành, người viết phải ký tên, chịu trách nhiệm cho sản phẩm, kể cả khi nó được tạo ra bởi AI.

Tóm lại, dù AI có thể hỗ trợ chúng ta trong nhiều công việc, người dùng vẫn phải là người chịu trách nhiệm cuối cùng cho sản phẩm. Dù đó là tranh vẽ, bài viết, bản nhạc hay giải pháp toán học, người tiêu dùng sẽ tìm đến bạn khi có vấn đề xảy ra. Liệu bạn có đủ khả năng chịu trách nhiệm cho những sản phẩm do AI tạo ra hay không, đó là một câu hỏi cần được cân nhắc kỹ lưỡng.

Admin


Nguồn: VnExpress

Leave a Reply

Your email address will not be published. Required fields are marked *