Trách nhiệm minh bạch và cơ chế bồi thường khi AI gây thiệt hại
Tại phiên thảo luận về dự thảo Luật Trí tuệ nhân tạo tại Kỳ họp thứ 10, Quốc hội khóa XV, chiều 27/11/2025, vấn đề trách nhiệm minh bạch của AI cũng như cơ sở pháp lý để bồi thường khi AI vi phạm pháp luật đã được nhiều Đại biểu Quốc hội đề cập.
Trách nhiệm minh bạch là “mắt xích” đầu tiên bảo vệ người dùng
Trong bối cảnh deepfake phát triển với tốc độ chóng mặt, việc tạo ra hình ảnh, giọng nói, video giả mạo như thật đã đặt xã hội trước nguy cơ thông tin bị thao túng, niềm tin công chúng suy giảm và các hành vi lừa đảo tinh vi hơn. Do đó, yêu cầu AI phải minh bạch – từ thuật ngữ, cách cung cấp thông tin đến cơ chế gắn nhãn – trở thành nhu cầu cấp bách trong giai đoạn hiện nay.

Đại biểu Thạch Phước Bình, Đoàn ĐBQH tỉnh Vĩnh Long phát biểu ý kiến trên hội trường (Ảnh: quochoi.vn)
Đại biểu Thạch Phước Bình - Đoàn ĐBQH tỉnh Vĩnh Long phát biểu trên hội trường rằng, deepfake đã gây ra “nhiều vụ việc ảnh hưởng nghiêm trọng đến an ninh thông tin và quyền riêng tư”, vì vậy dự thảo cần bổ sung khái niệm nền tảng như “nội dung giả lập”, “đầu ra do AI tạo”, “tương tác với AI” nhằm tạo cơ sở pháp lý rõ ràng cho việc gắn nhãn và cảnh báo người dùng. Đại biểu cũng chỉ ra rằng quy định tại Điều 9 dù đã xác lập nghĩa vụ gắn nhãn, nhưng chưa làm rõ nội dung nào phải gắn nhãn bắt buộc, mức độ gắn nhãn ra sao để không làm giảm trải nghiệm số, và trách nhiệm của các nền tảng mạng xã hội trong việc phát hiện, ngăn chặn hoặc gỡ bỏ nội dung giả. Ông đề nghị thiết kế cơ chế gắn nhãn “chặt chẽ nhưng linh hoạt” để vừa bảo vệ người dùng vừa không kìm hãm sự sáng tạo của doanh nghiệp.
Trong khi đó, Đại biểu Trịnh Thị Tú Anh - Đoàn ĐBQH tỉnh Lâm Đồng cảnh báo về nguy cơ thiếu khả thi kỹ thuật nếu luật không đặt ra yêu cầu thống nhất về tiêu chuẩn đánh dấu đầu ra AI. Đại biểu phân tích rằng nếu mỗi nền tảng triển khai một công nghệ gắn nhãn khác nhau, hệ thống nhận diện AI sẽ “không thể hoạt động”, thậm chí các mô hình mã nguồn mở có thể bị can thiệp để xóa bỏ dấu hiệu nếu tiêu chuẩn không đảm bảo an toàn. Bà đề nghị bổ sung nguyên tắc yêu cầu tiêu chuẩn kỹ thuật phải “hài hòa và tương thích với bộ tiêu chuẩn chung được thừa nhận quốc tế”. Theo Đại biểu, việc thống nhất tiêu chuẩn kỹ thuật là yếu tố sống còn để hệ sinh thái AI vận hành thông suốt và để cơ quan quản lý có thể giám sát minh bạch, hiệu quả.
Một số ý kiến khác cũng nhấn mạnh rằng minh bạch không chỉ là trách nhiệm của người phát triển mô hình AI mà còn phải mở rộng sang các nền tảng trung gian phân phối nội dung. Đại biểu Dương Khắc Mai - Đoàn ĐBQH tỉnh Lâm Đồng, nhận định rằng nếu chỉ quy định trách nhiệm gắn nhãn của bên kê khai hoặc bên triển khai thì vẫn còn bỏ trống một “mắt xích đặc biệt quan trọng” là các nền tảng mạng xã hội – nơi nội dung AI lan truyền nhanh nhất. Đại biểu đề nghị bổ sung trách nhiệm rõ hơn đối với các nền tảng trung gian và đặc biệt là phải có chế tài mạnh đối với hành vi cố tình bóc gỡ nhãn AI nhằm lừa dối công chúng. Theo ông, chỉ khi trách nhiệm được phân bổ đồng đều cho toàn bộ các chủ thể trong chuỗi tạo – vận hành – phân phối nội dung thì quy định minh bạch mới thật sự phát huy tác dụng và đủ sức bảo vệ người dùng.
Bồi thường thiệt hại: Con người chịu trách nhiệm, AI không phải chủ thể pháp lý
Song hành với yêu cầu minh bạch, vấn đề trách nhiệm bồi thường khi AI gây ra thiệt hại được các đại biểu nhận định là “nút thắt pháp lý lớn nhất”, đòi hỏi dự thảo luật phải quy định rạch ròi, thống nhất và đủ sức xử lý các tình huống thực tiễn.
Đại biểu Phạm Văn Hòa - Đoàn ĐBQH tỉnh Đồng Tháp nhấn mạnh rằng, trách nhiệm pháp lý của AI không thể chỉ gói trong một chủ thể duy nhất, bởi vòng đời của một hệ thống AI đi qua nhiều mắt xích: nhà phát triển, nhà cung cấp, bên triển khai và người sử dụng. Ông nêu rõ: “Có thể nhà phát triển rất chuẩn, đạo đức AI rất tốt, nhưng khi đến người sử dụng lại bị biến tấu dùng vào mục đích xấu, lừa gạt người dân hoặc làm ảnh hưởng quyền lợi của con người”. Do đó, luật phải phân định rõ nghĩa vụ của từng chủ thể để không xảy ra tình trạng “đổ trách nhiệm lòng vòng” hoặc né tránh trách nhiệm khi sự cố xảy ra.

Đại biểu Trần Khánh Thu, Đoàn ĐBQH tỉnh Hưng Yênphát biểu ý kiến trên hội trường (Ảnh: quochoi.vn)
Đại biểu Trần Khánh Thu - Đoàn ĐBQH tỉnh Hưng Yên chỉ ra rằng, trong Điều 28 của dự thảo luật có mâu thuẫn: khoản 1 nói xử lý vi phạm tùy theo mức độ, tính chất, nhưng khoản 2 lại “đóng đinh” mức phạt tối đa 1 triệu đồng đối với cá nhân – mức phạt quá thấp và không phù hợp với tính chất rủi ro tiềm ẩn rất lớn trong lĩnh vực AI. Bà nhắc lại cơ quan soạn thảo từng báo cáo sẽ điều chỉnh theo Luật Xử phạt vi phạm hành chính, nhưng trong dự thảo kèm theo báo cáo vẫn giữ nguyên mức phạt này. Theo Đại biểu, để luật có hiệu lực thực sự, khoản này cần sửa lại cho đồng bộ và đủ sức răn đe, tránh tạo ra “lỗ hổng” khiến doanh nghiệp hoặc cá nhân vi phạm chỉ chịu mức xử phạt tượng trưng.
Đại biểu Phạm Trọng Nghĩa - Đoàn ĐBQH tỉnh Lạng Sơn lập luận rằng, AI không phải là chủ thể pháp lý, không thể chịu trách nhiệm dân sự, hành chính hay hình sự. Ông đề nghị quy định theo hướng xác định trách nhiệm của ba nhóm chủ thể: bên triển khai hệ thống, nhà cung cấp và nhà phát triển. Đây là ba chủ thể có khả năng kiểm soát hệ thống AI ở các mức độ khác nhau, do đó có thể truy nguyên trách nhiệm dựa trên mức độ tham gia và lỗi của từng bên. Đại biểu cũng nhấn mạnh dự thảo chưa xác định ai là chủ sở hữu hoặc người chiếm hữu hệ thống AI – trong khi theo Bộ luật Dân sự, bồi thường thiệt hại ngoài hợp đồng phải dựa trên hai yếu tố này. Việc không làm rõ chủ thể sở hữu hoặc chiếm hữu sẽ khiến việc xác định trách nhiệm bồi thường trong thực tế trở nên bế tắc.
Đại biểu Dương Khắc Mai cũng nêu vấn đề tình huống hệ thống AI bị tấn công mạng hoặc bị chiếm quyền điều khiển trái phép. Ông cho rằng dự thảo đã có hướng miễn trách nhiệm cho chủ thể nếu chứng minh đã tuân thủ đầy đủ yêu cầu an toàn, nhưng “tiêu chí thế nào là tuân thủ đầy đủ” cần luật hóa rõ ràng. Nếu không, cơ chế miễn trách nhiệm có thể bị lạm dụng để né tránh nghĩa vụ bồi thường. Đại biểu nhấn mạnh luật phải vừa bảo vệ chủ thể tuân thủ đúng quy định, vừa ngăn chặn tình trạng dùng kỹ thuật miễn trừ như một “lá chắn vô hình” để tránh trách nhiệm pháp lý.

Bộ trưởng Bộ Khoa học và Công nghệ Nguyễn Mạnh Hùngtiếp thu, giải trình về dự thảo Luật Trí tuệ nhân tạo (Ảnh: quochoi.vn)
Tiếp thu, giải trình ý kiến của các Đại biểu Quốc hội, Bộ trưởng Bộ Khoa học và Công nghệ Nguyễn Mạnh Hùng khẳng định rằng, triết lý xuyên suốt của dự thảo là “AI phải phục vụ con người và không thay thế vai trò quyết định của con người”. Về tính minh bạch, Bộ trưởng nhấn mạnh nguyên tắc người dân phải biết khi nào họ tương tác với AI và deepfake gây nhầm lẫn, chính vì vậy việc gắn nhãn là bắt buộc. Về trách nhiệm và bồi thường, Bộ trưởng cho biết ban soạn thảo sẽ cân nhắc bỏ quy định mức phạt theo doanh thu, vì luật đã quy định bồi thường toàn bộ thiệt hại do hành vi trái pháp luật gây ra và đã có hình thức đình chỉ cung cấp dịch vụ là những chế tài rất cao, đủ sức răn đe.




