BỘ TRƯỞNG NGUYỄN MẠNH HÙNG TRÌNH DỰ ÁN LUẬT TRÍ TUỆ NHÂN TẠO: CƠ HỘI VÀ THÁCH THỨC CHO VIỆT NAM TRONG KỶ NGUYÊN AI
Sáng 21.11, tại kỳ họp thứ 10 Quốc hội khóa XV, Bộ trưởng Bộ Khoa học và Công nghệ Nguyễn Mạnh Hùng đã trình bày dự thảo luật Trí tuệ nhân tạo, một bước đi quan trọng nhằm xây dựng khung pháp lý vững chắc cho lĩnh vực công nghệ đang phát triển nhanh chóng này tại Việt Nam. Trong bối cảnh ô tô tự lái, robot thông minh và các hệ thống AI ngày càng phổ biến, câu hỏi đặt ra là trách nhiệm thuộc về ai khi xảy ra sự cố? AI hay con người?
PHẠM VI VÀ ĐIỀU KIỆN ÁP DỤNG LUẬT AI
Theo tờ trình, luật này quy định hoạt động nghiên cứu, phát triển, cung cấp, triển khai và sử dụng hệ thống AI tại Việt Nam hoặc có tác động đến tổ chức, cá nhân trong nước. Đặc biệt, luật không áp dụng cho AI phục vụ mục đích quốc phòng, an ninh, tình báo và các mô hình nghiên cứu, đào tạo chưa triển khai ra ngoài.
Chính phủ đề xuất phân loại các hệ thống AI theo 4 mức độ rủi ro: không chấp nhận được, cao, trung bình và thấp. Hệ thống có rủi ro không chấp nhận được bao gồm các phần mềm có mục đích thực hiện các hành vi bị pháp luật nghiêm cấm, dùng giả mạo để lừa dối hoặc thao túng nhận thức, gây nguy hại đến an ninh quốc gia, trật tự xã hội. Các hệ thống này sẽ bị cấm phát triển, cung cấp hay sử dụng tại Việt Nam.
Trong dự thảo, cũng quy định mức xử phạt vi phạm hành chính tối đa 2 tỉ đồng cho tổ chức và 1 tỉ đồng cho cá nhân, cùng các hình thức xử lý kỷ luật hoặc truy cứu trách nhiệm hình sự nếu vi phạm gây thiệt hại. Mức phạt có thể lên đến 2% doanh thu của năm trước với các vi phạm nghiêm trọng.
LẤY Ý KIẾN VỀ TRÁCH NHIỆM VÀ XÁC ĐỊNH LỖI
Cơ quan thẩm tra, Ủy ban Khoa học và Công nghệ và Môi trường, nhận định việc phân loại rủi ro theo các mức độ là phù hợp, nhưng còn nhiều thách thức trong việc xác định tiêu chí định lượng, định tính. Đề nghị Chính phủ hướng dẫn chi tiết về các tiêu chuẩn này dựa trên tự chủ hệ thống, quy mô tác động, khả năng lan truyền và mức độ ảnh hưởng đến quyền và an ninh của con người.
Thẩm tra còn nhấn mạnh rằng, hiện tại, các luật dân sự, hình sự và thương mại đều dựa trên khái niệm lỗi và ý chí của con người. Tuy nhiên, hệ thống AI hoạt động tự động, không có ý chí pháp lý như con người. Điều này đặt ra câu hỏi lớn về trách nhiệm khi xảy ra lỗi hoặc gây hại: AI phải chịu trách nhiệm hay con người điều khiển mới chịu trách nhiệm?
Cơ quan đề xuất bổ sung khái niệm trách nhiệm nghiêm ngặt đối với các tổ chức triển khai AI rủi ro cao trong các lĩnh vực nhạy cảm như y tế, giao thông, năng lượng. Đồng thời, cần xây dựng cơ chế pháp lý rõ ràng để xác định ngưỡng trách nhiệm và phân định rõ trách nhiệm của con người khi lỗi phát sinh từ lập trình, bảo trì hoặc vận hành hệ thống AI.
HÀNH VI NGHIÊM CẤM VÀ CÁC HƯỚNG XÂY DỰNG KHOẢNG CÁCH
Ngoài ra, dự thảo còn đề xuất xây dựng điều khoản cấm các hành vi sử dụng AI để thao túng bầu cử, gây rối loạn chính trị, nhận diện cảm xúc cá nhân trong môi trường không có sự đồng thuận. Các hành vi này được xem là những hành vi bị nghiêm cấm trong lĩnh vực AI.
Những nội dung này phản ánh mong muốn xây dựng một khung pháp lý phù hợp, vừa thúc đẩy sáng tạo, vừa đảm bảo an toàn, trật tự xã hội. Tuy nhiên, việc điều chỉnh, bổ sung các tiêu chuẩn về trách nhiệm và hành vi sẽ là thách thức lớn trong quá trình triển khai luật.
Có thể nói, dự thảo luật Trí tuệ nhân tạo của Việt Nam đã đặt ra những nền tảng ban đầu cho một hành lang pháp lý phù hợp, để lĩnh vực AI phát triển bền vững. Nhưng thành công cuối cùng sẽ phụ thuộc vào khả năng xác định rõ ràng trách nhiệm, kiểm soát rủi ro và hướng tới sự an toàn, minh bạch trong ứng dụng trí tuệ nhân tạo trong đời sống hàng ngày.