9 Điểm Đáng Chú Ý Tại Luật Trí Tuệ Nhân Tạo 2025

Từ ngày 01/3/2026, Luật Trí tuệ nhân tạo 2025 (Luật số 134/2025/QH15) đã chính thức có hiệu lực, đánh dấu bước ngoặt trong việc thiết lập hành lang pháp lý cho nghiên cứu, phát triển và ứng dụng AI tại Việt Nam. Luật áp dụng đối với cả tổ chức, cá nhân trong nước và nước ngoài (ngoại trừ các hoạt động phục vụ quốc phòng, an ninh), với mục tiêu cân bằng giữa đổi mới sáng tạo và kiểm soát rủi ro.

Xem thêm: Hồ sơ năng lực Công ty Cổ phần Phòng thử nghiệm Phúc Gia

1. Lần đầu tiên xây dựng bộ khung pháp lý thống nhất về AI

Luật Trí tuệ nhân tạo 2025 là Luật đầu tiên tại Việt Nam chuẩn hóa các khái niệm pháp lý và quy đinh liên quan, làm cơ sở cho quản lý và thực thi. Theo Điều 3 của Luật Trí tuệ nhân tạo 2025 (số 134/2025/QH15), “trí tuệ nhân tạo” được hiểu là việc thực hiện bằng điện tử các năng lực trí tuệ của con người như học tập, suy luận, nhận thức, phán đoán và hiểu ngôn ngữ tự nhiên.

Đồng thời, Luật cũng phân định rõ các chủ thể tham gia trong hệ sinh thái AI nhằm xác định trách nhiệm pháp lý trong toàn bộ vòng đời hệ thống AI. Cụ thể bao gồm: 

  • Nhà phát triển: Thực hiện việc thiết kế, xây dựng, huấn luyện, kiểm thử hoặc tinh chỉnh mô hình hay hệ thống AI và có quyền kiểm soát trực tiếp đối với phương pháp kỹ thuật, dữ liệu huấn luyện hoặc tham số mô hình.
  • Nhà cung cấp: Đưa hệ thống AI ra thị trường vận hành dưới tên thương mại của mình.
  • Bên triển khai: Sử dụng hệ thống AI trong hoạt động nghề nghiệp, thương mại hoặc cung cấp dịch vụ, trừ trường hợp sử dụng cho mục đích cá nhân, phi thương mại.
  • Người sử dụngngười bị ảnh hưởng: Các đối tượng trực tiếp hoặc gián tiếp chịu tác động từ hệ thống AI.

du-thao-quy-dinh-thi-hanh-luat-tri-tue-nhan-tao (1)

2. Phân định rõ vai trò và nguyên tắc “Lấy con người làm trung tâm”

Luật Trí tuệ nhân tạo 2025 đưa ra các nguyên tắc mang tính định hướng phát triển và ứng dụng AI tại Việt Nam, trong đó nhấn mạnh:

  • AI phải lấy con người làm trung tâm – bảo đảm quyền con người, quyền riêng tư, an ninh quốc gia và tuân thủ pháp luật.
  • AI không thay thế thẩm quyền và trách nhiệm của con người – bảo đảm con người giữ vai trò kiểm soát, không chuyển giao hoàn toàn quyền quyết định cho hệ thống.
  • Hoạt động AI cần minh bạch, công bằng, ó khả năng giải trình khi hệ thống đưa ra quyết định.
  • Khuyến khích AI phát triển theo hướng xanh, tiết kiệm năng lượng và giảm tác động tiêu cực đến môi trường.

3. Quản lý theo 3 cấp độ rủi ro

Theo điều 9, Luật Trí tuệ nhân tạo 2025, hệ thống AI được phân loại thành 3 mức độ rủi ro nhằm áp dụng các biện pháp kiểm soát tương ứng:

  • Rủi ro cao: Có tác động trực tiếp đến tính mạng, sức khỏe, quyền con người hoặc an ninh quốc gia. Nhóm này bắt buộc phải được đánh giá sự phù hợp (chứng nhận) trước khi vận hành, đồng thời phải duy trì cơ chế quản lý rủi ro và lưu trữ nhật ký hoạt động liên tục.

  • Rủi ro trung bình: Có khả năng gây nhầm lẫn hoặc thao túng nhận thức người dùng (ví dụ: chatbot, công cụ tạo nội dung).

  • Rủi ro thấp: Không thuộc 2 loại trên, thường là công cụ hỗ trợ cơ bản hoặc có phạm vi tác động nhỏ.

Việc phân loại được xác định dựa trên mức độ tác động đến quyền con người, an toàn, an ninh, lĩnh vực ứng dụng và phạm vi ảnh hưởng của hệ thống, đặc biệt đối với nhóm rủi ro cao(*).

(*) Hệ thống AI rủi ro cao phải được đánh giá sự phù hợp theo tiêu chuẩn, quy chuẩn kỹ thuật và các yêu cầu của Luật AI. Một số hệ thống thuộc danh mục bắt buộc phải được tổ chức đánh giá sự phù hợp chứng nhận trước khi vận hành. Các hệ thống khác có thể tự đánh giá hoặc thuê tổ chức đánh giá được thừa nhận.

Tri_Tue_Nhan_Tao_Ai (4)

4. Quy định nghiêm ngặt về tính minh bạch thông tin do AI tạo ra

Để đối phó với các vấn nạn như lừa đảo trực tuyến hay tin giả, Luật Trí tuệ nhân tạo 2025 quy định rõ:

  • Người dùng phải được thông báo khi đang tương tác với hệ thống AI.
  • Mọi âm thanh, hình ảnh, video do AI tạo ra phải được gắn dấu hiệu nhận biết (định dạng máy đọc).
  • Các nội dung có khả năng gây nhầm lẫn về tính xác thực như mô phỏng con người thật/sự kiện thật (deepfake) phải được thông báo rõ ràng.

5. Các hành vi bị cấm trong hoạt động AI

Luật quy định rõ một số nhóm hành vi không được phép thực hiện, nổi bật trong đó là các nội dung sau:

  • Lợi dụng hoặc chiếm đoạt hệ thống AI để xâm phạm quyền và lợi ích hợp pháp của tổ chức, cá nhân;
  • Phát triển hoặc sử dụng AI nhằm thao túng nhận thức, lừa dối hoặc gây tổn hại nghiêm trọng;
  • Tạo và phát tán nội dung giả mạo (ví dụ: deepfake) gây ảnh hưởng tiêu cực đến xã hội;
  • Khai thác dữ liệu trái quy định về bảo vệ dữ liệu cá nhân, sở hữu trí tuệ và an ninh mạng;
  • Che giấu thông tin, cản trở cơ chế kiểm soát của con người hoặc lợi dụng thử nghiệm để vi phạm…

Tri_Tue_Nhan_Tao_Ai (2)

6. Thiết lập Cổng thông tin và cơ sở dữ liệu quốc gia về AI

Luật Trí tuệ nhân tạo 2025 thiết lập 2 hệ thống này nhằm hạ tầng quản lý, hướng tới minh bạch hóa và chuẩn hóa hoạt động AI trên phạm vi toàn quốc, cụ thể:

  • Cổng thông tin điện tử một cửa về AI để tiếp nhận đăng ký thử nghiệm có kiểm soát, tiếp nhận thông báo phân loại rủi ro, báo cáo sự cố nghiêm trọng và báo cáo định kỳ; đồng thời công khai thông tin về hệ thống AI, kết quả đánh giá sự phù hợp và xử lý vi phạm.
  • Cơ sở dữ liệu quốc gia về hệ thống AI được xây dựng nhằm lưu trữ thống nhất thông tin về hệ thống AI phục vụ giám sát, hậu kiểm và minh bạch hóa việc vận hành hệ thống.
  • Toàn bộ hoạt động báo cáo và xử lý sự cố được thực hiện thông qua Cổng thông tin điện tử một cửa về trí tuệ nhân tạo, Chính phủ sẽ quy định chi tiết về quy trình báo cáo cũng như trách nhiệm của các cơ quan, tổ chức, cá nhân phù hợp với mức độ nghiêm trọng và phạm vi ảnh hưởng của sự cố.

Lưu ý: Mọi chủ thể liên quan đến hệ thống trí tuệ nhân tạo – gồm nhà phát triển, nhà cung cấp, bên triển khai và người sử dụng đều có trách nhiệm bảo đảm an toàn, an ninh, độ tin cậy của hệ thống và kịp thời phát hiện, khắc phục các sự cố có thể gây tổn hại đến con người, tài sản, dữ liệu hoặc trật tự xã hội.

7. Chính sách hỗ trợ và phát triển hệ sinh thái AI

Bên cạnh quản lý, Luật cũng đưa ra các cơ chế thúc đẩy phát triển:

  • Doanh nghiệp AI được hưởng mức ưu đãi cao nhất theo pháp luật về khoa học công nghệ, công nghệ cao, chuyển đổi số và đầu tư;
  • Cho phép hệ thống AI mới được thử nghiệm trong môi trường rủi ro có kiểm soát (sandbox), thậm chí được miễn hoặc giảm nghĩa vụ tuân thủ dựa trên kết quả thử nghiệm;
  • Thành lập Quỹ Phát triển Trí tuệ Nhân tạo Quốc gia, có cơ chế linh hoạt và chấp nhận rủi ro trong đổi mới sáng tạo;
  • Hỗ trợ doanh nghiệp nhỏ và startup về chi phí đánh giá sự phù hợp, công cụ tự đánh giá và quyền tiếp cận dữ liệu dùng chung…;

Tri_Tue_Nhan_Tao_Ai (3)

8. Hạ tầng AI quốc gia là hạ tầng chiến lược, Nhà nước giữ vai trò điều phối

Hạ tầng AI quốc gia được xác định là hạ tầng chiến lược, do Nhà nước điều phối phát triển theo hướng mở, an toàn và có khả năng mở rộng. Hạ tầng này bao gồm năng lực tính toán, dữ liệu dùng chung, nền tảng huấn luyện – kiểm thử và môi trường thử nghiệm. Với các lĩnh vực thiết yếu, hệ thống AI phải triển khai trên hạ tầng quốc gia để bảo đảm an toàn và khả năng kiểm soát..

Dữ liệu phục vụ AI được tổ chức thống nhất, phân thành dữ liệu mở, dữ liệu mở có điều kiện và dữ liệu thương mại. Đồng thời, việc khai thác, kết nối và chia sẻ phải tuân thủ quy định về bảo vệ dữ liệu cá nhân. Thủ tướng sẽ ban hành danh mục dữ liệu ưu tiên như văn hóa, ngôn ngữ, y tế, giáo dục, nông nghiệp, kinh tế – xã hội.

9. Lộ trình thực hiện

Luật đã có hiệu lực từ tháng 3/2026 và quy định lộ trình chuyển tiếp đối với các hệ thống AI đã triển khai trước thời điểm này:

  • Hệ thống AI thuộc lĩnh vực y tế, giáo dục, tài chính: Hoàn thành nghĩa vụ trước ngày 01/9/2027.

  • Các hệ thống AI thuộc lĩnh vực khác: Hoàn thành nghĩa vụ trước ngày 01/3/2027.

Tri_Tue_Nhan_Tao_Ai (5)

Trong thời gian này, các hệ thống vẫn được phép hoạt động bình thường, trừ khi bị cơ quan quản lý phát hiện có nguy cơ gây thiệt hại nghiêm trọng và ra quyết định tạm dừng hoặc chấm dứt hoạt động.

XEM THÊM CÁC BÀI VIẾT KHÁC:

Mọi chi tiết xin vui lòng liên hệ:

CÔNG TY CỔ PHẦN PHÒNG THỬ NGHIỆM PHÚC GIA
TRUNG TÂM CHỨNG NHẬN PHÚC GIA
TRUNG TÂM THỬ NGHIỆM KIỂM ĐỊNH PHÚC GIA

Địa chỉ:
• Miền Bắc: Cảng cạn Long Biên, Số 01 Huỳnh Tấn Phát, KCN Sài Đồng B, phường Long Biên, TP. Hà Nội
• Miền Nam: Số 180, Đường D2, P. Long Trường, TP. Hồ Chí Minh

Điện thoại: 0965.996.696/0982.996.696/024.7779.6696
E-mail: lab@phucgia.com.vn
Website: phucgia.com.vn
Thời gian làm việc: Thứ Hai đến Thứ Sáu 8:00 – 18:30; Thứ Bảy 8:00 – 12:00

Phúc Gia® – Tổ chức thử nghiệm và chứng nhận toàn diện cho thiết bị điện – điện tử

Mục lục