Tóm tắt: Bài viết này phân tích so sánh ba mô hình điển hình trong quản lý trí tuệ nhân tạo: mô hình điều chỉnh chi tiết dựa trên rủi ro của Liên minh châu Âu, mô hình quản trị dựa trên nguyên tắc của Vương quốc Anh và mô hình luật khung định hướng của Nhật Bản và đưa ra một số gợi mở cho Việt Nam khi thiết kế Luật Trí tuệ nhân tạo vừa linh hoạt, vừa bảo đảm kiểm soát rủi ro, góp phần cụ thể hóa tinh thần Nghị quyết 66-NQ/TW về “đột phá của đột phá” trong cải cách thể chế, xây dựng Luật Trí tuệ nhân tạo của Việt Nam để đồng hành cùng công nghệ thay vì đi sau công nghệ.
Từ khóa: Cách thức tiếp cận; Luật Trí tuệ nhân tạo; Liên minh châu Âu; Nhật Bản; Vương quốc Anh; cơ chế thử nghiệm có kiểm soát.
Abstract: This article provides a comparative analysis of three representative models of AI governance: the European Union’s detailed risk-based regulatory framework, Japan’s policy-oriented fundamental law, and the United Kingdom’s principles-based governance model. It offers several recommendations for Vietnam in designing the Law on Artificial Intelligence that is both flexible and capable of ensuring effective risk control, thereby contributing to the realization of the spirit of Resolution 66-NQ/TW on the “breakthrough of breakthroughs” in institutional reform. The study emphasizes that Vietnam’s forthcoming Law on Artificial Intelligence should be constructed to evolve alongside technological advancement rather than lag behind it.
Key words: legal approach; Law on Artificial Intelligence; European Union; Japan; the United Kingdom; regulatory sandbox.

Ảnh minh họa: Nguồn Internet
1. Dẫn nhập
Trí tuệ nhân tạo (AI) là một trong những công nghệ lõi của cuộc Cách mạng công nghiệp lần thứ tư và là công cụ hữu hiệu kích thích tăng trưởng, động lực chính trong chiến lược chuyển đổi số. Nhiều quốc gia đã coi việc xây dựng khung pháp lý về AI là một chiến lược phát triển dài hạn nhằm khai thác tối đa tiềm năng của công nghệ mới và quản lý rủi ro về an toàn, đạo đức, quyền con người. Kinh nghiệm quốc tế cho thấy, Liên minh châu Âu (EU) với Đạo luật AI, Nhật Bản với Luật về Thúc đẩy nghiên cứu, phát triển và ứng dụng các công nghệ liên quan đến AI và Vương quốc Anh với mô hình quản trị mềm dẻo dựa trên các nguyên tắc hướng dẫn (pro-innovation approach) đã sớm định hình những chuẩn mực pháp lý tiên phong, vừa bảo đảm an toàn, vừa khuyến khích đổi mới. Hai mô hình này tuy khác biệt, đều thể hiện tinh thần “luật đi trước một bước” nhằm kiến tạo môi trường pháp lý đủ mạnh để thúc đẩy phát triển và bảo vệ các giá trị cốt lõi của xã hội. Tại Việt Nam, trong tiến trình cải cách thể chế hiện nay, Nghị quyết số 66-NQ/TW ngày 30/4/2025 của Bộ Chính trị được xem là văn kiện quan trọng khi nhấn mạnh yêu cầu “đột phá của đột phá” trong xây dựng hệ thống pháp luật và cải cách tư pháp. Tinh thần xuyên suốt của Nghị quyết 66-NQ/TW là pháp luật phải đi trước một bước, trở thành công cụ kiến tạo phát triển, đồng thời kiểm soát quyền lực, qua đó tạo lập một môi trường thể chế vượt trội để cạnh tranh quốc gia. Đặt trong tầm nhìn “đột phá của đột phá”, việc nghiên cứu kinh nghiệm quốc tế không dừng lại ở việc tham chiếu các mô hình đã có, mà còn hướng tới việc “hữu hình hóa” tư duy pháp lý mới: chuyển các định hướng chiến lược của Nghị quyết 66-NQ/TW thành các quy phạm cụ thể, qua đó tiếp tục xây dựng Luật AI của Việt Nam như một đạo luật có tính dẫn đường, đón đầu xu thế, bảo đảm cân bằng các mục tiêu phát triển, đột phá trong khoa học, công nghệ, đổi mới sáng tạo và bảo vệ quyền con người trong kỷ nguyên số.
2. Khái niệm và đặc điểm của trí tuệ nhân tạo
AI là một nhánh của khoa học máy tính, giúp máy tính có thể mô phỏng hành vi của con người nhằm hỗ trợ con người đạt hiệu suất tốt hơn trong lĩnh vực khoa học và công nghệ
[1]. Khái niệm AI lần đầu tiên được đưa ra vào năm 1956 bởi Marvin Minsky và John McCarthy (một nhà khoa học máy tính tại Stanford) tổ chức Dự án Nghiên cứu mùa hè Dartmouth về AI (Dartmouth Summer Research Project on Artificial Intelligence - DSRPAI)
[2], theo đó AI là khoa học và kỹ thuật chế tạo những máy móc thông minh, đặc biệt là các chương trình máy tính thông minh. Nó liên quan đến nhiệm vụ tương tự là sử dụng máy tính để hiểu trí thông minh của con người, nhưng AI không bị giới hạn bởi các phương pháp có thể quan sát được về mặt sinh học
[3]. Cùng với sự phát triển của cuộc cách mạng công nghiệp 4.0, các công nghệ mới của AI như học máy (machine learning) và học sâu (deep learning) cho phép hệ thống AI tự học hỏi qua xử lý dữ liệu lớn (big data), tìm kiếm và lập mô hình cho việc ra quyết định nhanh chóng và thậm chí có thể tự học mà không cần giám sát của con người
[4].
Dưới góc độ pháp lý, bởi sự phức tạp của AI mà tính đến thời điểm hiện tại chưa có một định nghĩa nhận được sự đồng thuận từ giới khoa học
[5]. Thay vào đó, các tổ chức quốc tế đã đưa ra những định nghĩa mang tính định hướng. Tổ chức Hợp tác và phát triển kinh tế (OECD)định nghĩa “hệ thống AI” là hệ thống dựa trên máy móc có thể, với các mục tiêu do con người đề ra, đưa ra dự đoán, khuyến nghị hoặc quyết định ảnh hưởng đến môi trường thực hoặc ảo, và được thiết kế để vận hành với các mức độ tự động khác nhau
[6]. Đến năm 2023, OECD cập nhật định nghĩa này, nhấn mạnh rằng, hệ thống AI có thể tự suy luận từ dữ liệu đầu vào để tạo ra đầu ra (như dự đoán, nội dung, khuyến nghị hoặc quyết định) và các hệ thống AI khác nhau có mức độ tự chủ và khả năng thích ứng sau khi triển khai khác nhau
[7]. Gần đây nhất, Đạo luật AI của EU được chính thức thông qua cũng không đưa ra định nghĩa về AI mà xác định “hệ thống AI” là một hệ thống dựa trên máy móc được thiết kế để hoạt động với các mức độ tự động khác nhau, có thể thể hiện tính thích ứng sau khi triển khai cho các mục tiêu rõ ràng hoặc ngầm định, suy luận từ đầu vào mà nó nhận được, cách tạo ra các đầu ra như dự đoán, nội dung, khuyến nghị hoặc quyết định có thể ảnh hưởng đến môi trường vật lý hoặc ảo
[8]. Tại Việt Nam, khoản 9 Điều 3 Luật Công nghiệp công nghệ số năm 2025 đã lần đầu tiên đưa ra định nghĩa về hệ thống AI, theo đó đây là hệ thống dựa trên máy móc được thiết kế để hoạt động với các mức độ tự chủ khác nhau và có khả năng thích ứng sau khi triển khai nhằm đạt được các mục tiêu rõ ràng hoặc ngầm định, suy luận từ dữ liệu đầu vào để tạo ra dự đoán, nội dung, khuyến nghị, quyết định có thể ảnh hưởng đến môi trường thực hoặc môi trường điện tử. Quy định này cho thấy, Việt Nam đã tiếp cận định nghĩa theo hướng tương đồng với EU. Như vậy, từ khía cạnh khoa học máy tính và khoa học pháp lý, có thể hiểu AI là các hệ thống/phần mềm có khả năng học và thực hiện hành động đòi hỏi trí thông minh của con người và thậm chí vượt qua khả năng phân tích trí óc của con người.
Điểm chung trong các định nghĩa của OECD, EU là nhấn mạnh khả năng tự động phân tích dữ liệu, đưa ra quyết định/dự đoán, cũng như tính tự chủ ở các mức độ khác nhau của hệ thống AI. Đây chính là những đặc trưng cốt lõi phân biệt AI với các hệ thống phần mềm truyền thống. Từ cách tiếp cận này, có thể thấy những đặc trưng công nghệ riêng biệt của AI cũng chính là yếu tố làm nảy sinh các vấn đề pháp lý mới, phải được điều chỉnh để AI phát triển xoay quanh con người, không vượt quá tầm kiểm soát của con người, cụ thể:
Một là, AI có khả năng tự học từ dữ liệu. Thông qua các thuật toán học máy (machine learning), hệ thống AI có thể rút ra tri thức, mô hình hoặc quy luật từ dữ liệu huấn luyện, thay vì chỉ hoạt động theo các chương trình được lập trình sẵn
[9]. Ví dụ, một mô hình học sâu có thể tự cải thiện độ chính xác khi được cung cấp thêm dữ liệu. Tính chất tự học này giúp AI có thể thích nghi với thông tin mới và tự cải thiện hiệu năng theo thời gian
[10]. Từ góc độ pháp lý, khả năng tự học đồng nghĩa với việc AI có thể thay đổi hành vi dựa trên dữ liệu mới, khiến cho việc kiểm soát đầu ra trở nên khó kiểm soát. Điều này đặt ra yêu cầu về giám sát thuật toán và đánh giá tác động liên tục, bởi mô hình AI sau khi triển khai có thể tự điều chỉnh vượt ra ngoài phạm vi dự liệu ban đầu của nhà phát triển.
Hai là, AI có khả năng tự động ra quyết định. Nhiều hệ thống AI, một khi đã triển khai, có thể vận hành tự động và đưa ra quyết định mà không cần (hoặc với rất ít) sự can thiệp trực tiếp của con người. Chẳng hạn, AI có thể tự phân loại nội dung, tự duyệt hồ sơ tín dụng, tự lái xe, hoặc tự đưa ra chẩn đoán trong y tế dựa trên những gì đã học. Tính tự động này mang lại hiệu quả cao nhưng cũng khiến quá trình ra quyết định trở nên khó giải thích và kiểm soát
[11]. Ví dụ, trong vụ việc một số người đã bị thiệt mạng trong những vụ tai nạn ô tô tự hành, khi ô tô tự lái gặp phải tình huống không thể đưa ra quyết định an toàn
[12]. Những vấn đề này dẫn tới thách thức pháp lý về cách thức để đảm bảo quyền được biết của cá nhân bị ảnh hưởng bởi quyết định của AI. Các mô hình AI hiện đại (đặc biệt là học sâu) có độ phức tạp và ẩn giấu cao, khiến quy trình ra quyết định không thể truy vết rõ ràng
[13]. Hệ quả là không thể xác định trách nhiệm pháp lý đối với các quyết định do AI tạo ra. Do vậy, phải có các quy định pháp luật rõ ràng về trách nhiệm của các bên liên quan (nhà phát triển, nhà cung cấp, người sử dụng AI) cũng như cơ chế bồi thường thiệt hại khi AI gây ra hậu quả xấu, thay vì coi AI như một chủ thể pháp lý độc lập (vì hiện nay chưa có văn bản pháp lý nào thừa nhận tư cách pháp lý cho AI).
Ba là, AI có khả năng tự cải thiện. AI không chỉ học một lần mà còn có thể tiếp tục học và tự cải thiện trong quá trình hoạt động. Một số hệ thống AI tiên tiến có cơ chế học liên tục hoặc thích ứng online, nghĩa là chúng cập nhật mô hình của mình dựa trên dữ liệu mới hoặc phản hồi từ môi trường sau khi được triển khai. Tính năng này giúp AI ngày càng hoàn thiện, nhưng đồng thời tạo ra tính không dự đoán trước: qua thời gian, AI có thể thay đổi hành vi theo hướng mà ngay cả nhà phát triển cũng không lường hết được từ ban đầu
[14]. Về mặt pháp lý, khả năng tự cải thiện đặt ra yêu cầu về quy định chuẩn mực và kiểm soát chất lượng. Hầu hết các quy trình cấp phép, chứng nhận an toàn cho sản phẩm (ví dụ trong lĩnh vực y tế, hàng không) giả định rằng sản phẩm sau khi được cấp phép sẽ không tự biến đổi tính năng cơ bản. Nhưng với AI tự học sau triển khai, sự tuân thủ các tiêu chuẩn an toàn/đạo đức có thể thay đổi theo thời gian. Do đó, yêu cầu pháp lý mới có thể bao gồm việc giám sát liên tục các AI sau khi triển khai, thẩm định định kỳ (audit) về độ an toàn và tính tuân thủ, cũng như cơ chế ngừng hoạt động khẩn cấp nếu AI có dấu hiệu vượt ngoài sự kiểm soát của con người.
Do đó, các thuộc tính công nghệ nội tại của AI, bao gồm khả năng tự học, tự chủ ra quyết định và tự thích ứng mang lại lợi ích nhưng cũng đặt ra những yêu cầu về mặt pháp lý nhất định. Một mặt, những thuộc tính này mang lại hiệu suất và tính linh hoạt vượt trội cho các ứng dụng AI. Mặt khác, chúng đồng thời làm phát sinh những thách thức pháp lý chưa có tiền lệ, liên quan đến tính minh bạch, khả năng giải trình của hệ thống, bảo vệ dữ liệu và quyền riêng tư, cho đến việc xác định trách nhiệm pháp lý khi có thiệt hại phát sinh. Do đó, việc xây dựng khung pháp lý đòi hỏi phải xem xét một cách toàn diện với các đặc tính kỹ thuật này, nhằm thiết lập cơ chế điều chỉnh tương thích, đảm bảo sự phát triển của AI một cách có trách nhiệm, đáng tin cậy và lấy con người làm trung tâm.
3. Xu hướng xây dựng khung pháp lý về trí tuệ nhân tạo trên thế giới
Trong thời gian qua, các quốc gia trên thế giới đã khởi động nhiều sáng kiến nhằm thiết lập khung pháp lý điều chỉnh AI. Tuy nhiên, cách tiếp cận trong xây dựng khung pháp lý về AI có sự khác biệt giữa các hệ thống pháp luật, phản ánh ưu tiên chính sách, mức độ phát triển công nghệ và văn hóa quản trị của từng quốc gia. Có thể nhận diện hai mô hình tiêu biểu: (i) Mô hình xây dựng luật chuyên biệt để quản lý AI, và (ii) Mô hình sử dụng “luật mềm” để quản lý AI (soft-law approach).
Thứ nhất, mô hình xây dựng luật chuyên biệt để quản lý AI. EU là khu vực đầu tiên ban hành Đạo luật AI (AIA), khuôn khổ pháp lý toàn diện đầu tiên trên thế giới điều chỉnh mọi giai đoạn của vòng đời AI. AIA được Ủy ban châu Âu trình năm 2021 và Nghị viện châu Âu thông qua vào tháng 3/2024
[15]. AIA áp dụng cách tiếp cận “dựa trên rủi ro”
(risk-based approach), đặt các hệ thống AI vào một trong bốn loại rủi ro bao gồm: rủi ro tối thiểu hoặc không có rủi ro, rủi ro hạn chế, rủi ro cao và rủi ro không thể chấp nhận, dựa trên mối đe dọa tương đối mà chúng gây ra. EU cũng xây dựng AIA dựa trên nguyên tắc nhấn mạnh nghĩa vụ giám sát của con người
(human oversight), điều kiện tiên quyết là AI phải là công nghệ lấy con người làm trung tâm. Nó phải phục vụ như một công cụ cho con người, với mục đích cuối cùng là nâng cao phúc lợi cho con người, minh bạch dữ liệu huấn luyện, và trách nhiệm giải trình của nhà phát triển
[16].
Mặc dù cũng có cách tiếp cận là xây dựng luật chuyên biệt để quản lý AI, tuy nhiên Nhật Bản lại lựa chọn tiếp cận theo mô hình luật khung (framework law) thông qua Luật về Thúc đẩy nghiên cứu, phát triển và ứng dụng các công nghệ liên quan đến AI. Khác với EU, nơi AIA quy định rất chi tiết, phân loại rủi ro thành nhiều cấp độ và đặt ra nghĩa vụ pháp lý nghiêm ngặt cho từng nhóm hệ thống, Nhật Bản lại chủ trương xây dựng một đạo luật mang tính định hướng, tập trung vào việc xác lập nguyên tắc, chuẩn mực và giá trị cơ bản để dẫn dắt sự phát triển và ứng dụng AI. Cách tiếp cận của Nhật Bản được xem là cân bằng hơn bởi lẽ hài hòa được các nguyên tắc của “luật mềm” là chỉ dừng lại ở các bộ quy tắc đạo đức không có tính bắt buộc, và “luật cứng” với quy định chi tiết đến mức có thể hạn chế sáng tạo như ở EU. Bằng việc sử dụng một luật khung có hiệu lực pháp lý nhưng vẫn chừa lại không gian cho công nghệ phát triển, Nhật Bản tạo ra một mô hình linh hoạt, vừa đảm bảo được tính trách nhiệm, minh bạch và an toàn, vừa tránh được nguy cơ kìm hãm đổi mới do quy định quá chặt.
Thứ hai, mô hình sử dụng “luật mềm” (soft law) để quản lý AI (soft-law approach). Nhiều quốc gia và tổ chức quốc tế lựa chọn mô hình “luật mềm”, tức quản lý thông qua chuẩn mực đạo đức, hướng dẫn và khuyến nghị, thay vì quy định pháp lý cứng nhắc ràng buộc. Mục tiêu là tạo ra không gian pháp lý linh hoạt, cho phép thử nghiệm, học hỏi và điều chỉnh dần theo thực tiễn phát triển của công nghệ. Mô hình quản trị AI này hiện đang được phần lớn các quốc gia trên thế giới áp dụng, kể cả các nước đi đầu trong lĩnh vực AI như Trung Quốc, Singapore…
Tại Trung Quốc, chiến lược quản lý AI thể hiện phương pháp tiếp cận mềm dẻo, ưu tiên ban hành các quy định có tính mục tiêu và các tiêu chuẩn kỹ thuật thay vì một bộ luật khung tổng thể. Do đó, hệ sinh thái AI tại quốc gia hiện được điều chỉnh đồng thời bởi các “luật cứng” mang tính nền tảng (về dữ liệu, sở hữu trí tuệ) và một loạt công cụ “luật mềm” mới (hướng dẫn đạo đức, quy định tạm thời cho các ứng dụng cụ thể), tạo ra một khuôn khổ quản lý linh hoạt trong bối cảnh công nghệ phát triển nhanh chóng. Điển hình, Chính phủ Trung Quốc đã thiết lập các chính sách quản lý đối với công nghệ deepfake, học máy và những ứng dụng AI có tiềm năng tạo ra rủi ro
[17]. Mặt khác, Trung Quốc đã bắt đầu xây dựng các quy định về trách nhiệm pháp lý liên quan đến AI nhằm xác định rõ chủ thể chịu trách nhiệm trong trường hợp xảy ra sai sót do AI gây ra. Một trong những văn bản quan trọng phản ánh xu hướng này là Bản Quy định tạm thời về quản lý dịch vụ AI tạo sinh
(China’s Interim Measures on generative AI). Bản quy định này đặt ra những yêu cầu về trách nhiệm của các bên tham gia vào quá trình phát triển, triển khai và vận hành AI tạo sinh. Trong đó, các doanh nghiệp cung cấp dịch vụ AI tạo sinh phải chịu trách nhiệm về tính minh bạch, tính chính xác và mức độ an toàn của hệ thống AI mà họ phát triển
[18].
Tại Singapore, để tạo điều kiện phát huy tiềm năng to lớn chưa thể khám phá hết của AI, vừa giảm thiểu những bất trắc, rủi ro của công nghệ mới, quốc gia này đã xây dựng Khung mẫu quản trị AI
(Model AI Governance Framework) theo định hướng quản trị dựa trên một số nguyên tắc cơ bản, không đi vào chi tiết. Khung quản trị này bao gồm: tập hợp các nguyên tắc đạo đức cho triển khai AI có trách nhiệm và tập hợp các thông lệ quản trị để hiện thực hóa các nguyên tắc này. Cụ thể, Khung quản trị đề ra 4 nguyên tắc đạo đức cho AI là công bằng, minh bạch, lấy con người làm trung tâm, trách nhiệm giải trình
[19]. Cách tiếp cận này được mô tả là một mô hình mềm dẻo
(light-touch), tự nguyện và “gần như pháp lý”
(quasi-regulatory)[20], xây dựng sự đồng thuận giữa Chính phủ, ngành công nghiệp và người dân. Trong lĩnh vực AI phát triển nhanh chóng, việc áp dụng khuôn khổ tự nguyện được xem là một công cụ chính sách có chủ đích. Bằng cách tạo ra một môi trường có thể dự đoán nhưng linh hoạt, Singapore đặt mục tiêu “khai thác năng lượng sản xuất của chủ nghĩa tư bản thị trường tự do trong các rào chắn rõ ràng”
[21]. Điều này giúp thu hút vốn đầu tư AI, những yếu tố có thể bị cản trở bởi các chế độ pháp lý cứng nhắc hơn như của EU. Do đó, bản thân mô hình quản trị trở thành một công cụ phát triển kinh tế, tạo ra lợi thế cạnh tranh và biến Singapore thành một trung tâm để thử nghiệm, triển khai và mở rộng các giải pháp AI.
4. Khung pháp lý về trí tuệ nhân tạo của một số quốc gia trên thế giới
4.1. Luật Trí tuệ nhân tạo của Liên minh châu Âu
AIA được xem là bước đột phá mang tính tuyệt đối trong việc điều chỉnh các công nghệ mới và sáng tạo liên quan đến AI. Với tư cách là đạo luật chuyên ngành đầu tiên trên thế giới, AIA không chỉ cho các doanh nghiệp châu Âu phát triển hoặc triển khai AI, mà còn cho cả các công ty ngoài EU nếu hệ thống AI của họ được sử dụng trong lãnh thổ châu Âu
[22]. AIA sử dụng cách tiếp cận dựa trên rủi ro
(risk-based approach), thông qua việc chia các hệ thống AI thành bốn cấp độ rủi ro: rủi ro không thể chấp nhận (unacceptable risk), rủi ro cao (high risk), rủi ro hạn chế (limited risk) và rủi ro tối thiểu (minimal risk). Tuy nhiên, với mục đích được thiết kế để cân bằng giữa bảo vệ quyền cơ bản (fundamental rights) và thúc đẩy đổi mới sáng tạo, cách tiếp cận này đã có một số bất cập nhất định:
Thứ nhất, hệ thống AI
(AI system) được định nghĩa là một hệ thống dựa trên máy móc được thiết kế để hoạt động với các mức độ tự chủ khác nhau, có thể thể hiện tính thích ứng sau khi triển khai cho các mục tiêu rõ ràng hoặc ngầm định, suy luận từ đầu vào mà nó nhận được, tạo ra các đầu ra như dự đoán, nội dung, khuyến nghị hoặc quyết định có thể ảnh hưởng đến môi trường thực hoặc ảo (Điều 3(1) AIA). Có thể thấy, định nghĩa về hệ thống AI của AIA đã mở rộng cách hiểu về hệ thống AI so với trước đây, từ các công nghệ và hệ thống đơn giản tập trung vào các trường hợp sử dụng đơn lẻ đến các ứng dụng tiên tiến của “deep learing” và AI tạo sinh
(generative AI)[23]. Tuy nhiên, từ một cách tiếp cận thực sự dựa trên rủi ro và theo nguyên tắc trung lập công nghệ (technology neutrality), định nghĩa về hệ thống AI trong AIA không xác định mức độ tự chủ tối thiểu và chỉ dùng từ “có thể”
(may) - nghĩa là ngay cả khi hệ thống không thể tự thích ứng sau triển khai, nó vẫn được coi là AI
[24]. Định nghĩa này của AIA không chỉ điều chỉnh các hệ thống học máy, mà còn bao gồm cả phần mềm logic và tri thức truyền thống. Như vậy, ngay cả những phần mềm hoạt động ổn định, có thể dự đoán cũng phải tuân theo các quy định nghiêm ngặt áp dụng cho AI rủi ro cao. Một số học giả, như Schrepel, cho rằng, cách làm này vô tình “trừng phạt” những công nghệ an toàn và dễ kiểm soát hơn, đi ngược lại tinh thần cốt lõi của cách tiếp cận dựa trên rủi ro, vốn phải phân biệt rõ giữa mức độ rủi ro khác nhau của từng loại công nghệ
[25].
Thứ hai, EU phân loại các hệ thống AI dựa trên mức độ rủi ro mà chúng gây ra cho công dân và người tiêu dùng châu Âu. AIA yêu cầu thiết kế các hệ thống AI theo nguyên tắc “rủi ro càng cao, quy tắc càng chặt”
[26], thể hiện nguyên tắc tương xứng của lập pháp EU: cấm các hệ thống AI có rủi ro không thể chấp nhận (unacceptable), áp đặt bộ yêu cầu kỹ thuật, quản trị đối với AI rủi ro cao (high-risk), quy định minh bạch có mục tiêu với rủi ro hạn chế (limited), còn rủi ro tối thiểu (minimal) thì hầu như không điều chỉnh. Tuy nhiên, việc đánh giá rủi ro này được thực hiện từ trước (ex-ante) ở cấp độ lập pháp, tức là do nhà làm luật xác định trước, không dựa trên các tình huống thực tế hay dữ liệu trên thực tiễn. Đối với những hệ thống AI rủi ro cao, AIA không đưa ra một phương pháp chung để đánh giá rủi ro mà chỉ cung cấp một danh mục cố định các loại hệ thống AI được coi là gây ra rủi ro cao (Phụ lục III AIA). Cách làm này khiến cho các quy định trong luật thiếu tính linh hoạt và không bảo đảm nguyên tắc “tương xứng” (proportionality), nghĩa là quy tắc có thể quá chặt với một số ứng dụng nhưng lại quá lỏng với những ứng dụng khác
[27].
Khi được xác định là hệ thống AI rủi ro cao, các hệ thống này phải tuân thủ những quy định chi tiết của EU, từ việc áp dụng quy trình quản lý rủi ro, sử dụng dữ liệu chất lượng cao, lưu giữ tài liệu kỹ thuật, đảm bảo tính minh bạch, thiết lập cơ chế giám sát con người, cho đến duy trì độ chính xác, khả năng chống chịu và an toàn của hệ thống. Những quy định này cung cấp khung pháp lý chặt chẽ, được xem là mô hình điều chỉnh theo quy định chi tiết (rules-based regulation), song cũng dẫn đến kiểu tuân thủ “đánh dấu vào ô trống” (check-box compliance)
[28], doanh nghiệp có thể chỉ tập trung đáp ứng các yêu cầu hình thức thay vì chú trọng hiệu quả kiểm soát rủi ro trên thực tế. Mô hình điều chỉnh theo quy định chi tiết của EU đang bị đánh giá là thiếu linh hoạt trước sự phát triển nhanh chóng của công nghệ AI
[29]. Việc quy định quá chi tiết dẫn đến AIA “đóng khung” công nghệ AI vào các định nghĩa và danh mục hiện thời, áp đặt một cấu trúc pháp lý cứng nhắc lên một lĩnh vực vẫn đang biến đổi không ngừng. Do đó, đạo luật này khó thích ứng nhanh khi xuất hiện các công nghệ AI mới.
Thứ ba, mặc dù mục tiêu của AIA là thúc đẩy việc sử dụng AI lấy con người làm trung tâm
(human-centric) và đáng tin cậy, đồng thời bảo vệ các quyền cơ bản được ghi nhận trong Hiến chương trước các tác động có hại của hệ thống AI và hỗ trợ đổi mới nhưng cách tiếp cận dựa trên rủi ro lại khiến luật này nghiêng nhiều hơn về quản lý kỹ thuật thay vì bảo đảm các quyền thực chất. Cách tiếp cận này bỏ qua tính tối thiểu và không thể thương lượng của quyền con người
[30]. Thay vào đó, AIA với cách tiếp cận dựa trên rủi ro và đánh giá tác động đến quyền cơ bản, ngụ ý rằng các vi phạm quyền cơ bản có thể được định lượng và đo lường theo mức độ, tuy nhiên điều này là không phù hợp. Trong khi đạo luật nhấn mạnh nguyên tắc lấy con người làm trung tâm, thì các quy định cụ thể lại chủ yếu tập trung vào kiểm soát rủi ro kỹ thuật, mà chưa thiết lập được một cơ chế giám sát động và phản hồi liên tục để bảo đảm các quyền cơ bản được bảo vệ hiệu quả trong suốt vòng đời của hệ thống AI.
Như vậy, cách tiếp cận dựa trên rủi ro của EU trong AIA thể hiện rõ đặc trưng của một mô hình quản trị mang tính kỹ trị và kiểm soát cao, tập trung vào việc xác định, phân loại và quản lý rủi ro thông qua các quy định pháp lý chi tiết, cứng nhắc. Khác với EU, Vương quốc Anh hậu Brexit đã lựa chọn một hướng tiếp cận hoàn toàn khác, lấy nguyên tắc ưu tiên đổi mới sáng tạo (pro-innovation approach) làm trung tâm. Dự thảo Luật AI của Anh vẫn tiếp tục duy trì cách tiếp cận mềm dẻo dựa trên nguyên tắc (principles-based regulation) và để các cơ quan quản lý chuyên ngành chủ động thích ứng với từng bối cảnh ứng dụng AI. Để làm rõ hơn sự khác biệt này, nhóm tác giả phân tích cách tiếp cận trong Dự thảo Luật AI của Vương quốc Anh và đưa ra một số kiến nghị cho Việt Nam.
4.2. Dự thảo Luật Trí tuệ nhân tạo của Vương quốc Anh
Bắt đầu từ Sách trắng năm 2023 được xây dựng trên nguyên tắc ủng hộ đổi mới sáng tạo và linh hoạt theo bối cảnh, Anh trao quyền cho các cơ quan quản lý chuyên ngành hiện có để giám sát việc ứng dụng AI dựa trên việc phân loại về tác động của từng loại AI mang đến
[31]. Nhiệm vụ của các cơ quan này là áp dụng năm nguyên tắc xuyên suốt trong Sách trắng bao gồm: an toàn, minh bạch, công bằng, trách nhiệm giải trình và khả năng cạnh tranh, tùy thuộc vào tác động thực tế của AI trong lĩnh vực họ quản lý
[32]. Mô hình này của Anh cho thấy, quốc gia này đang theo hướng đặt trọng tâm vào đổi mới sáng tạo (innovation-first) nhưng vẫn dựa trên nền tảng giá trị đạo đức và nhân quyền. Đây được xem là hướng đi an toàn cho quốc gia đang phát triển hệ sinh thái AI nhưng chưa đủ năng lực để xây dựng một đạo luật toàn diện. Hiện tại, Dự thảo Luật AI của Anh vẫn đang trong quá trình được thảo luận tại Thượng viện
[33]. Dự thảo Luật AI chỉ có 09 điều, trong đó đưa ra các quy định khung, mang tính nguyên tắc và linh hoạt để tạo điều kiện cho AI phát triển.
Theo Dự thảo Luật AI của Anh, AI được hiểu là công nghệ cho phép lập trình hoặc huấn luyện phần mềm, thiết bị để thực hiện ba nhóm chức năng chính: (i) Nhận biết môi trường xung quanh thông qua việc phân tích dữ liệu; (ii) Xử lý và diễn giải dữ liệu bằng các quy trình tự động nhằm ước tính khả năng nhận thức; và (iii) Đưa ra dự đoán, khuyến nghị hoặc quyết định hướng tới một mục tiêu xác định (Điều 7 Dự thảo Luật AI). Theo định nghĩa này, AI bao gồm cả AI tạo sinh (generative AI), các mô hình ngôn ngữ lớn có khả năng tạo ra văn bản hoặc nội dung mới dựa trên dữ liệu mà chúng được huấn luyện. Khác với cách tiếp cận của EU, Anh thừa nhận rằng, khái niệm AI có thể được hiểu rất đa dạng về kỹ thuật và thuật ngữ, do đó việc cố định một định nghĩa duy nhất có thể dẫn đến nhiều bất cập. Thay vì ràng buộc bởi một định nghĩa cứng nhắc, Anh lựa chọn cách tiếp cận linh hoạt hơn, tập trung vào hai đặc trưng nền tảng của AI là tính thích ứng (adaptivity) và tính tự chủ (autonomy)
[34]. Cách tiếp cận này giúp Dự thảo Luật khi được ban hành có thể bao quát cả những công nghệ mới trong tương lai nếu chúng mang những đặc điểm tương tự, từ đó tạo nên một khuôn khổ linh hoạt, thích ứng và hướng đến dài hạn thay vì ràng buộc bởi các quy định kỹ thuật cố định.
Về nguyên tắc triển khai, Điều 2.1(a) Dự thảo Luật AI của Anh quy định các Cơ quan AI (AI Authority) phải tuân thủ các nguyên tắc an toàn, bảo mật và hiệu quả; tính minh bạch và giải thích phù hợp; công bằng; trách nhiệm giải trình và quản trị; khả năng cạnh tranh và khắc phục. Có thể thấy, Vương quốc Anh lựa chọn phương pháp quản lý dựa trên nguyên tắc (principles-based regulation), cách tiếp cận này đã được trình bày trong Sách trắng của Chính phủ Anh, kết hợp năm nguyên tắc chính từ nhiều lĩnh vực khác nhau. Mục tiêu là tạo ra một khung pháp lý linh hoạt, có thể điều chỉnh theo sự phát triển nhanh chóng của công nghệ AI và phù hợp với đặc thù của từng ngành. Khác với mô hình quản lý theo quy tắc và rủi ro của EU, phương pháp của Anh tập trung vào việc đạt được các mục tiêu cụ thể thay vì tuân thủ từng quy định chi tiết. Điều này giúp các tổ chức dễ dàng thích nghi và đổi mới trong môi trường công nghệ đang thay đổi từng ngày.
Dự thảo Luật AI yêu cầu nước này phải thành lập cơ quan AI chuyên biệt để quản lý AI, nhưng xuyên suốt các quy định trong Dự thảo, Anh vẫn giữ cách tiếp cận mềm dẻo nhằm mục đích khuyến khích nhiều cơ quan quản lý nhà nước khác nhau cùng tham gia vào quản trị AI, thay vì chỉ giao nhiệm vụ này cho một hoặc vài cơ quan chuyên trách. Việc trao quyền điều tiết theo lĩnh vực giúp từng cơ quan có thể xây dựng giải pháp quản lý phù hợp với phạm vi chuyên môn và đặc thù ngành của mình, qua đó hình thành nên những mô hình quản trị đổi mới và linh hoạt
[35].
Mặc dù đang trong quá trình hoàn thiện Dự thảo Luật AI, Vương quốc Anh vẫn duy trì cách tiếp cận quản lý dựa trên nguyên tắc (principles-based regulation) - luật chỉ quy định khung nguyên tắc hơn là quy định chi tiết (rules-based regulation). Cách tiếp cận này bảo đảm sự cân bằng giữa đảm bảo quyền con người và khuyến khích đổi mới sáng tạo, đồng thời cho phép các cơ quan quản lý thực hiện quyền tự chủ trong điều tiết, bảo đảm khả năng thích ứng của hệ thống pháp luật trước sự phát triển nhanh chóng và khó dự đoán của AI.
4.3. Luật về Thúc đẩy nghiên cứu, phát triển và ứng dụng các công nghệ liên quan đến trí tuệ nhân tạo của Nhật Bản
Ngày 28/5/2025, Quốc hội Nhật Bản đã chính thức thông qua Luật về Thúc đẩy nghiên cứu, phát triển và ứng dụng các công nghệ liên quan đến AI (gọi tắt là Luật Thúc đẩy AI), qua đó đưa Nhật Bản trở thành nền kinh tế lớn thứ hai tại khu vực châu Á - Thái Bình Dương ban hành một đạo luật AI mang tính toàn diện. Phần lớn các quy định của đạo luật (trừ Chương III, IV và các Điều 3, 4 trong Quy định bổ sung) chính thức có hiệu lực từ ngày 04/06/2025, đánh dấu sự chuyển đổi chiến lược của Nhật Bản từ mô hình quản trị AI dựa trên luật mềm sang một khuôn khổ pháp lý mang tính lập pháp, ràng buộc và định chế hóa trong điều chỉnh AI. Luật Thúc đẩy AI được cấu trúc như một đạo luật cơ bản
(fundamental law), đặt ra các nguyên tắc và định hướng chính sách quốc gia thay vì các quy tắc chi tiết, mang tính mệnh lệnh đối với khu vực tư nhân. Luật Thúc đẩy AI được ban hành nhằm mục đích hiện thực hóa tham vọng của Chính phủ Nhật Bản được nêu trong Sách trắng năm 2024, biến Nhật Bản thành “quốc gia thân thiện với AI nhất thế giới”
[36].
Tương tự cách tiếp cận trong Dự thảo Luật AI của Anh, Luật Thúc đẩy AI của Nhật Bản cũng kế thừa cách tiếp cận “luật mềm” trước đó của Nhật Bản đối với quản trị AI, dựa vào các hướng dẫn không ràng buộc của Chính phủ như “Hướng dẫn dành cho Doanh nghiệp vận hành AI năm 2024”
[37] để thúc đẩy các sáng kiến tự nguyện của doanh nghiệp thay cho quy định “luật cứng”. Do đó, cấu trúc của đạo luật này cho thấy, Nhật Bản đang quản trị linh hoạt trong điều tiết công nghệ; trong các lĩnh vực phát triển nhanh và khó dự đoán như AI thì các quy định cứng nhắc và mang tính chất tiền kiểm (ex-ante) rất dễ nhanh chóng trở nên lỗi thời và có thể cản trở đổi mới sáng tạo.
Thứ nhất, về định nghĩa AI, Luật Thúc đẩy AI của Nhật Bản không có định nghĩa cụ thể về AI hay hệ thống AI mà chỉ quy định về “các công nghệ liên quan đến AI”, là những công nghệ mô phỏng hoặc tái tạo các năng lực trí tuệ của con người
[38]. Cách định nghĩa này mang tính phi kỹ thuật, được thiết kế nhằm bảo đảm khả năng thích ứng lâu dài, cho phép đạo luật bao quát các công nghệ mới nổi trong tương lai mà không cần sửa đổi thường xuyên. Nhật Bản cũng không kế thừa định nghĩa của OECD về “hệ thống AI” vốn là nền tảng cho định nghĩa trong AIA của EU mà lựa chọn cách tiếp cận riêng, cho thấy khung pháp lý ưu tiên tính mềm dẻo và định hướng chính sách hơn là quy định kỹ thuật chi tiết
[39].
Thứ hai, về hệ thống AI, Luật Thúc đẩy AI không tiến hành phân loại rủi ro theo cấp độ hay nhóm ứng dụng, cũng không áp dụng cơ chế cấm đoán đối với bất kỳ loại hệ thống AI nào. Luật lựa chọn cách tiếp cận định hướng và khuyến khích, tập trung xây dựng một môi trường pháp lý linh hoạt, thúc đẩy nghiên cứu, phát triển và ứng dụng AI trong mọi lĩnh vực. Cách tiếp cận này phản ánh mục tiêu của Nhật Bản là trở thành “quốc gia thân thiện với AI nhất thế giới”, nơi pháp luật đóng vai trò dẫn dắt và hỗ trợ đổi mới thay vì giới hạn hay kiểm soát công nghệ.
Thứ ba, Điều 3 Luật Thúc đẩy AI cũng quy định năm nguyên tắc nhằm quản trị AI gồm: tuân thủ; thúc đẩy phát triển; bảo đảm tiến bộ toàn diện và hài hòa; minh bạch; và duy trì vai trò dẫn dắt quốc tế. Ngoài ra, đạo luật này cũng không quy định chế tài cụ thể nào đối với việc không tuân thủ các yêu cầu của luật này, kể cả chế tài tài chính. Thay vào đó, các khu vực tư nhân chỉ có nghĩa vụ trực “nỗ lực hợp tác” với các biện pháp do Chính phủ triển khai. Đây là một dạng nghĩa vụ mang tính khuyến khích, không ràng buộc pháp lý, phản ánh đặc trưng của phong cách lập pháp Nhật Bản, nơi pháp luật được coi như công cụ định hướng hành vi xã hội thông qua đồng thuận và tự giác hơn là áp đặt cưỡng chế. Do đó, tương tự như Dự thảo Luật AI của Vương quốc Anh, Luật Thúc đẩy AI được thiết kế theo mô hình khung định hướng, nhằm tạo không gian cho sự phát triển khó đoán của công nghệ AI, đồng thời tránh nguy cơ pháp luật tụt hậu so với thay đổi công nghệ.
Mặc dù có những khác biệt nhất định, AIA của EU, Dự thảo Luật AI của Anh và Luật Thúc đẩy AI của Nhật Bản đều có điểm là thiết lập các cơ quan trung ương của Chính phủ (Văn phòng AI/Cơ quan có thẩm quyền quốc gia (NCA) của EU, Trụ sở Chiến lược AI của Nhật Bản, Cơ quan AI của Anh) để điều phối chính sách và chiến lược AI. Cả ba cũng nhấn mạnh hợp tác quốc tế và tham gia vào việc thiết lập chuẩn mực. Khung pháp lý của EU, Anh, Nhật Bản đều trực tiếp hoặc gián tiếp viện dẫn các nguyên tắc cốt lõi về minh bạch, công bằng, trách nhiệm giải trình, an toàn và lấy con người làm trung tâm, những nguyên tắc đã được xây dựng trong OECD[40].
5. Khung pháp lý về trí tuệ nhân tạo tại Việt Nam
Những năm qua, sự phát triển nhanh chóng của AI cùng việc ứng dụng rộng rãi trong nhiều lĩnh vực kinh tế - xã hội đã mở ra những cơ hội to lớn cho các quốc gia, trong đó có Việt Nam. Nhận thức rõ tiềm năng của công nghệ này trong việc thúc đẩy tăng trưởng kinh tế, nâng cao năng lực cạnh tranh và chuyển đổi số quốc gia, Việt Nam đã chủ động định hướng xây dựng chiến lược phát triển AI ở mức độ cấp quốc gia. Ngày 26/01/2021, Thủ tướng Chính phủ đã ban hành Quyết định số 127/QĐ-TTg về Chiến lược quốc gia về nghiên cứu, phát triển và ứng dụng AI đến năm 2030, xác định AI là một lĩnh vực công nghệ trọng điểm. Chiến lược đặt mục tiêu đưa Việt Nam trở thành trung tâm đổi mới sáng tạo, phát triển các giải pháp và ứng dụng AI hàng đầu khu vực ASEAN vào năm 2030, qua đó tạo nền tảng quan trọng cho việc hoàn thiện khung pháp lý và xây dựng Luật AI trong thời gian tới.
Tháng 6/2024, Bộ Khoa học và Công nghệ đã ban hành Quyết định số 1290/QĐ-BKHCN về việc hướng dẫn một số nguyên tắc về nghiên cứu, phát triển các hệ thống AI có trách nhiệm. Nghiên cứu, phát triển các hệ thống AI ở Việt Nam dựa trên quan điểm hướng tới xã hội lấy con người làm trung tâm, nơi mọi người đều được hưởng lợi từ cuộc sống cũng như từ các hệ thống AI, bảo đảm cân bằng hợp lý giữa lợi ích và rủi ro của các hệ thống. Quyết định này quy định 9 nguyên tắc nghiên cứu và phát triển hệ thống AI có trách nhiệm và các hướng dẫn thực hiện bao gồm: tinh thần hợp tác, thúc đẩy đổi mới sáng tạo; minh bạch; khả năng kiểm soát; an toàn; bảo mật; quyền riêng tư; tôn trọng quyền và phẩm giá con người; hỗ trợ người dùng và trách nhiệm giải trình
[41]. Theo đó, hướng dẫn một số nguyên tắc về nghiên cứu, phát triển các hệ thống AI có trách nhiệm đã thiết lập một khuôn khổ phát triển AI có trách nhiệm và đạo đức, nhấn mạnh việc khai thác AI để phục vụ lợi ích xã hội đồng thời giảm thiểu các rủi ro và tác động tiêu cực có thể phát sinh. Sáng kiến này đánh dấu một bước tiến quan trọng trong việc thúc đẩy sự phát triển AI bền vững, có trách nhiệm tại Việt Nam, đồng thời trở thành “luật mềm” cho việc xây dựng hệ sinh thái AI của quốc gia trong bối cảnh chưa có đạo luật về AI toàn diện.
Ngày 21/9/2024, Thủ tướng Chính phủ phê duyệt Quyết định số 1018/QĐ-TTg ban hành “Chiến lược phát triển công nghiệp bán dẫn Việt Nam đến năm 2030 và tầm nhìn đến 2050”. Chiến lược này nhằm tận dụng cơ hội trong bối cảnh chuyển dịch chuỗi cung ứng bán dẫn toàn cầu, đồng thời, đặt nền móng cho sự phát triển bền vững của ngành công nghiệp bán dẫn Việt Nam, hỗ trợ cho việc phát triển AI
[42].
Gần đây nhất, Quốc hội đã thông qua Luật Công nghiệp công nghệ số năm 2025 có phạm vi điều chỉnh liên quan đến phát triển công nghiệp công nghệ số, công nghiệp bán dẫn, trong đó có AI. Luật dành riêng Chương IV để đưa ra các quy định cơ bản về AI bao gồm 5 nội dung tương ứng với 5 điều luật, bao gồm:
nguyên tắc phát triển, cung cấp, triển khai sử dụng AI;
chiến lược nghiên cứu, phát triển và ứng dụng AI;
quản lý hệ thống AI;
quy định dấu hiệu nhận dạng đối với hệ thống AI; và
trách nhiệm của các chủ thể trong hoạt động phát triển, cung cấp, triển khai sử dụng hệ thống AI.Những quy định này tại Luật Công nghiệp công nghệ số năm 2025 cho thấy nền móng đầu tiên về quản lý AI trong pháp luật Việt Nam ở tầm luật định, tạo khung pháp lý sơ khởi để điều chỉnh các hoạt động nghiên cứu, phát triển và ứng dụng AI.
Tuy nhiên, vì chỉ giới hạn trong 05 điều luật, Luật Công nghiệp công nghệ số năm 2025 hiện chưa phân loại rõ ràng các mức độ rủi ro của hệ thống AI, cơ chế thử nghiệm có kiểm soát đối với AI hay thiết lập cơ chế đánh giá, giám sát cụ thể, đồng thời cũng chưa bao quát hết các vấn đề pháp lý đối với hệ thống AI có rủi ro cao mà luật cần điều chỉnh. Khoảng trống này có thể gây khó khăn trong việc xác định phạm vi áp dụng, phân định trách nhiệm pháp lý và triển khai các biện pháp quản lý rủi ro trong thực tế. Vì vậy, bên cạnh Luật Công nghiệp công nghệ số năm 2025, Việt Nam đang tiến hành dự thảo và lấy ý kiến Luật AI với phạm vi điều chỉnh đầy đủ và các quy định chi tiết hơn, bao quát toàn diện các lĩnh vực gắn với AI nhằm bảo đảm quản lý hiệu quả, thúc đẩy đổi mới sáng tạo, vừa khẳng định vị thế tiên phong của Việt Nam trong khu vực Đông Nam Á về xây dựng Luật AI.
Như vậy, Việt Nam đang từng bước hình thành khung pháp lý điều chỉnh AI thông qua các chiến lược, quyết định và tiến tới xây dựng một đạo luật riêng về AI. Dự thảo Luật AI của Việt Nam đang được định hướng thiết kế theo mô hình quản lý dựa trên rủi ro, tương tự cách tiếp cận của EU trong AIA. Tuy nhiên, trong khi EU ưu tiên kiểm soát rủi ro nhằm bảo vệ quyền con người và an toàn xã hội, thì Vương quốc Anh và Nhật Bản lại lựa chọn cách tiếp cận dựa trên nguyên tắc (principles-based regulation), đặt trọng tâm vào đổi mới sáng tạo, linh hoạt và thúc đẩy ứng dụng AI trong các lĩnh vực khác nhau. So sánh các mô hình này cho thấy, xu hướng kết hợp giữa quản lý rủi ro và khuyến khích sáng tạo sẽ phù hợp với định hướng phát triển thể chế, đổi mới công nghệ và chuyển đổi số mà Việt Nam đang theo đuổi. Trên cơ sở đó, nhóm tác giả đề xuất một số kiến nghị nhằm hoàn thiện Dự thảo Luật AI của Việt Nam.
6. Một số kiến nghị hoàn thiện Dự thảo Luật Trí tuệ nhân tạo của Việt Nam
Việt Nam hiện đang đứng ở “ngã ba đường” trong quá trình hoạch định chính sách pháp luật về AI. Một mặt, Việt Nam có xu hướng tiếp cận theo mô hình châu Âu được thể hiện trong Dự thảo Luật AI của Việt Nam, đặt trọng tâm vào quản trị rủi ro, trách nhiệm và bảo vệ quyền con người, hướng đi thể hiện sự thận trọng và coi trọng đạo đức công nghệ. Mặt khác, trong bối cảnh Nghị quyết số 66-NQ/TW khẳng định mục tiêu đột phá của đột phát, thì vấn đề quan trọng nhất được đặt ra khi xây dựng Luật AI tại Việt Nam là liệu một đạo luật mang tính kiểm soát quá chặt chẽ có vô tình trở thành rào cản, kìm hãm sức sáng tạo và khả năng bứt phá công nghệ, hay ngược lại, có thể trở thành hành lang pháp lý mở đường để AI phát triển có trách nhiệm, minh bạch và vì con người. Thực tế, các chính sách gần đây của Việt Nam đã bắt đầu có xu hướng chuyển dịch sang thử nghiệm kiểm soát (regulatory sandbox) cho các công nghệ mới, điều này thể hiện rằng, Đảng và Nhà nước đang có xu hướng chấp nhận những rủi ro trong một chừng mực nhất định để tìm ra được giải pháp hữu hiệu để cân bằng giữa pháp luật và công nghệ. Đây được xem là bước đột phá thể chế, phản ánh tư duy quản trị hiện đại, cụ thể pháp luật không đi sau công nghệ, mà đồng hành cùng công nghệ. Trong bối cảnh đó, việc xây dựng Luật AI sẽ là phép thử quan trọng cho năng lực của hệ thống pháp luật Việt Nam trong việc cân bằng giữa bảo đảm an toàn, bảo vệ quyền con người và không làm suy giảm động lực đổi mới sáng tạo. Do đó, vấn đề đặt ra không chỉ là Việt Nam có cần một đạo luật quy định về AI hay không, mà sâu hơn là đạo luật về AI của Việt Nam sẽ được thiết kế như thế nào để vừa kiểm soát được rủi ro, vừa khơi thông tiềm năng phát triển của AI. Chính tại điểm giao thoa này, lựa chọn của Việt Nam sẽ quyết định liệu pháp luật sẽ trở thành lực cản hay đòn bẩy cho mục tiêu trở thành quốc gia tiên phong về đổi mới sáng tạo. Trên cơ sở phân tích thực tiễn phát triển của AI và kinh nghiệm lập pháp quốc tế, chúng tôi đưa ra một số kiến nghị nhằm hoàn thiện pháp luật Việt Nam về AI như sau:
Thứ nhất, về định hướng lập pháp. Luật AI của Việt Nam cần được thiết kế theo mô hình luật khung định hướng, tập trung vào việc xác lập những nguyên tắc nền tảng, mục tiêu phát triển, trách nhiệm và giới hạn pháp lý của các chủ thể tham gia vào hệ sinh thái AI. Cách tiếp cận này cho phép pháp luật đóng vai trò định hình và dẫn dắt sự phát triển công nghệ, bảo đảm tính linh hoạt trong điều chỉnh và tránh được nguy cơ kìm hãm sáng tạo do sự can thiệp quá sâu của các quy định kỹ thuật. Trong quá trình xây dựng, Việt Nam nên học hỏi kinh nghiệm của Nhật Bản, trong việc đề cao nguyên tắc khuyến khích đổi mới, thúc đẩy hợp tác giữa Nhà nước, doanh nghiệp và xã hội và xây dựng niềm tin công chúng đối với công nghệ.
Tuy nhiên, việc tham khảo mô hình của Nhật Bản cần được đặt trong bối cảnh đặc thù của Việt Nam, nơi việc bảo vệ chủ quyền quốc gia, an ninh dữ liệu và lợi ích dân tộc trong không gian số là những yêu cầu mang tính chiến lược. Luật AI cần góp phần củng cố năng lực tự chủ công nghệ, bảo đảm an toàn thông tin và khả năng kiểm soát hạ tầng số phục vụ cho phát triển bền vững và độc lập của đất nước. Bên cạnh đó, Việt Nam cũng nên tiếp thu có chọn lọc tinh thần nhân quyền trong mô hình pháp lý của châu Âu, đặc biệt là quan điểm coi con người là trung tâm của tiến trình phát triển công nghệ. Các nguyên tắc về minh bạch, công bằng, trách nhiệm giải trình và không phân biệt đối xử cần được cụ thể hóa thành các chuẩn mực pháp lý bắt buộc để bảo đảm mọi hoạt động của AI đều hướng tới việc tôn trọng quyền con người và phẩm giá cá nhân. Sự kết hợp hài hòa giữa tư duy đổi mới mang tính thực tiễn của Nhật Bản, tinh thần bảo vệ quyền con người của châu Âu và yêu cầu bảo vệ chủ quyền quốc gia của Việt Nam sẽ giúp hình thành một đạo luật về AI mang đậm bản sắc Việt Nam, trong đó phát triển công nghệ được định hướng gắn liền với giá trị con người, an ninh quốc gia và lợi ích xã hội.
Thứ hai, về cách thức cân bằng giữa kiểm soát rủi ro và khuyến khích đổi mới trong Luật AI của Việt Nam. Theo đó, Việt Nam cần lựa chọn một phương thức kết hợp giữa tính nguyên tắc của mô hình luật khung Nhật Bản và tính hệ thống của mô hình quản lý rủi ro theo phân tầng của EU, nhằm hình thành một cấu trúc pháp lý vừa linh hoạt, vừa có khả năng kiểm soát hiệu quả. Cụ thể, Việt Nam nên tiếp cận theo hướng luật khung có định hướng quản lý rủi ro, trong đó luật không đặt ra những quy định chi tiết đến từng loại hình công nghệ như EU, nhưng vẫn xác lập rõ ràng các nguyên tắc và tiêu chí nền tảng để quản lý rủi ro theo mức độ tác động xã hội. Ở cấp độ luật, Nhà nước cần quy định những nguyên tắc chung như: hoạt động phát triển và ứng dụng AI phải tương ứng với mức độ rủi ro, bảo đảm quyền con người, minh bạch, an toàn dữ liệu và không xâm phạm hại an ninh, chủ quyền số của quốc gia. Trên cơ sở đó, các văn bản dưới luật sẽ cụ thể hóa việc phân loại và ứng xử theo từng cấp độ rủi ro, như: yêu cầu đánh giá tác động và cấp phép đối với hệ thống AI có rủi ro cao, và áp dụng cơ chế tự điều chỉnh kết hợp giám sát nhẹ đối với rủi ro thấp. Cách kết hợp này giúp Việt Nam vừa kế thừa triết lý pháp luật dẫn dắt đổi mới của Nhật Bản, coi Nhà nước là người định hướng phát triển thay vì chỉ kiểm soát, vừa tiếp thu tinh thần kiểm soát theo mức độ rủi ro của EU để bảo đảm tính trách nhiệm, minh bạch và quyền con người trong quản trị công nghệ.
Thứ ba, Luật AI của Việt Nam cần bổ sung các quy định trực tiếp và cụ thể về cơ chế thử nghiệm có kiểm soát (regulatory sandbox) như một thiết chế pháp lý cốt lõi. Bởi lẽ, cơ chế sandbox là công cụ đặc biệt cho phép tạm thời miễn trừ hoặc nới lỏng một số quy định pháp luật hiện hành nhằm tạo không gian pháp lý thử nghiệm cho các mô hình, sản phẩm và dịch vụ AI mới. Bởi cơ chế này tác động trực tiếp đến quyền, nghĩa vụ và trách nhiệm pháp lý của các chủ thể tham gia, nên chỉ có đạo luật do Quốc hội ban hành mới có đủ thẩm quyền hiến định để xác lập nguyên tắc, phạm vi và giới hạn áp dụng. Nếu chỉ được quy định ở nghị định hoặc thông tư, sandbox sẽ làm giảm đi giá trị pháp lý ràng buộc, làm suy giảm tính minh bạch, thống nhất và khả năng chịu trách nhiệm của cơ quan quản lý.
Bên cạnh đó, việc đưa sandbox vào Luật AI thể hiện tư duy lập pháp chủ động, không chỉ coi sandbox là công cụ hành chính mà là một phương thức quản trị công nghệ tiên tiến gắn với định hướng pháp luật đồng hành cùng đổi mới sáng tạo. Sandbox trong luật sẽ giúp Nhà nước chủ động thiết lập không gian pháp lý an toàn cho sáng tạo, qua đó thúc đẩy doanh nghiệp và tổ chức công nghệ thử nghiệm sản phẩm mới trong phạm vi giám sát có kiểm soát. Sau cùng, quy định cơ chế này trong luật còn bảo đảm tính ổn định và thống nhất của hệ thống pháp luật, đặc biệt trong các lĩnh vực nhạy cảm như dữ liệu cá nhân, tài chính, y tế hay giáo dục, nơi AI có thể tác động trực tiếp đến quyền con người và trật tự xã hội. Như vậy, việc thể chế hóa sandbox ngay trong Luật AI không chỉ là giải pháp kỹ thuật lập pháp, mà còn là cam kết chính trị - pháp lý của Nhà nước Việt Nam trong việc kiến tạo môi trường pháp lý an toàn, linh hoạt và bền vững cho đổi mới sáng tạo, qua đó cân bằng hài hòa giữa quản lý rủi ro, bảo vệ quyền con người và thúc đẩy phát triển công nghệ./.
* CÙNG TÁC GIẢ: ThS. NGUYỄN VĂN DƯƠNG - Viện Pháp luật quốc tế và so sánh, Trường Đại học Kinh tế - Luật, Đại học Quốc gia TP. Hồ Chí Minh.
[1] Ghosh, M., Thirugnanam, A. (2021), “Introduction to Artificial Intelligence”, Sách:
Srinivasa, K.G., G. M., S., Sekhar, S.R.M. (eds) Artificial Intelligence for Information Management: A Healthcare Perspective, vol 88, Springer, Singapore,
https://doi.org/10.1007/978-981-16-0415-7_2, truy cập ngày 03/10/2025.
[2] Michael Haenlein, Andreas Kaplan (2019), “A Brief History of Artificial Intelligence: On the Past, Present, and Future of Artificial Intelligence”,
California Management Review, 61(4), truy cập tại địa chỉ: doi: 10.1177/0008125619864925, truy cập ngày 05/10/2025.
[3] John Mc Carthy (2007), “What is artificial intelligence?”,
Computer Science Department, Standford University. Stuart J. Russell and Peter Norvig (2020),
Artificial itelligence: A Modern Approach Fourth Edition, Pearson, Boston, tr. 2.
[4] Matthias Artzt, Tran Viet Dung (2022), “Artificial Intelligence and Data Protection: How to Reconcile Both Areas from the European Law Perspective”,
Vietnames Journal of Legal Sciences, Vol. 7, No. 2, tr. 39-58, https://intapi.sciendo.com/pdf/10.2478/vjls-2022-0007, truy cập ngày 07/9/2025.
[5] Luciano Floridi (2025),
Đạo đức của trí tuệ nhân tạo – Nguyên tắc, thách thức và cơ hội (Lê Thị Thùy Linh & Vũ Thanh Vân, Dịch & Hiệu đính), Nxb. Chính trị quốc gia Sự thật, tr. 58.
[6] OECD (2024), “Explanatory memorandum on the updated oecd definition of an AI system”,
OECD Artificial
[7] OECD (2024), tlđd
(6).
[8] Điều 3(1) Luật AI của Liên minh châu Âu.
[9] Goodfellow, I., Bengio, Y., Courville, A., & Bengio, Y. (2016),
Deep learning, Vol. 1, No. 2,
Cambridge: MIT press.
[10] OECD (2024), tlđd
(6).
[11] Mariami Giorgadze (2024), “Legal Regulation of Artificial Intelligence Systems and Challenges related to Personal Data Protection”,
Journal of Personal Data Protection Law, No. 2, tr. 93.
[12] Andrew J. Hawkins, “Tesla’s Autopilot and Full Self-Driving linked to hun-dreds of crashes, dozens of deaths”, https://www.theverge.com/2024/4/26/24141361/tesla-au-topilot-fsd-nhtsa-investigation-report-crash-death, truy cập ngày 26/05/2025.
[13] Goodfellow, I., Bengio, Y., Courville, A., & Bengio, Y. (2016), tlđd
(9).
[14] Brian Judge, Mark Nitzberg, Stuart Russell (2025), “When code isn’t law: rethinking regulation for artificial intelligence”,
Policy and Society, Volume 44, Issue 1, tr. 85-97,
https://doi.org/10.1093/polsoc/puae020, truy cập ngày 04/10/2025.
[17] Chu Thị Hoa - Tào Nam Khánh, “Trí tuệ nhân tạo – Xu thế lập pháp ở Trung Quốc và bài học kinh nghiệm cho Việt Nam”,
Tạp chí Nghề Luật, số 05/2025, tr. 66-67.
[20] Allen, J. G., Loo, J., & Campoverde, J. L. L. (2025), “Governing intelligence: Singapore’s evolving AI governance framework”,
Cambridge Forum on AI: Law and Governance,
1, e12, truy cập tại địa chỉ: doi:10.1017/cfl.2024.12, truy cập ngày 10/10/2025.
[21] Allen, J. G., Loo, J., & Campoverde, J. L. L. (2025), tlđd
(20), tr. 02.
[22] Fitriyah, A., & Abdulovna, D. D. (2024), “EU’s AI Regulation Approaches and Their Implication for Human Rights”,
Media Iuris, 7(3), tr. 427,
https://doi.org/10.20473/mi.v7i3.62050, truy cập ngày 10/10/2025.
[23] AI tạo sinh (Generative AI) là một loại trí tuệ nhân tạo có thể tạo ra nhiều loại dữ liệu, chẳng hạn như hình ảnh, video, âm thanh, văn bản và mô hình 3D. AI tạo sinh thực hiện điều này bằng cách học các mẫu từ dữ liệu có sẵn, sau đó sử dụng kiến thức này để tạo ra các đầu ra mới và duy nhất. Generative AI có khả năng bắt chước sự sáng tạo của con người để tạo ra các nội dung phức tạp và thực tế cao, khiến nó trở thành một công cụ có giá trị cho nhiều ngành như trò chơi, giải trí và thiết kế sản phẩm. Một số AI tạo sinh có thể kể đến như ChatGPT, Gemini, Grok, Copilot...
[24] Martin Ebers (2025), “Truly Risk-based Regulation of Artificial Intelligence: How to Implement the EU’s AI Act”,
European Journal of Risk Regulation, Vo. 16, Cambridge University Press, tr. 695.
[25] Thibault Schrepel (2023), “Decoding the AI Act: A Critical Guide for Competition Experts”,
ALTI Working Paper, No. 03/2023, Amsterdam Law & Technology Institute.
[26] Martin Ebers (2025), tlđd
(24), tr. 685.
[27] Thibault Schrepel (2023), tlđd
(25).
[28] Zach Meyers (2025), “Better Regulation and the EU’s Artificial Intelligence Act”,
Intereconomics, Vol. 60, N0. 3, tr. 149-153.
[30] Martin Ebers (2025), tlđd
(24), tr. 690.
[31] Roberts, Huw, Babuta, Alexander, Morley, Jessica, Thomas, Christopher, Taddeo, Mariarosaria and Floridi, Luciano (2023), “Artificial intelligence regulation in the United Kingdom: a path to good governance and global leadership?”,
Internet Policy Review, Vol. 12, Issue 2.
[33] IAPP, “Apropose UK AI regulation bill receives second reading in house of lord”, https://iapp.org/news/a/proposed-uk-ai-regulation-bill-receives-second-reading-in-house-of-lords, truy cập ngày ngày 28/9/2025.
[34] Lê Xuân Tùng - Trần Thị Thu Ngân, “Kinh nghiệm của Vương Quốc Anh trong xây dựng pháp luật điều chỉnh trí tuệ nhân tạo và một số giá trị tham khảo cho Việt Nam”,
Tạp chí Dân chủ và Pháp luật, kỳ 2(429) – tháng 5/2025, tr. 51.
[35] Roberts, Huw, Babuta, Alexander, Morley, Jessica, Thomas, Christopher, Taddeo, Mariarosaria and Floridi, Luciano (2023), tlđd
(31).
[38] Điều 2 Luật Thúc đẩy AI quy định “công nghệ liên quan đến trí tuệ nhân tạo” được hiểu là các công nghệ cần thiết nhằm tái tạo hoặc thay thế các năng lực trí tuệ của con người – bao gồm nhận thức, suy luận và phán đoán – thông qua các phương pháp nhân tạo, cũng như các công nghệ liên quan đến hệ thống xử lý thông tin được thiết kế để thực hiện việc xử lý dữ liệu đầu vào bằng cách sử dụng các công nghệ nói trên và tạo ra kết quả đầu ra tương ứng. Xem thêm Luật Thúc đẩy AI tại: https://laws.e-gov.go.jp/law/507AC0000000053.
[39] Dominic Paulger (2025), tlđd
(36).
[40] Dominic Paulger (2025), tlđd
(36).
[41] Mục 6 Hướng dẫn một số nguyên tắc về nghiên cứu, phát triển các hệ thống trí tuệ nhân tạo có trách nhiệm (phiên bản 1.0) được ban hành kèm theo Quyết định số 1290/QĐ-BKHCN.
[42] Nguyễn Thị Hảo - Nguyễn Văn Trọng (2025), “Quản lý nhà nước về phát triển và ứng dụng trí tuệ nhân tạo tại Việt Nam hiện nay”,
Tạp chí Quản lý Nhà nước, Học viện Hành chính và Quản trị công.