Chủ nhật 14/12/2025 07:38
Email: danchuphapluat@moj.gov.vn
Hotline: 024.627.397.37 - 024.62.739.735

Rủi ro trong ứng dụng trí tuệ nhân tạo vào công tác xây dựng pháp luật - kinh nghiệm quốc tế và đề xuất cho Việt Nam

Tóm tắt: Ứng dụng trí tuệ nhân tạo mang lại những lợi ích to lớn, trở thành xu thế tất yếu của nhiều quốc gia, các ngành, lĩnh vực, trong đó có công tác xây dựng pháp luật. Tuy nhiên, bên cạnh những mặt tích cực, ứng dụng trí tuệ nhân tạo cũng tiềm ẩn nhiều rủi ro phát sinh. Bài viết phân tích các rủi ro và các hệ quả pháp lý có thể phát sinh khi ứng dụng trí tuệ nhân tạo trong xây dựng pháp luật. Trên cơ sở làm rõ mối quan hệ giữa quản trị rủi ro và trách nhiệm pháp lý, tham chiếu kinh nghiệm của Liên minh châu Âu, Hàn Quốc, bài viết đề xuất một số giải pháp cho Việt Nam để thiết lập cơ chế kiểm soát, phòng ngừa rủi ro và xác lập cơ chế trách nhiệm rõ ràng giữa các chủ thể khi ứng dụng trí tuệ nhân tạo trong xây dựng pháp luật bảo đảm an toàn, minh bạch, có trách nhiệm.

Từ khóa: trí tuệ nhân tạo; trách nhiệm pháp lý; xây dựng pháp luật; quản trị rủi ro; chính sách công; AI Act; AI Basic Act.

Đặt vấn đề

Sự phát triển nhanh chóng của trí tuệ nhân tạo (AI) đang tác động sâu rộng đến nhiều lĩnh vực của đời sống xã hội, trong đó có hoạt động xây dựng pháp luật, một lĩnh vực đòi hỏi độ chính xác, chặt chẽ và trách nhiệm giải trình cao. Ứng dụng AI trong xây dựng pháp luật đang trở thành xu hướng tại nhiều quốc gia trên thế giới.

Tuy nhiên, việc sử dụng AI trong xây dựng pháp luật cũng đặt ra những thách thức mới, đặc biệt, về trách nhiệm khi xảy ra sai sót, vi phạm hoặc hậu quả không mong muốn trong. Nghiên cứu này tập trung làm rõ về trách nhiệm ứng dụng AI trong hoạt động xây dựng pháp luật. Thông qua phân tích các rủi ro có thể phát sinh, tham chiếu pháp luật điều chỉnh của một số quốc gia trên thế giới, bài viết đề xuất một số định hướng xây dựng, hoàn thiện chính sách, pháp luật phù hợp với bối cảnh của Việt Nam trong giai đoạn hiện nay.

1. Xác lập trách nhiệm khi ứng dụng trí tuệ nhân tạo vào xây dựng pháp luật

Trong những năm gần đây, việc ứng dụng AI vào hoạt động xây dựng pháp luật đã được nhiều quốc gia chú trọng triển khai, đặc biệt, trong các công đoạn có tính kỹ thuật cao như rà soát văn bản quy phạm pháp luật, phát hiện mâu thuẫn nội dung giữa các điều khoản, hỗ trợ soạn thảo dự thảo văn bản, phân tích tác động chính sách hoặc đánh giá sự phù hợp với hệ thống pháp luật hiện hành… Bên cạnh đó, AI không chỉ giúp xử lý khối lượng dữ liệu lớn mà còn có thể cung cấp các đề xuất gợi ý nhằm tăng tính hợp lý và hiệu quả cho quá trình xây dựng pháp luật. Việt Nam bước đầu đã ứng dụng AI trong công tác rà soát, kiểm tra văn bản quy phạm pháp luật, tuy nhiên, vẫn đang trong giai đoạn thử nghiệm[1].

Về định hướng chính sách, Việt Nam đã xác lập rõ quan điểm đẩy mạnh ứng dụng AI vào hoạt động quản lý nhà nước như tập trung ưu tiên phát triển các thế hệ mới của ngành công nghiệp công nghệ thông tin và viễn thông; phổ cập công nghệ kỹ thuật số, tự động hóa[2]. Khung chính sách về AI từng bước được hình thành thông qua các văn bản định hướng của Đảng và Nhà nước, đặt mục tiêu đưa AI trở thành lĩnh vực công nghệ trọng điểm, tạo nền tảng pháp lý cho nghiên cứu, phát triển và ứng dụng AI một cách an toàn, có trách nhiệm. Theo đó, Chính phủ đã triển khai các chương trình hành động thúc đẩy phát triển AI[3], ban hành Chiến lược quốc gia về AI đến năm 2030[4] và các nguyên tắc về nghiên cứu, phát triển hệ thống AI có trách nhiệm[5], hướng tới mục tiêu xây dựng Việt Nam trở thành trung tâm đổi mới sáng tạo, phát triển giải pháp và ứng dụng AI trong khu vực.

Gần đây, các chủ trương của Đảng về phát triển khoa học, công nghệ, đổi mới sáng tạo và chuyển đổi số tiếp tục nhấn mạnh yêu cầu đẩy mạnh chuyển đổi số, ứng dụng khoa học, công nghệ, đổi mới sáng tạo trong hoạt động của các cơ quan trong toàn hệ thống chính trị; nâng cao hiệu quả quản trị quốc gia, hiệu lực quản lý nhà nước trên các lĩnh vực, bảo đảm quốc phòng và an ninh[6]. Bên cạnh đó, cần tăng cường chuyển đổi số, ứng dụng AI, dữ liệu lớn trong công tác xây dựng và thi hành pháp luật[7]. Ngoài ra, việc ứng dụng và quản lý AI còn được điều chỉnh bởi các quy định pháp luật liên quan như Luật Công nghiệp công nghệ số năm 2025; Luật Khoa học, công nghệ và đổi mới sáng tạo năm 2025, tuy nhiên, hệ thống pháp luật của Việt Nam chưa xây dựng một chế định chuyên biệt về quản trị rủi ro và trách nhiệm pháp lý cho AI.

Như vậy, Việt Nam đã ban hành nhiều văn bản quy phạm pháp luật, thể hiện quyết tâm thúc đẩy ứng dụng khoa học, công nghệ, đổi mới sáng tạo và kiểm soát rủi ro khi sử dụng AI vào các hoạt động quản lý nhà nước, trong đó có lĩnh vực xây dựng pháp luật. Tuy nhiên, hệ thống pháp luật hiện hành chưa hình thành một khuôn khổ đầy đủ và chuyên biệt để điều chỉnh việc ứng dụng AI trong các lĩnh vực của đời sống, đặc biệt, trong hoạt động xây dựng pháp luật.

Khái niệm “trí tuệ nhân tạo” được quy định tại khoản 18 Điều 2 Thông tư số 02/2025/TT-BGDĐT ngày 24/01/2025 của Bộ Giáo dục và Đào tạo quy định Khung năng lực số cho người học, theo đó AI được hiểu là “việc phát triển các hệ thống máy móc có khả năng thực hiện các nhiệm vụ đòi hỏi trí tuệ con người như học tập, suy luận và giải quyết vấn đề”. Tuy nhiên, cách hiểu này chỉ mang tính chất định nghĩa kỹ thuật trong phạm vi Khung năng lực số cho người học, nhằm mục đích hỗ trợ tiếp cận và ứng dụng công nghệ, không phải là khái niệm pháp lý dùng để điều chỉnh quan hệ xã hội phát sinh từ việc phát triển và sử dụng AI.

Để AI được thừa nhận trong quan hệ pháp luật, cần có những quy định mang tính quy phạm ở cấp độ luật xác định cụ thể quyền, nghĩa vụ và trách nhiệm pháp lý của các bên có liên quan. Chính vì vậy, khoản 1 Điều 3 dự thảo Luật Trí tuệ nhân tạo (dự thảo Luật) đã xác định “Trí tuệ nhân tạo là lĩnh vực khoa học và công nghệ nghiên cứu và phát triển các nguyên lý, phương pháp, mô hình và thuật toán mô phỏng, tái tạo hoặc mở rộng năng lực trí tuệ của con người, bao gồm khả năng nhận thức, học tập, suy luận, hiểu ngôn ngữ, giải quyết vấn đề và sáng tạo”[8]. Mặc dù, khái niệm “trí tuệ nhân tạo” đã được đề cập trong dự thảo Luật nhưng chưa được thông qua. Vì thế, hiện, Việt Nam chưa có khái niệm AI ở cấp độ luật để làm cơ sở xây dựng các quy định ràng buộc về trách nhiệm của các bên liên quan hoặc của hệ thống AI trong hoạt động công vụ. Điều này xuất phát từ nhiều nguyên nhân:

Thứ nhất, AI là một công nghệ mới, có tốc độ phát triển nhanh trong khi đó của hệ thống pháp luật chưa theo kịp để điều chỉnh làm cho việc ban hành các văn bản pháp luật gặp nhiều khó khăn. Các thuật toán học máy, khả năng thích nghi và tự cập nhật của AI đặt ra thách thức lớn đối với việc xác lập khung pháp lý mang tính dự báo và kiểm soát bền vững. Môi trường pháp lý và quy định cho AI tại Việt Nam đang trong quá trình hoàn thiện. Mặc dù Bộ Khoa học và Công nghệ đã ban hành Hướng dẫn một số nguyên tắc về nghiên cứu, phát triển các hệ thống trí tuệ nhân tạo có trách nhiệm (phiên bản 1.0)[9], tuy nhiên, vẫn mang tính định hướng kỹ thuật, chưa xử lý đầy đủ các vấn đề pháp lý cốt lõi như đạo đức AI, trách nhiệm của các bên có liên quan khi sử dụng AI gây ra hậu quả, hay khả năng lạm dụng công nghệ trong tạo lập tin giả (deep fake), tự động hóa quá mức làm suy giảm vai trò kiểm chứng của con người.

Thứ hai, lĩnh vực pháp luật là lĩnh vực đặc thù, đòi hỏi tính chuẩn mực, chính xác và có hệ thống cao, trong khi đó, khả năng “giải thích” (explainability) của AI hiện còn nhiều hạn chế, dễ gây hoài nghi trong xác định tính hợp lý và hợp pháp của các kết quả mà hệ thống AI đưa ra. Việc tích hợp AI vào quy trình xây dựng pháp luật đòi hỏi không chỉ là vấn đề công nghệ, mà còn là sự thay đổi về tư duy pháp lý, về cấu trúc vận hành và cơ chế trách nhiệm.

Thêm vào đó, AI có thể bị “ảo giác” (hallucinate), tự ngụy tạo thông tin, văn bản hoặc án lệ không tồn tại. Chẳng hạn, năm 2023, hai luật sư ở New York đã nộp bản luận cứ có trích dẫn 06 án lệ hoàn toàn hư cấu do ChatGPT tạo ra và hậu quả bị Tòa án bác bỏ vì vi phạm đạo đức nghề luật[10]. Chính vì thế, Tòa án Tối cao Hoa Kỳ phải lên tiếng cảnh báo về hiện tượng “ảo giác” của AI, sau khi một nghiên cứu cho thấy, các chatbot thông dụng đã ngụy tạo thông tin từ 58% đến 82% khi được hỏi về pháp luật[11]. Vụ việc này cho thấy, nếu để tham gia thực hiện các hoạt động quy định xây dựng pháp luật mà thiếu kiểm tra, có thể dẫn đến kết quả sai, không bảo đảm chất lượng.

Vì vậy, việc Quốc hội thông qua dự thảo Luật để kiểm soát rủi ro và xác định trách nhiệm pháp lý trong phát triển, ứng dụng AI, trong đó có công tác xây dựng pháp luật là hết sức cấp thiết, góp phần hoàn thiện thể chế về vấn đề này.

2. Một số rủi ro tiềm ẩn khi sử dụng trí tuệ nhân tạo trong công tác xây dựng pháp luật

Việc ứng dụng AI vào quy trình xây dựng pháp luật, từ rà soát văn bản đến hỗ trợ soạn thảo, mang lại tiềm năng to lớn nhưng cũng tiềm ẩn các rủi ro có thể dẫn đến hệ quả pháp lý nghiêm trọng. Cụ thể:

Thứ nhất, khi ứng dụng AI vào rà soát, phát hiện mâu thuẫn của văn bản quy phạm pháp luật đưa ra kết quả không chính xác do không hiểu bối cảnh xã hội. Với khả năng xử lý ngôn ngữ tự nhiên trên quy mô lớn, AI có thể so sánh hàng ngàn trang luật để tìm điểm tương đồng hoặc xung đột. Tuy nhiên, do đặc thù ngôn ngữ pháp lý phức tạp và chịu sự chi phối của bối cảnh áp dụng, khả năng AI nhận diện chính xác mâu thuẫn trong hệ thống văn bản pháp luật vẫn còn nhiều hạn chế. Nghiên cứu cho rằng, AI có thể gặp thách thức khi xác định sự trùng lặp hoặc không thống nhất trong hệ thống pháp luật. Nói cách khác, một điều khoản nhìn bề ngoài có vẻ mâu thuẫn nhưng dưới góc độ tiếp cận pháp lý lại có thể được hiểu hài hòa, điều mà thuật toán máy học thuần túy khó có thể hiểu rõ.

Bên cạnh đó, cách tiếp cận mang tính kỹ thuật thuần túy của AI khi rà soát mâu thuẫn có thể dẫn đến đề xuất xử lý văn bản thiếu thận trọng. Chẳng hạn, một hệ thống AI được lập trình để “loại bỏ” các quy phạm trùng lặp có thể đề xuất bãi bỏ một văn bản mà không tính đến chức năng hạn chế hoặc ngoại lệ đặc thù của quy phạm đó. Vì thế, nếu thiếu sự phản biện và tham vấn từ con người, việc rà soát do AI dẫn dắt có thể gây ra hậu quả ngoài ý muốn. Đã có trường hợp xảy ra việc một thuật toán AI phát hiện mâu thuẫn và đề xuất bãi bỏ quy định về “hành động khẳng định”[12] (affirmative action) vì cho rằng trùng lặp, nhưng hệ quả là tước bỏ nền tảng pháp lý bảo vệ quyền bình đẳng, vi phạm nghiêm trọng nguyên tắc không phân biệt đối xử[13]. Rõ ràng, AI thiếu hiểu biết về bối cảnh xã hội có thể đánh đồng mâu thuẫn hình thức với mâu thuẫn nội dung, dẫn đến đề xuất sửa đổi nguy hiểm. Do đó, rủi ro pháp lý ở đây là rất lớn, một thay đổi văn bản dựa trên gợi ý của AI, nếu sai lầm, có thể làm xói mòn những giá trị hay quyền lợi trọng yếu được pháp luật bảo vệ và có thể dẫn đến các thách thức pháp lý và khiếu kiện hành chính.

Thứ hai, khi ứng dụng AI vào kiểm tra hiệu lực của các văn bản, căn cứ và văn bản tham chiếu trong quá trình rà soát văn bản quy phạm pháp luật có thể cho kết quả không chính xác do bị “ảo giác” dữ liệu ảo. Trong quy trình xây dựng pháp luật, việc kiểm tra hiệu lực và tính hợp pháp của các căn cứ ban hành, văn bản tham chiếu là khâu bắt buộc. AI có thể được dùng để tự động đối chiếu xem dự thảo có viện dẫn đúng thẩm quyền ban hành, văn bản hướng dẫn liên quan hay không; đồng thời, kiểm tra các văn bản đó còn hiệu lực hay đã hết hiệu lực, có bị sửa đổi, thay thế gì không. Việc sử dụng AI để thực hiện các công việc này có lợi ích rõ rệt, như tiết kiệm công sức tra cứu, giảm thiểu sai sót do con người bỏ sót văn bản. Tuy nhiên, rủi ro có thể phát sinh khi AI cung cấp thông tin tham chiếu không chính xác. Nguyên nhân là do các mô hình AI hiện nay chủ yếu hoạt động dựa trên xác suất dự đoán và mẫu dữ liệu đã học, nên trong một số trường hợp có thể “tự suy diễn” và tạo ra văn bản pháp luật không tồn tại, nhầm lẫn số hiệu, nhầm lẫn về thẩm quyền ban hành hoặc kết hợp thông tin từ nhiều nguồn khác nhau thành một “văn bản giả”.

Bên cạnh nguy cơ tạo thông tin giả, AI còn dễ mắc lỗi do dữ liệu cũ. Mô hình AI thường được huấn luyện dựa trên tập dữ liệu lớn tại một thời điểm cố định, do đó, khi hệ thống pháp luật thay đổi nhanh mà hệ thống dữ liệu không cập nhật kịp thời sẽ dẫn đến lỗi thời. Vì thế, sử dụng AI không cập nhật để kiểm tra hiệu lực văn bản tham chiếu thì có thể xác nhận sai một văn bản đã bị bãi bỏ mà vẫn còn hiệu lực hoặc ngược lại bỏ sót những sửa đổi, bổ sung mới mới nhất. Điều này đặc biệt nguy hiểm trong bối cảnh pháp luật Việt Nam thường xuyên được sửa đổi, bổ sung.

Trong công tác xây dựng pháp luật, việc tra cứu và viện dẫn căn cứ là khâu bắt buộc. Nếu để việc tra cứu căn cứ pháp lý cho AI thực hiện mà thiếu kiểm tra, hệ thống AI có thể cung cấp thông tin tham chiếu sai về hiệu lực hoặc về thẩm quyền (ví dụ: xác nhận sai một văn bản đã bị bãi bỏ hoặc bỏ sót những sửa đổi mới nhất). Hệ quả pháp lý là văn bản quy phạm mới được xây dựng trên căn cứ không chính xác có thể dẫn đến vi phạm nguyên tắc pháp quyền, thậm chí bị hủy bỏ.

Thứ ba, khi ứng dụng AI vào đánh giá thẩm quyền ban hành và nội dung văn bản quy phạm pháp luật có thể cho kết quả sai. Một bước quan trọng trong quy trình xây dựng pháp luật là đánh giá tính hợp hiến, hợp pháp của dự thảo gồm thẩm quyền ban hành văn bản quy phạm pháp luật và sự phù hợp của nội dung với hệ thống pháp luật hiện hành. Về nguyên tắc, cơ quan nhà nước chỉ được ban hành văn bản quy phạm pháp luật trong giới hạn thẩm quyền do luật định; nội dung văn bản không được trái với Hiến pháp. Các công cụ AI tiên tiến có triển vọng hỗ trợ nhiệm vụ này bằng cách tự động đối chiếu nội dung dự thảo với Hiến pháp, pháp luật có liên quan hay không. Trong hoạt động này, rủi ro có thể xảy ra nếu để AI thực hiện mà không có sự giám sát, kiểm tra chặt chẽ, rủi ro pháp lý tiềm ẩn rất lớn nếu phó thác cho AI việc “gác cửa” tính hợp hiến, hợp pháp của văn bản.

Trước hết, AI thực hiện dựa trên xác suất và dữ liệu quá khứ có thể không nhận ra sự tinh tế khi một quy định cấp bộ, ngành “lách luật” so với văn bản cấp cao hơn. Ngược lại, AI cũng có thể hiểu sai và “báo động” giả rằng, dự thảo trái luật vì không phân biệt được sự khác nhau về ngôn từ so với “luật gốc” có thể chỉ là để cụ thể hóa. Điều này bắt nguồn từ việc AI thiếu khả năng diễn giải mục đích luật và thiếu suy luận pháp lý mà chỉ các nhà làm luật được đào tạo bài bản mới có. Sai sót của AI về thẩm quyền và hệ thống thứ bậc có thể gây nên hệ quả pháp lý làm cho văn bản được ban hành bị hủy bỏ hoặc đình chỉ thi hành do vi phạm nguyên tắc cơ bản của Luật Ban hành văn bản quy phạm pháp luật năm 2025.

Về nội dung văn bản, AI có thể đề xuất những quy định đi ngược các giá trị pháp lý nền tảng do chịu ảnh hưởng từ dữ liệu lịch sử hoặc định kiến xã hội. UNESCO đã cảnh báo AI có thể tạo ra và khuếch đại thiên kiến, dẫn đến phân biệt đối xử, bất bình đẳng, đe dọa đến các quyền con người, tiến bộ xã hội và tiến trình dân chủ[14]. Ví dụ, một AI huấn luyện trên hàng chục năm về luật pháp có thể “học” được đa số các quy định trước đây hạn chế quyền của một nhóm thiểu số nhất định và coi đó như lẽ thường, từ đó gợi ý chính sách tiếp tục gây bất lợi cho nhóm này và mâu thuẫn với định hướng bảo vệ quyền con người hiện nay. Vì vậy, hệ quả pháp lý là AI có thể vô tình dẫn đến quy định trái với nguyên tắc Hiến định về bình đẳng và quyền con người.

Thứ tư, trong bối cảnh Việt Nam hiện nay, mức độ rủi ro khi ứng dụng AI trong công tác xây dựng pháp luật có thể cao hơn rất nhiều so với nhiều quốc gia khác, do đặc điểm của hệ thống pháp luật hiện nay đang trong quá trình hoàn thiện cấu trúc hệ thống pháp luật và điều chỉnh linh hoạt để đáp ứng yêu cầu phát triển nhanh của đất nước. Thực tế thời gian gần đây cho thấy, để kịp thời tháo gỡ các “điểm nghẽn” về thể chế, phục vụ vận hành mô hình chính quyền địa phương hai cấp, nhiều văn bản quy phạm pháp luật đã được ban hành nhằm sửa đổi, điều chỉnh tạm thời các quy định có liên quan. Một số trường hợp, quy định của văn bản cấp dưới lại khác hoặc chưa phù hợp với văn bản cấp trên.

Trong bối cảnh này, nếu áp dụng hệ thống AI một cách thuần túy kỹ thuật, chỉ dựa vào phân tích cú pháp hoặc cấu trúc của văn bản mà không hiểu rõ bối cảnh chính trị, pháp lý và mục tiêu điều chỉnh thì kết quả đánh giá có thể không phản ánh đúng bản chất pháp lý. Vì thế, có thể dẫn đến nguy cơ đánh giá sai tính hợp hiến, hợp pháp, hoặc hiệu lực thi hành của một văn bản; thậm chí có thể đưa ra gợi ý, khuyến nghị làm ảnh hưởng đến tính thống nhất của hệ thống pháp luật quốc gia.

Vì vậy, việc ứng dụng AI trong hoạt động xây dựng pháp luật ở Việt Nam cần được đặt trong khuôn khổ hiểu biết sâu sắc về cơ chế vận hành của hệ thống pháp luật, gồm cả những đặc thù về tính chuyển tiếp, tính linh hoạt và thực tiễn điều hành của Nhà nước. AI chỉ nên đóng vai trò là công cụ hỗ trợ kỹ thuật cho con người, trong khi quyết định pháp lý cuối cùng phải dựa trên nhận định của các chuyên gia pháp luật, các cơ quan có thẩm quyền, nhằm bảo đảm tính hợp hiến, hợp pháp và thống nhất của hệ thống pháp luật quốc gia.

3. Pháp luật của Liên minh châu Âu và Hàn Quốc về quản lý trí tuệ nhân tạo

3.1. Pháp luật của Liên minh châu Âu

Với việc ban hành Đạo luật trí tuệ nhân tạo của Liên minh châu Âu 2024/1689 (AI Act), EU đã tạo ra khuôn khổ pháp lý đầu tiên trên thế giới điều chỉnh toàn diện AI theo nguyên tắc “lấy con người làm trung tâm”[15]. AI Act không chỉ phản ánh cách tiếp cận tiên tiến, linh hoạt, mà còn là mô hình có thể tham khảo cho các quốc gia đang xây dựng thể chế, trong đó có Việt Nam.

Thứ nhất, nguyên tắc phân loại và quản lý theo rủi ro. AI Act chia các hệ thống AI thành bốn mức độ rủi ro[16]: (i) rủi ro không thể chấp nhận (bị cấm tuyệt đối như hệ thống giám sát diện rộng không minh bạch); (ii) rủi ro cao (phải tuân thủ hàng loạt nghĩa vụ kỹ thuật và pháp lý như AI trong giao thông, tư pháp, y tế, giáo dục…); (iii) rủi ro có thể kiểm soát được (yêu cầu minh bạch như chatbot hoặc deepfake); (iv) rủi ro tối thiểu (không chịu sự can thiệp đặc biệt). Cách tiếp cận này cho phép cân bằng giữa kiểm soát rủi ro và khuyến khích sáng tạo.

Thứ hai, AI Act quy định nghĩa vụ pháp lý rõ ràng đối với từng chủ thể trong chuỗi phát triển và vận hành AI[17]. Các nhà phát triển phải thiết lập hệ thống bảo đảm chất lượng dữ liệu, minh bạch thuật toán, có khả năng giám sát của con người, và lưu trữ hồ sơ kỹ thuật. Người triển khai có trách nhiệm sử dụng hệ thống đúng mục đích, báo cáo sự cố và bảo đảm hệ thống AI không gây nguy cơ vượt kiểm soát.

Thứ ba, quyền con người và tính minh bạch[18] được đặt ở vị trí trung tâm. Người dân có quyền được biết khi họ tương tác với AI. Trong một số trường hợp, con người có quyền được yêu cầu xem xét lại quyết định do AI đưa ra.

Thứ tư, AI Act thiết lập cơ chế thực thi và chế tài nghiêm minh, bao gồm cả cơ quan giám sát độc lập cấp EU và các mức phạt hành chính lên tới 35 triệu EUR hoặc 7% doanh thu toàn cầu nếu vi phạm[19].

Thứ năm, AI Act khuyến khích đổi mới có trách nhiệm thông qua thử nghiệm có kiểm soát (Sandbox)[20], nơi các công nghệ AI mới có thể được thử nghiệm trong điều kiện kiểm soát chặt chẽ. Mô hình này vừa giúp sàng lọc rủi ro vừa tạo điều kiện để thúc đẩy phát triển.

3.2. Pháp luật của Hàn Quốc

Đạo luật Khung về phát triển trí tuệ nhân tạo của Hàn Quốc (Basic Act on the Development of Artificial Intelligence and Establishment of Trust) (AI Basic Act), được Quốc hội Hàn Quốc thông qua ngày 26/12/2024 là đạo luật đầu tiên tại châu Á điều chỉnh toàn diện hoạt động phát triển, ứng dụng và quản trị AI. Đạo luật gồm 06 chương, 47 điều, thiết lập nền tảng pháp lý cho việc phát triển và sử dụng AI “theo cách tôn trọng nhân phẩm con người, thúc đẩy lợi ích công và bảo đảm an toàn, độ tin cậy” (Điều 3)[21].

Thứ nhất, AI Basic Act xác định rõ phạm vi, khái niệm và các nguyên tắc nền tảng điều chỉnh hoạt động AI. AI Basic Act định nghĩa “trí tuệ nhân tạo” là “một hệ thống học tập, suy luận, phán đoán tương tự trí tuệ con người, hoặc tự động thực hiện nhiệm vụ dựa trên dữ liệu và thuật toán”. Theo đó, khái niệm High-Impact Artificial Intelligence (AI có tác động cao) được hiểu là những hệ thống có khả năng ảnh hưởng đến tính mạng, sự an toàn hoặc quyền cơ bản của công dân (ví dụ: trong các lĩnh vực như y tế, giao thông, quyết định hành chính) và chính khái niệm này là cơ sở để xác định phạm vi áp dụng các nghĩa vụ kiểm soát rủi ro đặc biệt. Quy định về nguyên tắc phát triển và sử dụng trí tuệ nhân tạo trong AI Basic Act thể hiện định hướng “AI vì con người”, tương đồng với Khuyến nghị về Đạo đức Trí tuệ nhân tạo (Recommendation on the Ethics of Artificial Intelligence) do UNESCO thông qua năm 2021.

Thứ hai, Đạo luật lựa chọn cách tiếp cận quản lý AI theo rủi ro (risk-based regulation). AI Basic Act quy định doanh nghiệp, tổ chức hoặc cá nhân phát triển, cung cấp hệ thống AI có thể yêu cầu Bộ Khoa học và Công nghệ thông tin Hàn Quốc (MSIT) xác nhận xem hệ thống của họ có thuộc loại “AI có tác động cao” hay không; đồng thời, yêu cầu các chủ thể phát triển hoặc sử dụng “AI có tác động cao” cần phải thực hiện đánh giá tác động (impact assessment) trước khi vận hành nhằm phòng ngừa hoặc giảm thiểu rủi ro cho tính mạng, tài sản và quyền cơ bản của công dân. Như vậy, nghĩa vụ pháp lý được phân tầng theo mức độ rủi ro của hệ thống, tương tự như mô hình mà EU áp dụng trong AI Act 2024. Cơ chế này phản ánh nguyên tắc “phòng ngừa từ gốc” (preventive regulation) và coi quản trị rủi ro là trọng tâm của phát triển AI.

Thứ ba, Đạo luật quy định hệ thống nghĩa vụ minh bạch, giám sát và quản lý an toàn đối với các nhà cung cấp AI. AI Basic Act đặt ra yêu cầu thông báo cho người dùng khi sản phẩm hoặc dịch vụ được cung cấp bởi hệ thống “AI có tác động cao” hoặc AI sinh nội dung (generative AI). AI Basic Act quy định nghĩa vụ lập kế hoạch quản lý rủi ro (risk management plan), bảo đảm giám sát của con người (human oversight), giải thích đầu ra khi có thể và lưu trữ hồ sơ để chứng minh việc tuân thủ. Các điều khoản này tạo cơ sở cho nguyên tắc “con người trong vòng lặp” (human-in-the-loop[22]), bảo đảm con người vẫn giữ vai trò chủ thể chịu trách nhiệm cuối cùng trong mọi hoạt động do AI hỗ trợ. Đối với lĩnh vực xây dựng pháp luật, nơi các hệ thống AI có thể được sử dụng trong soạn thảo, phân tích chính sách hoặc đánh giá tác động. Cơ chế này có ý nghĩa đặc biệt quan trọng nhằm duy trì tính minh bạch, khả năng truy xuất và trách nhiệm giải trình.

Thứ tư, Đạo luật đề cao chuẩn hóa công nghệ và phát triển dữ liệu huấn luyện đáng tin cậy. AI Basic Act quy định Chính phủ Hàn Quốc “phải xây dựng và thực thi chính sách chuẩn hóa công nghệ AI để bảo đảm tính tương tác, độ tin cậy và an toàn”, bên cạnh đó còn quy định việc “xây dựng và thực hiện chính sách về tạo lập, sử dụng và quản lý dữ liệu học của AI”. Đây là hai nội dung có vai trò nền tảng, giúp giảm thiểu thiên lệch thuật toán (algorithmic bias) và bảo đảm chất lượng dữ liệu, đặc biệt khi AI được triển khai trong lĩnh vực nhạy cảm như hoạch định chính sách hay soạn thảo pháp luật. Theo Bộ Thương mại Hoa Kỳ, Hàn Quốc là quốc gia tiên phong trong việc kết nối chính sách dữ liệu quốc gia với tiêu chuẩn kỹ thuật của AI, tạo nên “nền hạ tầng dữ liệu đáng tin cậy phục vụ quản lý nhà nước và đổi mới công nghệ”[23].

Thứ năm, Đạo luật quy định việc xây dựng Kế hoạch cơ bản quốc gia về phát triển trí tuệ nhân tạo (National Basic Plan on AI Development), được điều phối bởi Ủy ban Trí tuệ Nhân tạo Quốc gia (National AI Committee) do Tổng thống đứng đầu. Bên cạnh đó, AI Basic Act thành lập Viện Nghiên cứu An toàn Trí tuệ nhân tạo (AI Safety Research Institute) để thực hiện kiểm định, ban hành hướng dẫn và tiêu chuẩn kỹ thuật. Cơ chế này tạo nên một tháp điều khiển (control tower) quốc gia, bảo đảm sự thống nhất giữa chính sách phát triển và kiểm soát rủi ro. Mô hình này giúp Hàn Quốc duy trì sự cân bằng giữa đổi mới và kiểm soát rủi ro trong các lĩnh vực nhạy cảm, trong đó có quản trị công[24].

Từ những quy định nêu trên có thể rút ra rằng, AI Basic Act của Hàn Quốc xây dựng một mô hình quản trị AI dựa trên ba trụ cột: (i) phân loại và kiểm soát rủi ro, (ii) chuẩn hóa công nghệ, dữ liệu, tiêu chuẩn đạo đức; (iii) điều phối tập trung dưới sự giám sát của Chính phủ.

4. Một số đề xuất nhằm hoàn thiện khuôn khổ quản trị rủi ro về ứng dụng trí tuệ nhân tạo trong lĩnh vực xây dựng pháp luật cho Việt Nam

Mặc dù pháp luật Việt Nam chưa có quy định cụ thể về quản trị rủi ro trong các hoạt động có sử dụng AI nhưng dự thảo Luật đã phân mức độ rủi ro thành bốn mức độ như AI Act. Tuy nhiên, dự thảo Luật không quy định cụ thể việc sử dụng AI trong công tác xây dựng pháp luật. Vì vậy, sau khi dự thảo Luật được Quốc hội thông qua, Chính phủ cần ban hành văn bản quy định chi tiết và hướng dẫn thi hành về việc sử dụng AI trong công tác xây dựng pháp luật.

Trên cơ sở tham khảo các nguyên tắc điều chỉnh của AI Act và AI Basic Act, nghiên cứu đề xuất xây dựng cơ chế quản trị rủi ro song song với cơ chế trách nhiệm pháp lý, từ đó hạn chế tối đa các rủi ro đã được phân tích trong việc ứng dụng AI vào công tác xây dựng pháp luật. Cụ thể:

Thứ nhất, cơ chế kiểm soát và phòng ngừa rủi ro nhằm ngăn chặn các rủi ro kỹ thuật phát sinh trong quy trình xây dựng pháp luật.

- Cần phân loại mức độ rủi ro của các hệ thống AI sử dụng trong quy trình xây dựng pháp luật. Những hệ thống hỗ trợ hoạt động có ảnh hưởng trực tiếp đến nội dung chính sách, ví dụ: AI phát hiện mâu thuẫn chồng chéo, đánh giá tác động chính sách, gợi ý soạn thảo văn bản quy phạm pháp luật… nên được xác định là AI rủi ro cao. Đối với các hệ thống này, cần áp dụng các yêu cầu bắt buộc về: (i) đánh giá tác động trước khi triển khai; (ii) lưu giữ nhật ký hoạt động để truy xuất nguồn gốc; (iii) có cơ chế giám sát thường xuyên bởi con người; (iv) chịu kiểm định độc lập bởi cơ quan có thẩm quyền.

- Cần thiết lập cơ chế thử nghiệm có kiểm soát (regulatory sandbox) đối với các hệ thống AI hỗ trợ công tác xây dựng pháp luật. Cơ chế sandbox cần quy định rõ phạm vi, thời gian thử nghiệm, cơ chế báo cáo và đánh giá định kỳ, đồng thời chỉ cho phép thử nghiệm với điều kiện có sự đồng hành, giám sát của cơ quan có thẩm quyền. Điều này vừa thúc đẩy đổi mới có trách nhiệm, vừa kiểm soát chặt chẽ các rủi ro thể chế có thể phát sinh.

- Cần ban hành bộ tiêu chuẩn kỹ thuật quốc gia cho hệ thống AI áp dụng trong các lĩnh vực quản lý nhà nước, đặc biệt là công tác xây dựng pháp luật. Tiêu chuẩn này nên gồm các yêu cầu về khả năng giải thích, khả năng truy vết, kiểm định an toàn. Bên cạnh đó, cần nâng cao năng lực chuyên môn cho đội ngũ cán bộ làm công tác xây dựng pháp luật về sử dụng công nghệ nhằm bảo đảm giám sát chặt chẽ quá trình tích hợp AI trong xây dựng chính sách pháp luật.

Thứ hai, cơ chế xác lập trách nhiệm pháp lý. Cơ chế này nhằm xây dựng khuôn khổ giải trình và xử lý hậu quả khi các biện pháp phòng ngừa không ngăn chặn được sai sót và hệ quả pháp lý đã phát sinh.

- Xây dựng văn bản hướng dẫn thi hành luật chuyên biệt về quản lý và ứng dụng AI trong lĩnh vực xây dựng pháp luật hoặc có thể xem xét quy định một chương riêng về “Trách nhiệm khi ứng dụng trí tuệ nhân tạo trong công tác xây dựng pháp luật” trong Luật Ban hành văn bản quy phạm pháp luật năm 2025 với nguyên tắc nền tảng là AI chỉ đóng vai trò hỗ trợ, không thay thế quyết định của con người.

- Làm rõ chủ thể chịu trách nhiệm cuối cùng trong các quyết định có sự tham gia của AI. Mọi sai sót, dù bắt nguồn từ hệ thống kỹ thuật, vẫn phải gắn với trách nhiệm pháp lý của tổ chức hoặc cá nhân sử dụng AI trong hoạt động công vụ. Điều này bảo đảm nguyên tắc “trách nhiệm không thể chuyển giao cho máy móc” trong lĩnh vực quyền lực nhà nước.

- Xây dựng cơ chế trách nhiệm liên đới giữa bên phát triển AI và bên sử dụng AI trong lĩnh vực lập pháp. Khi AI đưa ra khuyến nghị sai dẫn đến hậu quả pháp lý nghiêm trọng, cả hai bên đều liên đới chịu trách nhiệm, một bên về lỗi kỹ thuật, một bên về lỗi quản trị và giám sát.

- Đối với các hệ thống AI có khả năng gây thiệt hại lớn trong lĩnh vực pháp luật (ví dụ: sai sót dẫn đến văn bản trái Hiến pháp, xâm phạm quyền con người…), cần áp dụng nguyên tắc trách nhiệm nghiêm ngặt (strict liability). Theo đó, tổ chức sử dụng AI có thể bị buộc bồi thường thiệt hại dù không có lỗi chủ quan nếu không chứng minh được rằng đã thực hiện đầy đủ nghĩa vụ giám sát và phòng ngừa rủi ro.

Kết luận

Ứng dụng AI trong công tác xây dựng pháp luật là xu thế tất yếu, song đòi hỏi phải được xây dựng trên một nền tảng pháp lý vững chắc. Nghiên cứu phân tích các rủi ro có thể xảy ra khi ứng dụng AI trong xây dựng văn bản pháp luật.

Kinh nghiệm quốc tế từ EU và Hàn Quốc đã cung cấp mô hình quản trị AI dựa trên rủi ro, tập trung vào việc phân loại AI và thiết lập nghĩa vụ phòng ngừa kỹ thuật. Đối với Việt Nam, cần sớm thông qua dự thảo Luật và áp dụng một khuôn khổ chính sách kép nhằm: (i) thiết lập cơ chế quản trị rủi ro và phòng ngừa (như phân loại AI rủi ro, chuẩn hóa kỹ thuật, áp dụng sandbox) để giải quyết các rủi ro kỹ thuật; (ii) xây dựng cơ chế trách nhiệm pháp lý (làm rõ chủ thể chịu trách nhiệm, áp dụng trách nhiệm liên đới và trách nhiệm nghiêm ngặt) để bảo đảm tính giải trình khi có sự cố. Đây không chỉ là yêu cầu kỹ thuật, mà còn là bước đi chiến lược để xây dựng hệ thống pháp luật hiện đại, nhân văn, duy trì được nguyên tắc pháp quyền và thích ứng linh hoạt trong thời đại trí tuệ nhân tạo./.

ThS. Nguyễn Hoàng Trung

Tạp chí Dân chủ và Pháp luật, Bộ Tư pháp

ThS. Đoàn Thành Tiến

Trung tâm Đăng ký giao dịch tài sản tại thành phố Hà Nội, Cục Đăng ký giao dịch bảo đảm và Bồi thường nhà nước, Bộ Tư pháp

Ảnh: internet

[1]. Diệu Anh, Ứng dụng trí tuệ nhân tạo vào rà soát văn bản quy phạm pháp luật, https://baochinhphu.vn/ung-dung-tri-tue-nhan-tao-vao-ra-soat-van-ban-quy-pham-phap-luat-102250318143538084.htm, truy cập ngày 03/11/2025.

[2]. Nghị quyết số 23-NQ/TW ngày 22/3/2018 của Bộ Chính trị về định hướng xây dựng chính sách phát triển công nghiệp quốc gia đến năm 2030, tầm nhìn đến năm 2045; Nghị quyết số 52-NQ/TW ngày 27/9/2019 của Bộ Chính trị về một số chủ trương, chính sách chủ động tham gia cuộc Cách mạng công nghiệp lần thứ tư.

[3]. Nghị quyết số 50/NQ-CP ngày 17/4/2020 của Chính phủ ban hành Chương trình hành động của Chính phủ thực hiện Nghị quyết số 52-NQ/TW ngày 27/9/2019 của Bộ Chính trị về một số chủ trương, chính sách chủ động tham gia cuộc Cách mạng công nghiệp lần thứ tư.

[4]. Quyết định số 127/QĐ-TTg ngày 26/01/2021 của Thủ tướng Chính phủ ban hành Chiến lược quốc gia về nghiên cứu, phát triển và ứng dụng trí tuệ nhân tạo đến năm 2030.

[5]. Quyết định số 1290/QĐ-BKHCN ngày 11/6/2024 của Bộ trưởng Bộ Khoa học và Công nghệ ban hành Hướng dẫn một số nguyên tắc về nghiên cứu, phát triển các hệ thống trí tuệ nhân tạo có trách nhiệm (phiên bản 1.0).

[6]. Nghị quyết số 57-NQ/TW ngày 22/12/2024 của Bộ Chính trị về đột phá phát triển khoa học, công nghệ, đổi mới sáng tạo và chuyển đổi số quốc gia.

[7]. Nghị quyết số 66-NQ/TW ngày 30/4/2025 về đổi mới công tác xây dựng và thi hành pháp luật đáp ứng yêu cầu phát triển đất nước trong kỷ nguyên mới.

[8]. Dự thảo Luật Trí tuệ nhân tạo, https://duthaoonline.quochoi.vn/dt/luat-tri-tue-nhan-tao/251009091536864496.

[9]. Quyết định số 1290/QĐ-BKHCN ngày 11/06/2024 của Bộ trưởng Bộ Khoa học và Công nghệ, truy cập ngày 03/11/2025.

[10]. Sara Merken, New York lawyers sanctioned for using fake ChatGPT cases in legal brief, https://www.reuters.com/legal/new-york-lawyers-sanctioned-using-fake-chatgpt-cases-legal-brief-2023-06-22/, truy cập ngày 03/11/2025.

[11]. Faiz Surani & Daniel E. Ho, A new study reveals the need for benchmarking and public evaluations of AI tools in law, https://hai.stanford.edu/news/ai-trial-legal-models-hallucinate-1-out-6-or-more-benchmarking-queries, truy cập ngày 03/11/2025.

[12]. Hành động khẳng định (Affirmative Action) tại Hợp chủng quốc Hoa Kỳ là một nỗ lực chủ động nhằm nâng cao cơ hội về tuyển dụng việc làm hoặc giáo dục cho các thành viên của nhóm thiểu số và phụ nữ. Hành động khẳng định được hình thành như một biện pháp khắc phục của chính phủ đối với các hệ quả của tình trạng phân biệt đối xử kéo dài đối với các nhóm này, và đã bao gồm các chính sách, chương trình và quy trình cung cấp ưu tiên có giới hạn (limited preferences) cho các nhóm thiểu số và phụ nữ trong việc tuyển dụng công việc, tuyển sinh vào các cơ sở giáo dục đại học, việc trao hợp đồng của Chính phủ, và các phúc lợi xã hội khác. Các tiêu chí điển hình để áp dụng hành động khẳng định gồm chủng tộc, khuyết tật, giới tính, nguồn gốc dân tộc và tuổi tác, https://www.britannica.com/topic/affirmative-action, truy cập ngày 03/11/2025.

[13]. Nicoletta Rangone & Luca Megale , tlđd.

[14]. UNESCO (2021), Recommendation on the Ethics of Artificial Intelligence, https://www.unesco.org/en/legal-affairs/recommendation-ethics-artificial-intelligence, truy cập ngày 03/11/2025.

[15]. Nguyên văn Điều 1:“The purpose of this Regulation is to improve the functioning of the internal market and promote the uptake of human-centric and trustworthy artificial intelligence (AI), while ensuring a high level of protection of health, safety, fundamental rights enshrined in the Charter, including democracy, the rule of law and environmental protection, against the harmful effects of AI systems in the Union and supporting innovation”, Regulation (EU) 2024/1689 of the European Parliament and of the Council 2024, https://www.euaiact.com/article/1, truy cập ngày 03/11/2025.

[16]. https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai, truy cập ngày 03/11/2025.

[17]. Từ Điều 16 đến Điều 29 Điều 52 AI Act (2024), European Commision, https://artificialintelligenceact.eu/chapter/3/, truy cập ngày 03/11/2025.

[18]. Điều 52 AI Act (2024), European Commision, https://artificialintelligenceact.eu/article/52/, truy cập ngày 03/11/2025.

[19]. Điều 71 AI Act (2024), European Commision, https://artificialintelligenceact.eu/article/71/, truy cập ngày 03/11/2025.

[20]. Điều 57 AI Act (2024), European Commision, https://artificialintelligenceact.eu/article/57/, truy cập ngày 03/11/2025.

[21]. Basic Act on the Development of Artificial Intelligence and Establishment of Trust (2024), Article 3, bản dịch tiến Anh, CSET – Georgetown University, https://cset.georgetown.edu/wp-content/uploads/t0625_south_korea_ai_law_EN.pdf, truy cập ngày 03/11/2025.

[22]. Human-in-the-loop (HITL) là một phương pháp phát triển trí tuệ nhân tạo (AI) trong đó con người đóng vai trò tương tác lặp đi lặp lại và liên tục trong quá trình đào tạo, giám sát, và cải thiện hệ thống AI, giúp nó trở nên chính xác, đáng tin cậy và an toàn hơn. HITL cho phép con người đóng góp vào các nhiệm vụ phức tạp đòi hỏi sự phán đoán, như chú thích dữ liệu, kiểm tra kết quả, và đưa ra quyết định cuối cùng.

[23]. Trade.gov (2025), South Korea Artificial Intelligence (AI) Basic Act, U.S. Department of Commerce, https://www.trade. gov/market-intelligence/south-korea-artificial-intelligence-ai-basic-act, truy cập ngày 03/11/2025.

[24]. Chambers & Partners (2025), Artificial Intelligence 2025 - South Korea: Trends & Developments, https://practiceguides.chambers.com/practice-guides/artificial-intelligence-2025/south-korea, truy cập ngày 03/11/2025.

TÀI LIỆU THAM KHẢO

1. Basic Act on the Development of Artificial Intelligence and Establishment of Trust (2024), Article 3, bản dịch tiếng Anh, CSET – Georgetown University, https://cset.georgetown.edu/wp-content/uploads/ t0625southkoreaailawEN.pdf, truy cập ngày 03/11/2025.

2. Chambers & Partners (2025), Artificial Intelligence 2025 - South Korea: Trends & Developments, https:// practiceguides.chambers.com/practice-guides/artificialintelligence-2025/south-korea, truy cập ngày 03/11/2025.

3. Debevoise Data Blog (2025), South Korea Enacts New AI Law, https://www.debevoisedatablog.com/2025/03/24/south-korea-enacts-new-ai-law/, truy cập ngày 03/11/2025.

4. Diệu Anh, Ứng dụng trí tuệ nhân tạo vào rà soát văn bản quy phạm pháp luật, https://baochinhphu.vn/ung-dung-tri-tue-nhan-tao-vao-ra-soat-van-ban-quy-pham-phap-luat-102250318143538084.htm, truy cập ngày 03/11/2025.

5. Faiz Surani & Daniel E. Ho, A new study reveals the need for benchmarking and public evaluations of AI tools in law, https://hai.stanford.edu/news/ai-trial-legal-models-hallucinate-1-out-6-or-more-benchmarking-queries, truy cập ngày 03/11/2025.

6. Nathan Sanders & Bruce Schneier, AI is poised to help legislators write more intricate laws, exercising increasing control over the executive, https://www.lawfaremedia.org/article/ai-will-write-complex-laws#:~:text=Artificial%20intelligence%20,process%20of%20drafting%20a%20bill, truy cập ngày 03/11/2025.

7. Nicoletta Rangone & Luca Megale, Risks Without Rights? The EU AI Act’s Approach to AI in Law and Rule-Making, https://www.cambridge.org/core/journals/european-journal-of-risk-regulation/article/risks-without-rights-the-eu-ai-acts-approach-to-ai-in-law-and-rulemaking/3AD4822C291C6591BAFD26524CD44C12, truy cập ngày 03/11/2025.

8. Sara Merken, New York lawyers sanctioned for using fake ChatGPT cases in legal brief, https://www.reuters.com/legal/new-york-lawyers-sanctioned-using-fake-chatgpt-cases-legal-brief-2023-06-22/, truy cập ngày 03/11/2025.

9. Trade.gov (2025), South Korea Artificial Intelligence (AI) Basic Act, U.S. Department of Commerce, https://www.trade.gov/market-intelligence/south-korea-artificial-intelligence-ai-basic-act, truy cập ngày 03/11/2025.

10. UNESCO (2021), Recommendation on the Ethics of Artificial Intelligence, https://www.unesco.org/en/legal-affairs/recommendation-ethics-artificial-intelligence, truy cập ngày 03/11/2025.

(Nguồn: Tạp chí Dân chủ và Pháp luật số Kỳ 2 (441) tháng 11/2025)

Tin bài có thể bạn quan tâm

Một số vướng mắc, bất cập và kiến nghị hoàn thiện pháp luật về sở hữu trí tuệ để thúc đẩy kinh tế tư nhân phát triển

Một số vướng mắc, bất cập và kiến nghị hoàn thiện pháp luật về sở hữu trí tuệ để thúc đẩy kinh tế tư nhân phát triển

Tóm tắt: Trong kinh tế tri thức, tài sản trí tuệ là yếu tố then chốt góp phần quan trọng nâng cao năng lực cạnh tranh và phát triển tư nhân. Bài viết nghiên cứu một số bất cập về pháp luật sở hữu trí tuệ, từ đó, đề xuất kiến nghị nhằm hoàn thiện khung pháp lý và cơ chế thực thi quyền sở hữu trí tuệ, đồng thời, đưa ra giải pháp hỗ trợ doanh nghiệp trong việc khai thác hiệu quả giá trị kinh tế của tài sản trí tuệ, góp phần thúc đẩy đổi mới sáng tạo và nâng cao năng lực cạnh tranh.
Mô hình sandbox thúc đẩy đổi mới công nghệ trong khuôn khổ pháp luật về sở hữu trí tuệ - kinh nghiệm quốc tế và đề xuất cho Việt Nam

Mô hình sandbox thúc đẩy đổi mới công nghệ trong khuôn khổ pháp luật về sở hữu trí tuệ - kinh nghiệm quốc tế và đề xuất cho Việt Nam

Tóm tắt: Trong bối cảnh Cuộc cách mạng công nghiệp lần thứ tư, cơ chế thử nghiệm có kiểm soát (sandbox) ngày càng được quan tâm như một công cụ chính sách quan trọng nhằm thúc đẩy đổi mới sáng tạo và phát triển công nghệ. Tuy nhiên, việc áp dụng sandbox tại Việt Nam đặt ra nhiều thách thức pháp lý, đặc biệt trong lĩnh vực bảo vệ quyền sở hữu trí tuệ đối với các sáng chế, bí mật kinh doanh và các tài sản trí tuệ phát sinh trong giai đoạn thử nghiệm. Bài viết nghiên cứu, phân tích, tổng hợp và so sánh luật học để: (i) làm rõ khái niệm và đặc trưng của mô hình sandbox; (ii) đánh giá thực trạng pháp luật Việt Nam liên quan đến cơ chế này trong mối quan hệ với pháp luật sở hữu trí tuệ; (iii) đối chiếu với kinh nghiệm lập pháp và thực tiễn triển khai tại Vương quốc Anh, Singapore, Kenya và Hàn Quốc. Kết quả nghiên cứu cho thấy, mặc dù sandbox mang lại nhiều cơ hội cho đổi mới sáng tạo, tuy nhiên, hiện, pháp luật Việt Nam còn thiếu quy định cụ thể để bảo vệ đầy đủ quyền sở hữu trí tuệ trong môi trường thử nghiệm. Điều này tiềm ẩn nguy cơ tranh chấp và xung đột lợi ích giữa các chủ thể tham gia. Trên cơ sở đó, nghiên cứu đề xuất xây dựng khuôn khổ pháp lý đồng bộ cho sandbox, trong đó bảo đảm sự cân bằng giữa khuyến khích đổi mới và bảo vệ quyền lợi hợp pháp của các bên liên quan, qua đó, tạo nền tảng pháp lý vững chắc cho phát triển công nghệ bền vững tại Việt Nam.
Quốc hội thông qua Luật Thương mại điện tử: Tạo cơ chế quản lý chặt chẽ các hoạt động thương mại điện tử

Quốc hội thông qua Luật Thương mại điện tử: Tạo cơ chế quản lý chặt chẽ các hoạt động thương mại điện tử

Theo chương trình làm việc tại Kỳ họp thứ 10, Quốc hội khóa XV, sáng ngày 10/12, Quốc hội đã biểu quyết thông qua Luật Thương mại điện tử.
Quốc hội thông qua Luật An ninh mạng

Quốc hội thông qua Luật An ninh mạng

Sáng 10/12, tiếp tục chương trình Kỳ họp thứ 10, dưới sự điều hành của Phó Chủ tịch Quốc hội Trần Quang Phương, Quốc hội thông qua Luật An ninh mạng với đa số đại biểu tán thành (chiếm tỉ lệ 91,75%). Theo đó, Luật có nhiều điểm mới, đã bổ sung quy định về hợp tác quốc tế trong phòng, chống tội phạm mạng, các biện pháp bảo vệ an ninh mạng; bổ sung quy định bảo vệ nhóm yếu thế trên không gian mạng, trẻ em, người cao tuổi và người gặp khó khăn về nhận thức.
Phụ nữ trong thời đại chuyển đổi số và Cách mạng công nghiệp lần thứ tư

Phụ nữ trong thời đại chuyển đổi số và Cách mạng công nghiệp lần thứ tư

Đây là chủ đề của Hội thảo khoa học quốc gia do Học viện Phụ nữ Việt Nam phối hợp với Viện Nhà nước và Pháp luật, Viện Hàn lâm Khoa học xã hội Việt Nam tổ chức ngày 08/12/2025. Tham dự Hội thảo có đại diện các cơ quan, tổ chức cùng các chuyên gia, nhà khoa học.
Bảo hộ quyền tác giả trong kỷ nguyên số - thách thức và giải pháp

Bảo hộ quyền tác giả trong kỷ nguyên số - thách thức và giải pháp

Tóm tắt: Kỷ nguyên số đã và đang tạo nhiều cơ hội để tiếp cận các tác phẩm ngày càng dễ dàng hơn với nhiều phương thức khác nhau. Tuy nhiên, thời đại kỷ nguyên số cũng đặt ra không ít thách thức trong việc bảo hộ quyền tác giả như sự xuất hiện của những loại hình tác phẩm mới, sự ra đời của những tác phẩm do trí tuệ nhân tạo (AI) tạo ra, sự gia tăng nhanh chóng của các hành vi xâm phạm với sự trợ giúp đắc lực của mạng internet cùng các công nghệ mới… Bài viết phân tích những thách thức về bảo hộ quyền tác giả trong kỷ nguyên số, đồng thời đề xuất một số giải pháp cho Việt Nam về vấn đề này.
Thúc đẩy tiến độ hoàn thành các cơ sở dữ liệu và nền tảng số của Bộ Tư pháp

Thúc đẩy tiến độ hoàn thành các cơ sở dữ liệu và nền tảng số của Bộ Tư pháp

Sáng ngày 05/12/2025, Bộ trưởng Bộ Tư pháp Nguyễn Hải Ninh, Trưởng Ban Chỉ đạo của Bộ Tư pháp về phát triển khoa học, công nghệ, đổi mới sáng tạo, chuyển đổi số và Đề án 06 chủ trì cuộc họp giao ban tuần của Ban Chỉ đạo. Cùng dự cuộc họp có Thứ trưởng Bộ Tư pháp Mai Lương Khôi, Phó Trưởng ban Ban Chỉ đạo; Phó Bí thư chuyên trách Đảng ủy Nguyễn Quang Thái, Phó trưởng Ban Chỉ đạo.
Hoàn thiện, thống nhất khung pháp lý về an ninh mạng

Hoàn thiện, thống nhất khung pháp lý về an ninh mạng

Thực hiện ý kiến chỉ đạo của Thủ tướng Chính phủ, Bộ Công an đã xây dựng hồ sơ đề nghị xây dựng Luật An ninh mạng theo quy định của Luật Ban hành văn bản quy phạm pháp luật. Dự thảo Luật gồm 09 chương với 58 điều, đang được thảo luận tại kỳ họp thứ 10 Quốc hội khóa XV; đã có 70 lượt đại biểu phát biểu ý kiến tại tổ (ngày 31/10/2025), 15 lượt đại biểu phát biểu tại hội trường (ngày 06/11/2025) và 05 Đoàn đại biểu Quốc hội gửi ý kiến bằng văn bản.
Đề xuất chuyển đổi số toàn diện trong công tác đăng ký, quản lý hộ tịch

Đề xuất chuyển đổi số toàn diện trong công tác đăng ký, quản lý hộ tịch

Ngày 02/12/2025, Bộ Tư pháp tổ chức Hội đồng thẩm định Hồ sơ chính sách Luật Hộ tịch (sửa đổi) do Thứ trưởng Bộ Tư pháp Phan Chí Hiếu chủ trì. Tham dự phiên họp có các thành viên của Hội đồng thẩm định là đại diện của các cơ quan: Bộ Quốc phòng, Bộ Công an, Bộ Ngoại giao; Bộ Nội vụ; Bộ Tài chính; Bộ Khoa học và Công nghệ; Sở Tư pháp thành phố Hà Nội; Sở Tư pháp tỉnh Bắc Ninh; Ủy ban nhân dân phường Giảng Võ… và đại diện một số cơ quan thuộc Bộ Tư pháp.
Triển khai kịp thời, thống nhất việc rà soát, chuẩn hóa toàn bộ thủ tục hành chính ở 03 cấp chính quyền

Triển khai kịp thời, thống nhất việc rà soát, chuẩn hóa toàn bộ thủ tục hành chính ở 03 cấp chính quyền

Ngày 01/12/2025, Bộ Tư pháp tổ chức Hội nghị toàn quốc hướng dẫn thống kê, rà soát thủ tục hành chính ở 03 cấp chính quyền do Thứ trưởng Bộ Tư pháp Nguyễn Thanh Tịnh chủ trì. Hội nghị được tổ chức theo hình thức trực tiếp kết hợp trực tuyến, kết nối từ điểm cầu chính tại trụ sở Bộ Tư pháp tới 34 điểm cầu của các địa phương trên cả nước.
Cần thiết ban hành Luật An ninh mạng đáp ứng yêu cầu phát triển mới về công nghệ số

Cần thiết ban hành Luật An ninh mạng đáp ứng yêu cầu phát triển mới về công nghệ số

Nhằm thể chế hóa chủ trương, đường lối của Đảng về bảo vệ an ninh quốc gia, phát triển kinh tế số, chuyển đổi số quốc gia, khắc phục sự chồng chéo, mâu thuẫn giữa Luật An toàn thông tin mạng năm 2015 (sửa đổi, bổ sung năm 2018) và Luật An ninh mạng năm 2018, dự án Luật An ninh mạng đã được xây dựng trên cơ sở hợp nhất 02 luật nêu trên và đang được Quốc hội khóa XV xem xét, cho ý kiến tại kỳ họp thứ 10.
Ủy ban nhân dân xã Mê Linh tập huấn ứng dụng “AI Trợ lý Luật Việt Nam” nhằm thúc đẩy chuyển đổi số trong quản lý nhà nước

Ủy ban nhân dân xã Mê Linh tập huấn ứng dụng “AI Trợ lý Luật Việt Nam” nhằm thúc đẩy chuyển đổi số trong quản lý nhà nước

Ngày 29/11/2025, tại Hà Nội, Ủy ban nhân dân xã Mê Linh tổ chức Hội nghị "Tập huấn, hướng dẫn AI Trợ lý Luật Việt Nam cho cán bộ, công chức, viên chức xã Mê Linh”.
Ứng dụng trí tuệ nhân tạo tạo sinh trong đào tạo luật - Cơ hội, thách thức và một số giải pháp

Ứng dụng trí tuệ nhân tạo tạo sinh trong đào tạo luật - Cơ hội, thách thức và một số giải pháp

Tóm tắt: Bài viết phân tích cơ hội và thách thức đặt ra cho hoạt động đào tạo luật trong bối cảnh trí tuệ nhân tạo tạo sinh đang phát triển nhanh và tác động mạnh mẽ đến giáo dục pháp luật. Từ việc nhận diện các yêu cầu đổi mới theo định hướng của Đảng và Nhà nước, nghiên cứu đánh giá tiềm năng ứng dụng của trí tuệ nhân tạo tạo sinh trong đào tạo luật; đồng thời, chỉ ra những rủi ro liên quan như gian lận học thuật, sai lệch thông tin, định kiến thuật toán và các vấn đề đạo đức, pháp lý. Trên cơ sở đó, nghiên cứu đề xuất các giải pháp hoàn thiện khi tích hợp trí tuệ nhân tạo tạo sinh trong đào tạo luật tại Việt Nam.
Rà soát thủ tục hành chính thuộc phạm vi quản lý của Bộ, ngành, địa phương ở ba cấp chính quyền

Rà soát thủ tục hành chính thuộc phạm vi quản lý của Bộ, ngành, địa phương ở ba cấp chính quyền

Ngày 26/11/2025, Bộ Tư pháp tổ chức cuộc họp Tổ công tác liên ngành rà soát, đánh giá thủ tục hành chính trên phạm vi toàn quốc. Bộ trưởng Nguyễn Hải Ninh, Tổ trưởng Tổ công tác liên ngành chủ trì cuộc họp. Thứ trưởng Nguyễn Thanh Tịnh, Tổ phó Tổ công tác liên ngành cùng dự.
Sửa đổi Luật Công chứng tạo thuận lợi cao nhất cho người dân, doanh nghiệp

Sửa đổi Luật Công chứng tạo thuận lợi cao nhất cho người dân, doanh nghiệp

Chiều ngày 26/11/2025, Thứ trưởng Bộ Tư pháp Phan Chí Hiếu chủ trì cuộc họp Tổ soạn thảo dự án Luật sửa đổi, bổ sung một số điều của Luật Công chứng. Tham dự cuộc họp có đại diện Bộ Tài chính, Bộ Nội vụ, Bộ Nông nghiệp và Môi trường, Bộ Công an… và một số đơn vị thuộc Bộ Tư pháp.

Theo dõi chúng tôi trên: