Chủ nhật 14/12/2025 07:38
Email: danchuphapluat@moj.gov.vn
Hotline: 024.627.397.37 - 024.62.739.735

Điều chỉnh pháp luật về trí tuệ nhân tạo - Kinh nghiệm quốc tế và gợi mở cho Việt Nam từ sự xuất hiện của ChatGPT

Tóm tắt: Sự xuất hiện của ChatGPT như một hiện tượng công nghệ gắn liền với sự phát triển của kinh tế dữ liệu và kinh tế tư nhân. Bài viết nghiên cứu, đánh giá và dự báo những nguy cơ mà ChatGPT có thể gây ra đối với Việt Nam, đặc biệt liên quan đến quản lý dữ liệu, an ninh mạng, phát triển nhân lực số và vận hành hạ tầng công nghệ. Đồng thời, bài viết tham khảo kinh nghiệm pháp luật và quản trị ChatGPT tại một số quốc gia như Cộng hòa Liên bang Đức và Hoa Kỳ, từ đó, đưa ra các khuyến nghị chính sách nhằm xây dựng khuôn khổ quản lý phù hợp cho Việt Nam, vừa thúc đẩy đổi mới sáng tạo, vừa bảo đảm an toàn và phát triển bền vững.

Từ khóa: trí tuệ nhân tạo; ChatGPT; kinh tế dữ liệu; quản lý dữ liệu; an ninh mạng.

Abstract: The emergence of ChatGPT as a technological phenomenon is closely linked to the development of the data economy and the private economy. This article studies, evaluates and forecasts the risks that ChatGPT may pose to Vietnam, especially in relation to data management, cybersecurity, digital human resource development and technology infrastructure operations. At the same time, the article refers to the legal and administrative experience of ChatGPT in some countries such as the Federal Republic of Germany and the United States, thereby making policy recommendations to build a suitable management framework for Vietnam, both promoting innovation and ensuring safety and sustainable development.

Keywords: Artificial intelligence; ChatGPT; data economy; data management; cybersecurity.

Đặt vấn đề

Cuộc Cách mạng công nghiệp lần thứ tư, với sự đột phá của trí tuệ nhân tạo (AI) đang làm thay đổi mọi mặt đời sống xã hội và kinh tế. Các mô hình ngôn ngữ lớn như ChatGPT (do OpenAI phát triển) đã tạo ra một công cụ mạnh mẽ, có khả năng tương tác, tạo văn bản và xử lý ngôn ngữ tự nhiên ở mức độ phức tạp chưa từng có. Ứng dụng rộng rãi của ChatGPT trong các lĩnh vực như giáo dục, tài chính, y tế và pháp luật đã bộc lộ những khoảng trống và thách thức pháp lý cấp bách trên phạm vi toàn cầu.

Việc sử dụng các mô hình AI tạo sinh (Generative AI) như ChatGPT đặt ra nhiều vấn đề phức tạp liên quan đến quyền sở hữu trí tuệ đối với dữ liệu huấn luyện và sản phẩm đầu ra, trách nhiệm pháp lý đối với các sai sót hoặc hành vi gây hại do AI gây ra và các yêu cầu về bảo vệ dữ liệu cá nhân, tính minh bạch (transparency) và khả năng giải thích (explainability) của các quyết định do AI hỗ trợ.

Trước những thách thức này, nhiều quốc gia và khu vực đã chủ động xây dựng các khuôn khổ pháp lý điều chỉnh AI, điển hình là Đạo luật AI của Liên minh châu Âu (EU AI Act), nhằm quản lý rủi ro và thiết lập các tiêu chuẩn chung.

Tại Việt Nam, ChatGPT được ứng dụng phổ biến trong các chatbot hỗ trợ khách hàng trực tuyến, dịch vụ tư vấn tự động và hỗ trợ người dùng trong nhiều lĩnh vực như tài chính, y tế, du lịch, giáo dục… Các tổ chức, doanh nghiệp và cá nhân có thể tùy biến công cụ này để đáp ứng các nhu cầu sử dụng cụ thể. Mặc dù bước đầu được triển khai trên thực tế, nhưng hệ thống pháp luật Việt Nam hiện chưa có quy định chuyên biệt về công nghệ AI nói chung và ChatGPT nói riêng. Khung pháp lý chưa hoàn thiện, chưa theo kịp tốc độ phát triển của công nghệ, dẫn đến những khoảng trống trong quản lý. Bài viết phân tích thực trạng điều chỉnh pháp luật đối với ChatGPT tại một số quốc gia tiêu biểu, từ đó, chỉ ra những nguy cơ tiềm ẩn khi ứng dụng tại Việt Nam và đề xuất hoàn thiện chính sách pháp luật bảo đảm phát triển ChatGPT theo hướng minh bạch, an toàn và có trách nhiệm.

1. Dự báo những nguy cơ của ChatGPT đối với Việt Nam

Trong bối cảnh các quốc gia có nền khoa học tiên tiến đã có bước đột phá về công nghệ AI thì ở Việt Nam chưa sẵn sàng trong nghiên cứu và ứng dụng AI trong quá trình phát triển[1]. Hiện, chưa có bằng chứng cụ thể việc ChatGPT đã gây thiệt hại trực tiếp cho người dân Việt Nam. Tuy nhiên, dựa trên kinh nghiệm quốc tế và đặc điểm hoạt động của ChatGPT, một số rủi ro tiềm năng có thể xảy ra, liên quan đến an ninh mạng, quyền riêng tư, thông tin sai lệch và việc sử dụng ChatGPT cho mục đích xấu.

Thứ nhất, rủi ro về an ninh mạng.

Việc sử dụng ChatGPT hoặc các trợ lý ảo tương tự có thể gia tăng rủi ro an ninh mạng, gồm tấn công mạng và xâm nhập trái phép. Theo cảnh báo của Công ty an ninh mạng Darktrace (Anh), ChatGPT, do OpenAI phát triển, có thể làm tăng mức độ tinh vi của các cuộc tấn công lừa đảo qua email, nâng cao khả năng thành công của các vụ tấn công nhắm mục tiêu[2]. Các công ty hoặc tổ chức ở Việt Nam sử dụng ChatGPT để thu thập thông tin cá nhân của người dùng mà không tuân thủ các quy định bảo vệ dữ liệu riêng tư hay sử dụng ChatGPT để phát triển các hoạt động và sản phẩm vi phạm pháp luật có thể gây ra rủi ro về an ninh mạng và vi phạm quy định pháp luật về bảo mật thông tin tại Việt Nam.

Thứ hai, nguy cơ về quyền riêng tư.

Việc sử dụng ChatGPT tiềm ẩn nguy cơ về xâm phạm quyền riêng tư, do khả năng thu thập, lưu trữ và xử lý dữ liệu người dùng mà không có sự đồng ý rõ ràng. Người dùng có thể chưa nhận thức đầy đủ về cách sử dụng dữ liệu cá nhân, dẫn đến nguy cơ rò rỉ hoặc lạm dụng thông tin nhạy cảm[3]. Hơn nữa, ngay cả dữ liệu công khai khi được OpenAI xử lý có thể làm suy giảm tính toàn vẹn của thông tin, vi phạm nguyên tắc dữ liệu cá nhân chỉ được sử dụng trong bối cảnh gốc của nó[4]. Ở Việt Nam, khi ChatGPT và các công cụ AI tương tự được áp dụng rộng rãi, các tổ chức và cá nhân có thể đối mặt với nguy cơ rò rỉ dữ liệu, vi phạm quyền riêng tư và các quy định bảo vệ thông tin hiện hành nếu không có khuôn khổ pháp lý và biện pháp kiểm soát phù hợp. Những rủi ro này ảnh hưởng trực tiếp đến niềm tin của người dùng, an toàn thông tin và sự phát triển bền vững của hạ tầng số quốc gia.

Thứ ba, đe dọa đến việc tạo ra những thông tin sai lệch.

ChatGPT không mặc định đưa ra nguồn trích dẫn cho các câu trả lời. Khi người dùng yêu cầu dẫn nguồn, công cụ này đôi khi có thể tạo ra những tài liệu hoặc trích dẫn không chính xác, thậm chí không tồn tại, do cơ chế hoạt động dựa trên dữ liệu huấn luyện và khả năng mô phỏng ngôn ngữ. Điều này làm cho mức độ tin cậy của thông tin chưa ổn định, tiềm ẩn nguy cơ gây nhầm lẫn cho người sử dụng trong quá trình tham khảo và ra quyết định. Nhiều chuyên gia lo ngại, với khả năng tạo ra một lượng lớn văn bản một cách nhanh chóng và thuyết phục, các công cụ AI tổng quát như ChatGPT có thể được sử dụng để phổ biến tin tức không chính xác, thậm chí là tin giả mạo trên quy mô lớn[5]. ChatGPT và các trợ lý ảo AI khác có thể bị tấn công bằng các kỹ thuật tạo ra thông tin sai lệch, gây ảnh hưởng đến tính chính xác và đáng tin cậy của các câu trả lời và thông tin được tạo ra bởi trợ lý ảo này.

Do ChatGPT hoạt động dựa trên AI, có khả năng học từ dữ liệu huấn luyện trước để tự động tạo ra câu trả lời hoặc nội dung khác. Nếu không được giám sát và kiểm duyệt đúng cách, công cụ này có thể sinh ra thông tin sai lệch, thiên vị hoặc không chính xác. Trước khi ChatGPT xuất hiện tại Việt Nam đã cho thấy các hành vi phát tán thông tin giả mạo để chiếm đoạt tài sản là phổ biến, như vụ lừa đảo năm 2019 của Phan Đình Thư, Trần Quốc Khánh và Nguyễn Duy Toản, điều hành hơn 300 trang web giả mạo, lừa gần 40.000 giao dịch trị giá khoảng 975.000 USD[6]. Điều này cảnh báo rằng, nếu không có cơ chế kiểm soát, ChatGPT có thể làm gia tăng rủi ro thông tin sai lệch, ảnh hưởng đến nhận thức, quyết định và an toàn xã hội tại Việt Nam.

Thứ tư, tiềm năng phục vụ cho mục đích xấu.

Bản thân ChatGPT được đào tạo trên 300 tỷ từ hoặc 570 GB dữ liệu[7]. Tuy nhiên, các bộ dữ liệu lớn được thu thập từ Internet chứa nhiều dữ liệu sai lệch, chưa qua kiểm duyệt. Do đó, các nhà nghiên cứu đã sử dụng bộ lọc để ngăn các mô hình cung cấp thông tin sai lệch, nhưng các bộ lọc này không chính xác hoàn toàn. Chính điều này khiến AI đưa ra những thành kiến độc hại. Ví dụ, ChatGPT đã nêu rằng, việc tra tấn người thiểu số là điều bình thường[8]. Ngoài ra, ChatGPT có thể bị sử dụng cho các mục đích xấu, gồm các cuộc tấn công lừa đảo, phân biệt chủng tộc, giới tính hoặc phát tán thông tin sai lệch.

Tại Việt Nam, các tổ chức tội phạm có thể lợi dụng ChatGPT để lừa đảo, giả mạo chatbot hoặc trợ lý ảo nhằm chiếm đoạt thông tin và tài sản người dùng. Người dùng không nhận biết được tính xác thực có thể cung cấp dữ liệu nhạy cảm, dẫn đến thiệt hại tài chính hoặc rò rỉ thông tin cá nhân. Năm 2018 - 2019, Việt Nam chứng kiến sự bùng nổ các cuộc tấn công phát tán mã độc, gồm ransomware[9] và mã độc đào tiền ảo; các chuyên gia dự báo hacker còn có thể nhắm trực tiếp vào các sàn giao dịch tiền ảo[10]. Hiện, hầu hết các sàn giao dịch tiền ảo đều không có sự bảo đảm từ các Chính phủ, do vậy, nếu xảy ra tấn công, người tham gia sàn giao dịch sẽ chịu mọi rủi ro, mất tiền[11].

2. Kinh nghiệm điều chỉnh pháp luật về ChatGPT ở một số quốc gia trên thế giới

2.1. Điều chỉnh pháp luật về ChatGPT của Cộng hòa Liên bang Đức

Cộng hòa Liên bang (CHLB) Đức đã bắt đầu xây dựng cơ sở pháp lý điều chỉnh về công nghệ AI nói chung và ChatGPT nói riêng. Luật Bảo vệ dữ liệu của CHLB Đức (GermanBundesdatenschutzgesetz - BDSG) hướng tới bảo đảm dữ liệu cá nhân chỉ có thể được sử dụng khi có sự đồng ý của cá nhân. Luật này cấm thu thập, xử lý và sử dụng dữ liệu cá nhân, trừ khi được pháp luật cho phép hoặc người có liên quan đồng ý (khoản 4 Điều I BDSG); dữ liệu cá nhân phải được thu thập trực tiếp từ người có liên quan; mọi hệ thống xử lý dữ liệu phải đạt được mục tiêu là không sử dụng (hoặc càng ít càng tốt) dữ liệu nhận dạng cá nhân; nếu dữ liệu cá nhân được thu thập, đơn vị chịu trách nhiệm phải thông báo cho người bị ảnh hưởng về danh tính của họ và mục đích của việc thu thập, xử lý hoặc sử dụng (khoản 4 Điều III BDSG).

Ngày 17/02/2017, Cơ quan Mạng lưới Liên bang Đức ra phán quyết cấm bán một con búp bê có tên là Cayla và ra lệnh tiêu hủy tất cả các thiết bị đã được bán[12]. Cơ sở pháp lý của quyết định này là Điều 90 Luật Viễn thông Đức. Lý do là búp bê có kết nối với nhà sản xuất (bắt buộc vì búp bê đã được kích hoạt AI), búp bê thực sự là một gián điệp theo dõi đứa trẻ, ghi lại tất cả dữ liệu mà đứa trẻ nói với các thiết bị, gồm cả những bí mật của đứa trẻ. Tương tự như vậy, cơ quan này lo ngại, các thiết bị này có thể bị hack, khiến trẻ em phải đối mặt với các mối đe dọa như ấu dâm hoặc ảnh hưởng tư tưởng[13]. Kể từ đó, cơ quan quản lý tại CHLB Đức đã sử dụng Luật Viễn thông để cấm các thiết bị tương tự như đồng hồ thông minh. Phương pháp nghiêm ngặt này được áp dụng để bảo vệ trẻ em, một trong những đối tượng dễ bị tổn thương nhất. Năm 2018, CHLB Đức đã công bố một kế hoạch hành động về công nghệ AI, trong đó đề cập đến các vấn đề liên quan đến chính sách và quản lý trong lĩnh vực này, gồm cả vấn đề an ninh, quyền riêng tư và đạo đức[14].

Ủy ban Cơ quan giám sát bảo vệ dữ liệu độc lập của tiểu bang và liên bang Đức (DSK) đã từng đưa ra các xem xét liệu OpenAI với ChatGPT có vi phạm các điều khoản của GDPR hay không. Ủy viên Bảo vệ Dữ liệu Liên bang Ulrich Kelber cho rằng không loại trừ khả năng chặn ChatGPT tại Đức. Tuy nhiên, quy định này đến nay chưa được ban hành, bởi điều này không do Ủy viên Bảo vệ Dữ liệu Liên bang quyết định mà thuộc thẩm quyền của các cơ quan bảo vệ dữ liệu của các tiểu bang liên bang Đức[15].

Tại CHLB Đức, hiện, không có đạo luật điều chỉnh riêng cho công nghệ ChatGPT. Tuy nhiên, các cơ quan chức năng có thể dựa vào các đạo luật về bản quyền, bảo vệ dữ liệu và quy định của Quy định bảo vệ dữ liệu chung (GDPR)[16] của Liên minh châu Âu để kiểm tra và thúc đẩy tính minh bạch của ChatGPT.

Việc ChatGPT có vi phạm bản quyền khi sử dụng các tác phẩm có bản quyền làm dữ liệu đào tạo hay không là một vấn đề. Theo luật bản quyền Đức, việc sao chép các từ có bản quyền để khai thác văn bản và dữ liệu chỉ có thể thực hiện được khi tuân theo các điều kiện cụ thể (Mục 44b Đạo luật Bản quyền Đức)[17]. Trong phạm vi mà đầu ra do ChatGPT tạo ra vẫn chứa các thành phần nhỏ có bản quyền của một tác phẩm, thì việc người dùng ChatGPT sử dụng chúng có thể vi phạm bản quyền hoặc các quyền liên quan theo quan điểm của Đức. Điều này có thể dẫn đến cảnh báo từ chủ sở hữu quyền, ví dụ: khi đầu ra đó được xuất bản trong khi việc khắc phục theo điều khoản và điều kiện của OpenAI phần lớn bị loại trừ. Đối với việc thu thập nội dung có thể truy cập công khai có thể được ChatGPT sử dụng làm dữ liệu đào tạo, các công ty nên cân nhắc triển khai các điều khoản bảo lưu về khai thác văn bản và dữ liệu.

Theo luật pháp Đức, việc tiết lộ bí mật thương mại và kinh doanh trong lời nhắc có thể bị coi là vi phạm Mục 4 Đạo luật Bí mật Thương mại Đức (Geschäftsgeheimnisgesetz). Trong trường hợp tiết lộ bí mật thương mại của đối tác kinh doanh, các bên thứ ba cũng có thể đưa ra một số khiếu nại nhất định đối với người sử dụng lao động của người dùng ChatGPT, ngay cả khi người sử dụng lao động không biết về hành vi đó của nhân viên mình (Mục 12 Đạo luật Bí mật Thương mại Đức)[18].

Vào tháng 4/2023, cơ quan quản lý dữ liệu của vùng Rhineland-Palatinate, Tây Nam nước Đức đã mở cuộc điều tra về OpenAI có trụ sở tại San Francisco (Hoa Kỳ). Cuộc điều tra nhằm mục đích kiểm tra xem ChatGPT có xử lý dữ liệu gồm dữ liệu của trẻ em theo Quy định chung về quyền riêng tư dữ liệu (GDPR) hay không[19].

Ngày 13/3/2024, CHLB Đức đã chính thức phê duyệt Đạo luật AI. Luật này áp đặt lệnh cấm toàn diện đối với một số cách sử dụng công nghệ “không thể chấp nhận được” trong các biện pháp bảo vệ cứng rắn đối với các ứng dụng khác được coi là “rủi ro cao”. Ví dụ, Đạo luật AI của EU cấm các hệ thống tính điểm xã hội sử dụng AI và bất kỳ công cụ sinh trắc học nào được dùng để đoán chủng tộc, khuynh hướng chính trị hoặc khuynh hướng tình dục của một người. Luật này yêu cầu tất cả các video deepfake do AI tạo ra phải được dán nhãn rõ ràng, nhằm giải quyết mối lo ngại về phương tiện truyền thông bị thao túng có thể dẫn đến thông tin sai lệch và can thiệp vào bầu cử[20].

Như vậy, với một loạt các hoạt động nhằm củng cố và hoàn thiện từ cơ sở pháp lý, thể chế, các nguyên tắc đạo đức trong ứng dụng AI, đến nay, Đức đã hoàn thiện về cơ bản những điều kiện cần thiết để đẩy mạnh kiểm soát các ứng dụng AI nói chung[21], ứng dụng ChatGPT nói riêng trong cuộc sống.

2.2. Điều chỉnh pháp luật về ChatGPT của Hoa Kỳ

Hoa Kỳ đã bắt đầu nghiên cứu xây dựng pháp luật điều chỉnh về công nghệ AI nói chung và ChatGPT nói riêng. Hiện, Chính phủ Hoa Kỳ đang thúc đẩy việc đưa ra các quy định và hướng dẫn liên quan đến sử dụng AI trong các lĩnh vực như y tế, tài chính và an ninh quốc gia.

Năm 2019, Tổng thống Hoa Kỳ ký sắc lệnh yêu cầu các cơ quan liên bang Hoa Kỳ thúc đẩy nghiên cứu và phát triển AI. Sắc lệnh này yêu cầu các cơ quan Chính phủ liên tục giám sát tiến triển của AI và đưa ra các khuyến cáo về quản lý rủi ro và an ninh thông tin[22].

Các tiểu bang và thành phố ở Hoa Kỳ đang xây dựng các đạo luật và quy định để điều chỉnh việc sử dụng AI. Ví dụ, California đã thông qua Đạo luật Bảo vệ Quyền riêng tư Người tiêu dùng của California (CCPA), một đạo luật về quyền riêng tư cho người tiêu dùng, gồm các quy định liên quan đến việc thu thập và sử dụng dữ liệu AI[23].

Trong lĩnh vực ChatGPT, các nhà lập pháp Hoa Kỳ đang xem xét các vấn đề liên quan đến việc sử dụng máy học tự động để tạo ra nội dung giả mạo hoặc tin tức giả mạo trên mạng. Các chuyên gia đang đưa ra khuyến cáo về việc kiểm soát và giám sát việc sử dụng công nghệ này để bảo đảm tính chính xác và minh bạch của thông tin trên mạng[24].

Ngày 11/4/2023 Chính quyền Tổng thống Biden cho biết, đang tìm kiếm ý kiến công chúng về các biện pháp giải trình tiềm năng đối với các hệ thống AI khi xuất hiện nhiều câu hỏi về tác động của nó đối với an ninh quốc gia và giáo dục[25].

Năm 2023 trong kỳ họp lập pháp, ít nhất 25 tiểu bang, Puerto Rico và Quận Columbia đã đưa ra các dự luật về AI, 18 tiểu bang và Puerto Rico đã thông qua các nghị quyết hoặc ban hành luật. Ví dụ: về các luật đã ban hành và các nghị quyết đã thông qua gồm:

- Connecticut yêu cầu Sở Dịch vụ Hành chính của tiểu bang tiến hành kiểm kê tất cả hệ thống sử dụng AI và đang được bất kỳ cơ quan nhà nước nào sử dụng. Từ ngày 01/02/2024, thực hiện các đánh giá liên tục về các hệ thống sử dụng AI và đang được các cơ quan nhà nước sử dụng để bảo đảm rằng không có hệ thống nào như vậy sẽ dẫn đến sự phân biệt đối xử bất hợp pháp hoặc tác động không đồng đều. Hơn nữa, luật này yêu cầu Văn phòng Chính sách và Quản lý thiết lập các chính sách và thủ tục liên quan đến phát triển, mua sắm, triển khai, sử dụng và đánh giá liên tục các hệ thống sử dụng AI và đang được các cơ quan nhà nước sử dụng.

- Louisiana đã thông qua nghị quyết yêu cầu Ủy ban chung về Công nghệ và An ninh mạng nghiên cứu tác động của AI trong hoạt động, mua sắm và chính sách.

- Maryland đã thành lập Chương trình tài trợ công nghệ Industry 4.0 để hỗ trợ một số doanh nghiệp sản xuất vừa và nhỏ triển khai công nghệ “công nghiệp 4.0” mới hoặc cơ sở hạ tầng liên quan. Định nghĩa của công nghiệp 4.0 gồm AI.

- Bắc Dakota đã ban hành luật định nghĩa một người là một cá nhân, tổ chức, chính phủ, đơn vị chính trị hoặc cơ quan hoặc công cụ Chính phủ, và nêu rõ, thuật ngữ này không bao gồm các yếu tố môi trường, AI, động vật hoặc vật vô tri.

- Texas đã thành lập một hội đồng cố vấn AI để nghiên cứu và giám sát các hệ thống AI do các cơ quan nhà nước phát triển, sử dụng hoặc mua sắm. Bắc Dakota, Puerto Rico và Tây Virginia cũng thành lập các hội đồng tương tự[26].

Tại Hoa Kỳ, hiện không có luật liên bang nào yêu cầu các tổ chức phải minh bạch về cách thức hoạt động của mô hình ChatGPT. Tuy nhiên, một số tiểu bang, chẳng hạn như California, đã thông qua luật yêu cầu các công ty phải tiết lộ nếu họ sử dụng chatbox để tương tác với khách hàng.

Đạo luật liên bang quan trọng liên quan đến tính minh bạch của ChatGPT là Đạo luật Tự do thông tin (FOIA)[27]. FOIA trao cho công chúng quyền truy cập thông tin do các cơ quan liên bang nắm giữ, gồm thông tin liên quan đến các hệ thống AI do các cơ quan đó phát triển hoặc sử dụng. Điều này có thể gồm thông tin về thiết kế, phát triển và vận hành các hệ thống AI, cũng như dữ liệu được sử dụng để đào tạo các hệ thống đó. Các yêu cầu FOIA liên quan đến các hệ thống AI có thể là một công cụ mạnh mẽ để thúc đẩy tính minh bạch và trách nhiệm giải trình trong việc sử dụng AI.

Một số luật của tiểu bang cũng đề cập đến tính minh bạch liên quan đến ChatGPT và các vấn đề pháp lý liên quan. Ví dụ, Đạo luật bảo mật thông tin sinh trắc học của Illinois (BIPA) yêu cầu các công ty phải có sự đồng ý của cá nhân trước khi thu thập hoặc sử dụng dữ liệu sinh trắc học của họ, chẳng hạn như dấu vân tay hoặc dữ liệu nhận dạng khuôn mặt. Luật này yêu cầu các công ty phải tiết lộ cách dữ liệu sẽ được sử dụng và phải xây dựng, tuân thủ lịch trình lưu giữ dữ liệu. Những yêu cầu này có thể giúp thúc đẩy tính minh bạch và trách nhiệm giải trình trong việc sử dụng dữ liệu sinh trắc học của các hệ thống AI[28].

Những luật này nhấn mạnh tầm quan trọng của tính minh bạch và trách nhiệm giải trình trong quá trình phát triển và sử dụng các hệ thống AI như ChatGPT. Khi ChatGPT ngày càng trở nên phổ biến trong cuộc sống hàng ngày, điều quan trọng là các nhà phát triển, người dùng và cơ quan quản lý phải cùng nhau làm việc để bảo đảm rằng các hệ thống này được thiết kế và sử dụng theo cách công bằng, minh bạch và có trách nhiệm giải trình. Điều này bao gồm việc cung cấp đủ thông tin về cách thức hoạt động của ChatGPT, cũng như triển khai các biện pháp bảo vệ để ngăn chặn sự phân biệt đối xử và bảo vệ quyền và quyền riêng tư của cá nhân[29].

3. Khuyến nghị cho Việt Nam

Trong khi nhiều quốc gia phát triển đã thiết lập khung pháp luật tương đối chặt chẽ đối với AI và các ứng dụng như ChatGPT, thì ở Việt Nam, dự thảo Luật Trí tuệ nhân tạo[30] (dự thảo Luật) mới đang trình Quốc hội, dự kiến thông qua tại Kỳ họp thứ 10 Quốc hội khóa XV. CHLB Đức và Liên minh châu Âu đã sử dụng hệ thống bảo vệ dữ liệu nghiêm ngặt (BDSG, GDPR) kết hợp với Đạo luật AI của EU năm 2024 để đặt ra nghĩa vụ minh bạch, giới hạn các hành vi rủi ro cao và bảo vệ nhóm dễ bị tổn thương như trẻ em. Hoa Kỳ dù chưa có luật liên bang toàn diện, song, ở cấp bang đã triển khai nhiều sáng kiến nhằm kiểm kê, giám sát và hạn chế tác động tiêu cực của AI, đồng thời, bổ sung các đạo luật chuyên biệt về quyền riêng tư sinh trắc học, minh bạch trong tương tác bằng chatbox, hay trách nhiệm giải trình thông qua cơ chế FOIA.

So với các hệ thống pháp luật này, Việt Nam vẫn đang ở giai đoạn khởi đầu. Luật Công nghiệp công nghệ số năm 2025 và một số nghị quyết của Quốc hội mới dừng lại ở mức chính sách vĩ mô, nhấn mạnh phát triển hạ tầng dữ liệu, thúc đẩy đổi mới sáng tạo và bảo đảm an ninh mạng. Tuy nhiên, dự thảo Luật đã có những quy định tương đối cụ thể về các vấn đề cốt lõi liên quan đến AI, như minh bạch thuật toán, nghĩa vụ báo cáo rủi ro, kiểm soát thông tin sai lệch cho đến cơ chế giải quyết trách nhiệm pháp lý khi phát sinh tranh chấp, xâm phạm dữ liệu hay gây thiệt hại cho người dùng. Vì thế, khi dự thảo Luật được thông qua sẽ giải quyết được khoảng trống pháp lý lớn nhất hiện nay về việc kiểm tra, cấp phép và giám sát sau khi các hệ thống AI được đưa vào sử dụng. Tuy nhiên, dự thảo Luật chưa quy định và xử lý các vấn đề liên quan đến vi phạm bản quyền. Trong khi, Đức có thể cấm lưu hành những thiết bị AI nguy hiểm và EU đã đặt ra quy định dán nhãn với sản phẩm deepfake. Bên cạnh đó, Luật Sở hữu trí tuệ năm 2005, sửa đổi, bổ sung các năm 2009, 2019, 2022 (Luật Sở hữu trí tuệ năm 2005) và dự thảo Luật sửa đổi bổ sung một số điều của Luật Sở hữu trí tuệ và dự thảo Luật[31] cũng chưa quy định cụ thể về quyền tác giả đối với sản phẩm do AI tạo ra. Trong khi nhiều quốc gia như Anh, Ấn Độ và New Zealand đã bắt đầu công nhận quyền sở hữu trí tuệ cho lập trình viên[32] hoặc nhà phát triển AI, Việt Nam vẫn chưa có quy định và hướng dẫn rõ ràng. Khoảng trống pháp lý này tiềm ẩn nguy cơ tranh chấp bản quyền và làm phức tạp việc thương mại hóa sản phẩm do AI tạo ra.

Kinh nghiệm quốc tế cho thấy, mỗi quốc gia lựa chọn một cách tiếp cận riêng gắn với điều kiện thể chế. Đức/EU đi theo hướng “dựa trên rủi ro”, nhấn mạnh bảo mật dữ liệu, an toàn và trách nhiệm giải trình, nhất là cơ chế dán nhãn sản phẩm AI và trách nhiệm pháp lý rõ ràng của nhà phát triển mô hình. Hoa Kỳ lại chú trọng tính linh hoạt, phân quyền cho các bang, khuyến khích thử nghiệm mô hình quản trị đa dạng. Nghiên cứu cho thấy, dự thảo Luật của Việt Nam cơ bản tương thích với EU và Mỹ về quản trị rủi ro, dán nhãn sản phẩm AI, trách nhiệm pháp lý của các bên có liên quan. Để minh họa rõ hơn sự khác biệt trong cách tiếp cận, có thể so sánh Việt Nam, Đức và Hoa Kỳ theo các tiêu chí pháp lý, hạ tầng, nhân lực, đối tác công - tư (Public - Private Partnership - PPP) và bảo mật như sau:

Về pháp lý: Việt Nam: dự thảo Luật chú trọng an toàn dữ liệu; Đức: chịu sự điều chỉnh nghiêm ngặt của EU (GDPR), quy định rõ về trách nhiệm AI; Hoa Kỳ: chưa có luật AI thống nhất, nhiều bang và liên bang ban hành quy tắc riêng.

Về hạ tầng: Việt Nam: hạn chế về siêu máy tính, phụ thuộc vào hạ tầng quốc tế; Đức: hệ thống trung tâm dữ liệu mạnh, gắn với EU Cloud; Hoa Kỳ: dẫn đầu thế giới về siêu máy tính, hạ tầng điện toán đám mây.

Về nhân lực: Việt Nam: đội ngũ CNTT còn thiếu và yếu, tập trung ở đô thị lớn; Đức: nhân lực chất lượng cao, gắn với hệ thống giáo dục - đào tạo nghề; Hoa Kỳ: nguồn nhân lực AI dồi dào, nhiều trường đại học và viện nghiên cứu hàng đầu.

Về PPP: Việt Nam: một số dự án thí điểm, chưa bền vững; Đức: Nhà nước hỗ trợ mạnh, doanh nghiệp công nghệ tham gia tích cực; Hoa Kỳ: doanh nghiệp tư nhân dẫn dắt, Nhà nước tạo khung pháp lý và tài trợ nghiên cứu.

Về bảo mật: Việt Nam: mới ở mức khuyến nghị, chưa có chuẩn quốc gia; Đức: tiêu chuẩn cao theo luật EU, giám sát chặt chẽ; Hoa Kỳ: chú trọng bảo mật nhưng thiên về tự điều chỉnh doanh nghiệp, ít ràng buộc tập trung.

Có thể thấy, Việt Nam đang ở giai đoạn đầu trong phát triển và quản lý AI và định hướng quản trị chặt rủi ro, trong khi Đức/EU cũng thiên về quản lý chặt chẽ theo rủi ro, Hoa Kỳ lại chú trọng linh hoạt. Những khác biệt này cung cấp, gợi mở những vấn đề quan trọng góp phần định hình giải pháp phù hợp cho Việt Nam.

Hiện, ChatGPT đang là vấn đề mới đối với pháp luật Việt Nam. Để bảo đảm việc sử dụng AI nói chung và ChatGPT nói riêng. Việt Nam cần sớm thông qua dự thảo Luật để có cơ sở pháp lý thúc đẩy phát triển, quản lý sử dụng AI và nhất là giảm thiểu các rủi ro, nguy cơ có thể xảy ra. Đồng thời, Việt Nam có thể nghiên cứu áp dụng một số kiến nghị như sau:

Thứ nhất, cần nghiên cứu, sửa đổi, bổ sung Luật An toàn thông tin mạng năm 2015, Luật Bảo vệ dữ liệu cá nhân năm 2025, Nghị định số 13/2023/NĐ-CP ngày 17/4/2023 của Chính phủ về bảo vệ dữ liệu cá nhân theo hướng thiết lập nghĩa vụ minh bạch đối với mô hình ngôn ngữ lớn như AI, ChatGPT. Cụ thể, bổ sung điều khoản quy định nghĩa vụ công khai nguồn dữ liệu huấn luyện, cơ chế giải trình khi phát sinh nội dung sai lệch, đồng thời, quy định rõ trách nhiệm pháp lý của nhà cung cấp dịch vụ AI khi gây thiệt hại cho người dùng. Cơ sở của kiến nghị này là kinh nghiệm từ Đức và EU, nơi GDPR và Đạo luật AI yêu cầu công khai minh bạch, dán nhãn nội dung deepfake và có cơ chế xử phạt mạnh.

Thứ hai, cần xem xét nghiên cứu, bổ sung các quy định riêng về quyền tác giả đối với sản phẩm do AI tạo ra vào Luật Sở hữu trí tuệ năm 2005, dự thảo Luật sửa đổi, bổ sung một số điều của Luật Sở hữu trí tuệ[33]. Quy định này tạo cơ sở pháp lý rõ ràng, giúp bảo vệ quyền lợi của lập trình viên, nhà phát triển và doanh nghiệp, đồng thời, giảm thiểu nguy cơ tranh chấp bản quyền trong môi trường số.

Thứ ba, sau khi dự thảo Luật được thông qua, Việt Nam cần sớm ban hành văn bản hướng dẫn thi hành Luật, trong đó có quy định về kiểm định và giám sát AI. Cụ thể: quy định việc đăng ký, chứng nhận an toàn trước khi cung cấp ra thị trường, nghĩa vụ báo cáo định kỳ về rủi ro và cơ chế thu hồi/ đình chỉ nếu hệ thống AI gây nguy hiểm. Đây là bài học từ Đức và EU (có quyền cấm lưu hành sản phẩm AI nguy hại) và từ các bang của Hoa Kỳ (yêu cầu báo cáo và đánh giá tác động AI trong giáo dục, việc làm, tài chính).

Thứ tư, sửa đổi, bổ sung Luật Giao dịch điện tử năm 2023 và các nghị định hướng dẫn thi hành, để đưa vào nghĩa vụ “gắn nhãn” với nội dung được tạo bởi AI, đặc biệt là các sản phẩm có nguy cơ deepfake. Cơ sở là thực tiễn EU đã ban hành cơ chế dán nhãn bắt buộc, giúp người dùng nhận diện nội dung không phải do con người tạo ra, từ đó, giảm nguy cơ lừa đảo, thao túng thông tin.

Thứ năm, thiết lập cơ chế thí điểm (sandbox) pháp lý cho AI. Hiện cơ chế Sandbox đã được áp dụng trong lĩnh vực tài chính theo Nghị định số 94/2025/NĐ-CP ngày 29/4/2025 của Chính phủ quy định về cơ chế thử nghiệm có kiểm soát trong lĩnh vực ngân hàng. Đồng thời, dự thảo Luật đã quy định, vì thế, Việt Nam cần tiếp tục mở rộng sang các lĩnh vực khác như giáo dục, y tế... Cách làm này, Việt Nam có thể nghiên cứu, tiếp thu có chọn lọc kinh nghiệm của Hoa Kỳ, nơi nhiều bang đã triển khai thử nghiệm quản trị AI để kiểm soát tác động mà không kìm hãm đổi mới.

Thứ sáu, cần nghiên cứu ban hành văn bản quy phạm pháp luật về tiêu chuẩn an toàn AI. Nội dung có thể gồm: yêu cầu kiểm tra định kỳ hệ thống, quy trình xử lý sự cố an ninh, trách nhiệm báo cáo rủi ro và khắc phục hậu quả.

Thứ bảy, Việt Nam cần đẩy mạnh hợp tác quốc tế và tham gia các diễn đàn chung về quản trị AI, đồng thời, đưa các chuẩn mực quốc tế (như nguyên tắc AI của OECD hay khuyến nghị về đạo đức AI của UNESCO) vào hệ thống pháp luật trong nước. Điều này giúp Việt Nam tiếp tục hoàn thiện pháp luật về AI vừa phù hợp với chuẩn mực toàn cầu, vừa gắn với thực tiễn đất nước.

Kết luận

ChatGPT là một thành tựu tiêu biểu của AI thế hệ mới, mang lại nhiều cơ hội nhưng cũng đặt ra không ít thách thức pháp lý. Thực tiễn điều chỉnh pháp luật tại các quốc gia như Đức và Hoa Kỳ cho thấy: cần thiết phải kiểm soát chặt chẽ việc thu thập, xử lý dữ liệu cá nhân; bảo đảm quyền riêng tư, minh bạch, trách nhiệm giải trình và quản lý rủi ro của các hệ thống AI. Sau khi dự thảo Luật được thông qua, Việt Nam cần tiếp tục nghiên cứu ban hành các văn bản hướng dẫn thi hành Luật, nhất là về bảo vệ dữ liệu, xây dựng tiêu chuẩn đạo đức công nghệ, thúc đẩy giáo dục nhận thức cho người dùng và tăng cường kiểm tra, giám sát hoạt động của các hệ thống AI. Việc tham khảo kinh nghiệm quốc tế và điều chỉnh linh hoạt phù hợp với điều kiện Việt Nam sẽ là tiền đề quan trọng cho quản trị hiệu quả và phát triển bền vững AI nói chung và ChatGPT nói riêng trong thời gian tới./.

ThS. Nguyễn Thanh Tùng

Viện Nhà nước và Pháp luật, Viện Hàn lâm Khoa học xã hội Việt Nam

[1]. Hoàng Xuân Vinh & Nguyễn Trung Hiếu (2022), Vai trò của trí tuệ nhân tạo (AI) và trí tuệ tăng cường (IA) trong công nghệ nền tảng của kỷ nguyên kỹ thuật số, Tạp chí Kinh tế châu Á - Thái Bình Dương, số 618, tháng 9, tr. 12.

[2]. TTXVN (2023), Công ty an ninh mạng Anh cảnh báo nguy cơ lừa đảo liên quan ChatGPT, https://nhandan.vn/cong-ty-an-ninh-mang-anh-canh-bao-nguy-co-lua-dao-lien-quan-chatgpt-post742078.html, truy cập ngày 25/10/2025.

[3]. Sebastian, G. (2024), Privacy and Data Protection in ChatGPT and Other AI Chatbots: Strategies for Securing User Information. ResearchGate, http://dx.doi.org/10.13140/RG.2.2.14633.57449, truy cập ngày 25/10/2025.

[4]. H.Thủy (2023), ChatGPT và những vấn đề về quyền riêng tư dữ liệu, https://baotintuc.vn/khoa-hoc-cong-nghe/chatgpt-va-nhung-van-de-ve-quyen-rieng-tu-du-lieu-20230215200801554.htm, truy cập ngày 25/10/2025.

[5]. Huyền Thanh (2023), ChatGPT: Lo ngại thông tin sai lệch khi phần lớn câu trả lời đều không dẫn nguồn, https://cand.com.vn/khoa-hoc-quan-su/chatgpt-lo-ngai-thong-tin-sai-lech-khi-phan-lon-cau-tra-loi-deu-khong-dan-nguon-i683333/, truy cập ngày 25/10/2025.

[6]. Bộ Công an (2020), Báo cáo tổng kết công tác phòng chống tội phạm sử dụng công nghệ cao xâm phạm trật tự an toàn xã hội, 2016 - 2019 của C50-A05.

[7]. Nhóm tác giả của OpenAI (2020), tlđd.

[8]. Thái An (2023), ChatGPT phân biệt đối xử và phân biệt chủng tộc, https://zingnews.vn/chatgpt-phan-biet-doi-xu-va-phan-biet-chung-toc-post1394553.html, truy cập ngày 25/10/2025.

[9]. Viettel IDC (2022), Ransomware là gì? Cách ngăn chặn mã độc tống tiền hiệu quả, https://viettelidc.com.vn/tin-tuc/nhung-phuong-phap-an-minh-cua-ransomware-la-gi-dau-se-la-muc-tieu-tan-cong-cua-ransomware-3287, truy cập ngày 25/10/2025. Theo đó, Ransomware là một loại phần mềm độc hại (malware) vô cùng nguy hiểm, sẽ mã hóa dữ liệu quan trọng khiến người dùng mất quyền truy cập và yêu cầu tiền chuộc để lấy lại quyền truy cập.

[10]. Trần Đoàn Hạnh (2021), Phòng ngừa tình hình tội phạm trong lĩnh vực công nghệ thông tin và viễn thông ở Việt Nam hiện nay, Luận án tiến sĩ luật học, Học viện Khoa học xã hội, Hà Nội, tr. 131.

[11]. Frank Schmalleger and Michael Pittaro (2014), Crimes of the Internet, Pearson Publisher.

[12]. German Federal Network Agency (2017), Bundesnetzagentur Removes Children’s Doll, “Cayla” From the Market, Bundesnetzagentur (BNetzA).

[13]. Kay Firth-Butterfield (2018), Generation AI: What happens when your child’sfriend is an Al toy that talks back?, World Economic Forum, https://www.weforum.org/stories/2018/05/generation-ai-what-happens-when-your-childs-invisible-friend-is-an-ai-toy-that-talks-back/?, truy cập ngày 25/10/2025.

[14]. The Federal Government (2018), Artificial Intelligence Strategy [Chiến lược Trí tuệ Nhân tạo], https://www.ki-strategie-deutschland.de/files/downloads/Nationale_KI-Strategie_engl.pdf, truy cập ngày 25/10/2025.

[15]. Unyer (a Swiss Verein) (2023), Digital/Tech and Data - The world and AI: ChatGPT - Challenges in France, Austria, Germany and Italy, https://www.unyer.com/wp-content/uploads/2023/05/unyer-NL-IPIT_Tech-and-Data_2023_May-2023.pdf, truy cập ngày 25/10/2025.

[16]. Intersoft Consulting, General Data Protection Regulation, https://gdpr-info.eu/, truy cập ngày 25/10/2025.

[17]. Full citation: Copyright Act of 9 September 1965 (Federal Law Gazette I, p. 1273), as last amended by Article 25 of the Act of 23 June 2021 (Federal Law Gazette I, p. 1858)

[18]. Act on the Protection of Trade Secrets of 18 April 2019, https://www.gesetze-im-internet.de/englisch_geschgehg/englisch_geschgehg.html, truy cập ngày 25/10/2025.

[19]. Akshaya Asoka (2023), German Data Regulator to Intensify ChatGPT Probe, https://www.bankinfosecurity.com/german-data-regulator-to-intensify-chatgpt-probe-a-23449, truy cập ngày 25/10/2025.

[20]. Brian Fung (2024), EU approves landmark AI law, leapfrogging US to regulate critical but worrying new technology, https://edition.cnn.com/2024/03/13/tech/ai-european-union/index.html, truy cập ngày 25/10/2025.

[21]. Hoa Hữu Cường & Chử Thị Nhuần (2022), Chiến lược xây dựng đạo đức trí tuệ nhân tạo và một số gợi mở cho Việt Nam, Tạp chí Nghiên cứu Châu Âu, No1 (256), tr. 63.

[22]. Winston Luo (2019), President Trump Issues Executive Order to Maintain American Leadership in Artificial Intelligence, Harvard Journal of Law & Technology Digest, Or-el Vaknin, https://jolt.law.harvard.edu/digest/president-trump-issues-executive-order-to-maintain-american-leadership-in-artificial-intelligence, truy cập ngày 25/10/2025.

[23]. C. Kibby & Richard Sentinella (2023), New laws in California look to the future of privacy and AI, IAPP, https://iapp.org/news/a/new-laws-in-california-look-to-the-future-of-privacy-and-ai, truy cập ngày 25/10/2025.

[24]. Daniel I. Weiner & Lawrence Norden (2023), Regulating AI Deepfakes and Synthetic Media in the Political Arena, Brennan Center for Justice, https://www.brennancenter.org/our-work/research-reports/regulating-ai-deepfakes-and-synthetic-media-political-arena, truy cập ngày 25/10/2025.

[25]. David Shepardson - Diane Bartz (2023), US begins study of possible rules to regulate AI like ChatGPT, https://www.reuters.com/technology/us-begins-study-possible-rules-regulate-ai-like-chatgpt-2023-04-11/, truy cập ngày 25/10/2025.

[26]. National Conference of State Legislatures (2024), Artificial Intelligence 2023 Legislation, https://www.ncsl.org/technology-and-communication/artificial-intelligence-2023-legislation, truy cập ngày 25/10/2025.

[27]. US. Department of State, The Freedom of Information Act, https://foia.state.gov/learn/foia.aspx, truy cập ngày 25/10/2025.

[28]. Illinois general Assembly, Illinois Compiled Statutes, https://www.ilga.gov/legislation/ilcs/ilcs3.asp?ActID=3004&ChapterID=57, truy cập ngày 25/10/2025.

[29]. University of Maryland Francis King Carey School of Law (2023), The Next Big Thing?: The Legal Implications of ChatGPT, https://www.law.umaryland.edu/content/articles/name-655827-en.html, truy cập ngày 25/10/2025.

[30]. Dự thảo Luật Trí tuệ nhân tạo, https://duthaoonline.quochoi.vn/dt/luat-tri-tue-nhan-tao/251009091536864496, truy cập ngày 25/10/2025.

[31]. Dự thảo Luật Sở hữu trí tuệ, https://duthaoonline.quochoi.vn/dt/luat-sua-doi-bo-sung-mot-so-dieu-cua-luat-so-huu-tri-tue/250923111514073561, truy cập ngày 25/10/2025.

[32]. Văn Chiến (2023), Công nghệ trí tuệ nhân tạo (AI) nhìn từ góc độ pháp luật sở hữu trí tuệ một số nước trên thế giới và Việt Nam, Tạp chí điện tử pháp lý, https://phaply.net.vn/cong-nghe-tri-tue-nhan-tao-ai-nhin-tu-goc-do-phap-luat-so-huu-tri-tue-mot-so-nuoc-tren-the-gioi-va-viet-nam-a256438.html, truy cập ngày 25/10/2025.

[33]. https://duthaoonline.quochoi.vn/dt/luat-sua-doi-bo-sung-mot-so-dieu-cua-luat-so-huu-tri-tue/250923111514073561, truy cập ngày 25/10/2025.

TÀI LIỆU THAM KHẢO

1. Daniel I. Weiner & Lawrence Norden (2023), Regulating AI Deepfakes and Synthetic Media in the Political Arena, Brennan Center for Justice, https://www.brennancenter.org/our-work/research-reports/regulating-ai-deepfakes-and-synth etic-media-political-arena, truy cập ngày 25/10/2025.

2. Frank Schmalleger & Michael Pittaro (2014), Crimes of the Internet, Pearson Publisher.

3. German Federal Network Agency (2017), Bundesnetzagentur Removes Children’s Doll, “Cayla” From the Market, Bundesnetzagentur [BNetzA].

4. Hoa Hữu Cường & Chử Thị Nhuần (2022), Chiến lược xây dựng đạo đức trí tuệ nhân tạo và một số gợi mở cho Việt Nam, Tạp chí Nghiên cứu châu Âu, số 1 (256).

5. Hoàng Xuân Vinh & Nguyễn Trung Hiếu (2022), Vai trò của trí tuệ nhân tạo (AI) và trí tuệ tăng cường (IA) trong công nghệ nền tảng của kỷ nguyên kỹ thuật số, Tạp chí Kinh tế châu Á - Thái Bình Dương, số 618, tháng 9.

6. Kay Firth-Butterfield (2018), Generation AI: What happens when your child’s friend is an AI toy that talks back?, World Economic Forum, https://www.weforum.org/stories/2018/05/generation-ai-what-happens-when-your-childs-invisible-friend-is-an-ai-toy-that-talks-back/, truy cập ngày 25/10/2025.

7. Mazumder, P. T. (2025), Human-AI Collaboration with ChatGPT: A Systematic Review of Implications for Finance, Law, and Healthcare, SSRN, https://ssrn.com/abstract=5394893, truy cập ngày 25/10/2025.

8. Nam Kiên (2022), Pháp luật về bảo vệ dữ liệu cá nhân của một số nước và kinh nghiệm cho Việt Nam, Tạp chí điện tử Pháp lý, https://phaply.net.vn/phap-luat-ve-bao-ve-du-lieu-ca-nhan-cua-mot-so-nuoc-va-kinh-nghiem-cho-viet-nam-a237913.html, truy cập ngày 25/10/2025.

9. National Conference of State Legislatures (2024), Artificial Intelligence 2023 Legislation, https://www.ncsl.org/technology-and-communication/artificial-intelligence-2023-legislation, truy cập ngày 25/10/2025.

10. Ray, P. P. (2023), “ChatGPT: A comprehensive review on background, applications, key challenges, bias, ethics, limitations and future scope”, Internet of Things and Cyber-Physical Systems, 3, tr. 121–154. https://doi.org/10.1016/j.iotcps.2023.04.003, truy cập ngày 25/10/2025.

11. Russell, S. J., & Norvig, P. (2003), Artificial Intelligence: A Modern Approach, 2nd ed., Upper Saddle River, New Jersey: Prentice Hall.

12. Schwab, Klaus (2016), The Fourth Industria Revolution: what it means, how to respond, https://www.weforum.org/agenda/2016/01/the-fourth-industrial-revolution-what-it-means-and-how-to-respond/, truy cập ngày 25/10/2025.

13. Sebastian, G. (2024), Privacy and Data Protection in ChatGPT and Other AI Chatbots: Strategies for Securing User Information, ResearchGate, http://dx.doi.org/10.13140/RG.2.2.14633.57449, truy cập ngày 25/10/2025.

14. Simetgo, K., Giovanis, A. N., & Kallivokas, D.(2025), The role of ChatGPT and artificial intelligence in customer management strategy transformation: A systematic literature review [Special issue], Corporate & Business Strategy Review, 6(1), tr. 254 – 275. https://doi.org/10.22495/cbsrv6i1siart3, truy cập ngày 25/10/2025.

15. The Federal Government (2018), Artificia Intelligence Strategy [Chiến lược Trí tuệ Nhân tạo], https://www.ki-strategie-deutschland.de/files/downloads/Nationale_KI-Strategie_engl.pdf, truy cập ngày 25/10/2025.

16. Trần Đoàn Hạnh (2021), Phòng ngừa tình hình tội phạm trong lĩnh vực công nghệ thông tin và viễn thông ở Việt Nam hiện nay, Luận án tiến sĩ luật học, Học viện Khoa học xã hội, Hà Nội.

17. Unyer (a Swiss Verein) (2023), Digital / Tech and Data - The world and AI: ChatGPT – Challenges in France, Austria, Germany and Italy, https://www.unyer.com/wp-content/uploads/2023/05/unyer-NL-IPIT_Tech-and-Data_2023_May-2023.pdf, truy cập ngày 25/10/2025.

18. Văn Chiến (2023), Công nghệ trí tuệ nhân tạo (AI) nhìn từ góc độ pháp luật sở hữu trí tuệ một số nước trên thế giới và Việt Nam, Tạp chí điện tử Pháp lý, https://phaply.net.vn/cong-nghe-tri-tue-nhan-tao-ai-nhin-tu-goc-do-phap-luat-so-huu-tri-tue-mot-so-nuoc-tren-the-gioi-va-viet-nam-a256438.html, truy cập ngày 25/10/2025.

(Nguồn: Tạp chí Dân chủ và Pháp luật số Kỳ 2 (441) tháng 11/2025)

Tin bài có thể bạn quan tâm

Mô hình sandbox thúc đẩy đổi mới công nghệ trong khuôn khổ pháp luật về sở hữu trí tuệ - kinh nghiệm quốc tế và đề xuất cho Việt Nam

Mô hình sandbox thúc đẩy đổi mới công nghệ trong khuôn khổ pháp luật về sở hữu trí tuệ - kinh nghiệm quốc tế và đề xuất cho Việt Nam

Tóm tắt: Trong bối cảnh Cuộc cách mạng công nghiệp lần thứ tư, cơ chế thử nghiệm có kiểm soát (sandbox) ngày càng được quan tâm như một công cụ chính sách quan trọng nhằm thúc đẩy đổi mới sáng tạo và phát triển công nghệ. Tuy nhiên, việc áp dụng sandbox tại Việt Nam đặt ra nhiều thách thức pháp lý, đặc biệt trong lĩnh vực bảo vệ quyền sở hữu trí tuệ đối với các sáng chế, bí mật kinh doanh và các tài sản trí tuệ phát sinh trong giai đoạn thử nghiệm. Bài viết nghiên cứu, phân tích, tổng hợp và so sánh luật học để: (i) làm rõ khái niệm và đặc trưng của mô hình sandbox; (ii) đánh giá thực trạng pháp luật Việt Nam liên quan đến cơ chế này trong mối quan hệ với pháp luật sở hữu trí tuệ; (iii) đối chiếu với kinh nghiệm lập pháp và thực tiễn triển khai tại Vương quốc Anh, Singapore, Kenya và Hàn Quốc. Kết quả nghiên cứu cho thấy, mặc dù sandbox mang lại nhiều cơ hội cho đổi mới sáng tạo, tuy nhiên, hiện, pháp luật Việt Nam còn thiếu quy định cụ thể để bảo vệ đầy đủ quyền sở hữu trí tuệ trong môi trường thử nghiệm. Điều này tiềm ẩn nguy cơ tranh chấp và xung đột lợi ích giữa các chủ thể tham gia. Trên cơ sở đó, nghiên cứu đề xuất xây dựng khuôn khổ pháp lý đồng bộ cho sandbox, trong đó bảo đảm sự cân bằng giữa khuyến khích đổi mới và bảo vệ quyền lợi hợp pháp của các bên liên quan, qua đó, tạo nền tảng pháp lý vững chắc cho phát triển công nghệ bền vững tại Việt Nam.
Hợp đồng vô hiệu do đe dọa kinh tế theo pháp luật Anh và gợi mở cho Việt Nam

Hợp đồng vô hiệu do đe dọa kinh tế theo pháp luật Anh và gợi mở cho Việt Nam

Tóm tắt: Đe dọa kinh tế là học thuyết pháp lý xuất hiện trong pháp luật Anh và được sử dụng để xác định hợp đồng vô hiệu khi một bên bị buộc phải ký kết hợp đồng dưới sự ép buộc về kinh tế một cách bất hợp pháp. Học thuyết này có vai trò trong việc bảo vệ nguyên tắc tự do, tự nguyện trong giao kết hợp đồng. Ở Việt Nam, Bộ luật Dân sự năm 2015 chưa quy định đe dọa kinh tế là căn cứ để xác định hợp đồng vô hiệu. Điều này tạo ra hạn chế nhất định trong quá trình đàm phán hay giải quyết tranh chấp liên quan đến hợp đồng. Bài viết nghiên cứu về học thuyết đe dọa kinh tế trong pháp luật Anh thông qua các án lệ điển hình, làm sáng tỏ ba yếu tố cấu thành đe dọa kinh tế và đánh giá hậu quả pháp lý. Trên cơ sở đó, bài viết đề xuất một số gợi mở để Việt Nam có thể nghiên cứu, tiếp thu có chọn lọc trong việc hoàn thiện pháp luật liên quan đến việc tuyên bố hợp đồng có thể vô hiệu bởi đe dọa kinh tế.
Chủ sở hữu hưởng lợi tiếp cận từ nguyên tắc “thực chất hơn hình thức” - Kinh nghiệm một số quốc gia và khuyến nghị đối với Việt Nam

Chủ sở hữu hưởng lợi tiếp cận từ nguyên tắc “thực chất hơn hình thức” - Kinh nghiệm một số quốc gia và khuyến nghị đối với Việt Nam

Tóm tắt: Bài viết phân tích chế định chủ sở hữu hưởng lợi trong pháp luật doanh nghiệp Việt Nam tiếp cận từ nguyên tắc pháp lý “thực chất hơn hình thức”. Việc luật hóa khái niệm này là bước tiến quan trọng nhưng nghiên cứu cho thấy, các quy định hiện hành còn tiềm ẩn nguy cơ bị áp dụng mang tính hình thức, làm giảm hiệu quả của chính sách minh bạch hóa thông tin. Thông qua việc phân tích các khoảng trống pháp lý và tham khảo kinh nghiệm của Vương quốc Anh, Úc và Áo, bài viết chỉ ra những thách thức trong việc nhận diện các cơ cấu kiểm soát phức tạp; từ đó, đề xuất một số giải pháp hoàn thiện quy định pháp luật về vấn đề chủ sở hữu hưởng lợi nhằm bảo đảm nguyên tắc “thực chất hơn hình thức” được thực thi hiệu quả trong thực tiễn.
Phương thức xác minh điều kiện thi hành án trong bối cảnh chuyển đổi số dưới góc độ so sánh với pháp luật của Liên minh châu Âu

Phương thức xác minh điều kiện thi hành án trong bối cảnh chuyển đổi số dưới góc độ so sánh với pháp luật của Liên minh châu Âu

Tóm tắt: Tại Việt Nam, việc xác minh điều kiện thi hành án chủ yếu do chấp hành viên thực hiện, tuy nhiên, quá trình này còn gặp nhiều khó khăn do thiếu sự phối hợp giữa các cơ quan, tổ chức có liên quan và cơ sở dữ liệu chưa đồng bộ. Trong khi đó, các quốc gia Liên minh châu Âu đã áp dụng các biện pháp đa dạng và sử dụng cơ sở dữ liệu tập trung để hỗ trợ quá trình xác minh nhằm nâng cao hiệu quả thi hành án. Bài viết phân tích thực trạng pháp luật Việt Nam về xác minh điều kiện thi hành án dân sự trong bối cảnh chuyển đổi số và so sánh với pháp luật của Liên minh châu Âu, từ đó, đưa ra một số kiến nghị sửa đổi, hoàn thiện pháp luật nhằm nâng cao chất lượng, hiệu quả phương thức xác minh trên thực tế.
Thực thi cam kết về kinh tế tuần hoàn trong hiệp định thương mại tự do giữa Việt Nam và Liên minh châu Âu

Thực thi cam kết về kinh tế tuần hoàn trong hiệp định thương mại tự do giữa Việt Nam và Liên minh châu Âu

Tóm tắt: Những năm gần đây, chuyển đổi sang nền kinh tế tuần hoàn là xu thế tất yếu để các quốc gia trên thế giới, trong đó có Việt Nam, theo đuổi mục tiêu phát triển bền vững. Tầm quan trọng của vấn đề này được nhấn mạnh trong nhiều cam kết quốc tế, đặc biệt là các Hiệp định thương mại tự do thế hệ mới. Hiệp định thương mại tự do giữa Việt Nam và Liên minh châu Âu (EVFTA) đã thể hiện rõ quyết tâm của các bên trong thúc đẩy phát triển bền vững và kinh tế tuần hoàn. Bài viết nghiên cứu làm rõ các cam kết trong EVFTA liên quan đến kinh tế tuần hoàn, chỉ ra những vấn đề pháp lý ảnh hưởng đến việc thực thi hiệu quả các cam kết, từ đó, đề xuất một số khuyến nghị đối với Việt Nam.
Bảo vệ quyền lợi người tiêu dùng trong mua sắm livestream - Kinh nghiệm của Liên minh châu Âu và một số đề xuất đối với Việt Nam

Bảo vệ quyền lợi người tiêu dùng trong mua sắm livestream - Kinh nghiệm của Liên minh châu Âu và một số đề xuất đối với Việt Nam

Tóm tắt: Bài viết phân tích và so sánh khung pháp lý điều chỉnh hoạt động mua sắm qua livestream giữa Việt Nam và Liên minh châu Âu, qua đó, chỉ ra một số “khoảng trống” trong pháp luật Việt Nam hiện hành, từ đó, đưa ra một số đề xuất hoàn thiện pháp luật nhằm nâng cao tiêu chuẩn bảo vệ quyền lợi người tiêu dùng của Việt Nam, tiệm cận với thông lệ quốc tế.
Vai trò của quản tài viên khi xử lý hợp đồng đang có hiệu lực trong thủ tục phá sản

Vai trò của quản tài viên khi xử lý hợp đồng đang có hiệu lực trong thủ tục phá sản

Tóm tắt: Trong thủ tục phá sản, quản tài viên giữ vai trò then chốt trong việc bảo đảm giá trị còn lại của doanh nghiệp, hài hòa lợi ích giữa chủ nợ, đối tác và xã hội. Bài viết phân tích cơ sở lý luận về chức năng của pháp luật phá sản và làm rõ quyền hạn của quản tài viên trong việc quyết định tiếp tục hay chấm dứt hợp đồng đang có hiệu lực theo pháp luật Việt Nam. Trên cơ sở so sánh với pháp luật Hoa Kỳ và Pháp, nghiên cứu chỉ ra những hạn chế trong quy định hiện hành của Việt Nam và đưa ra khuyến nghị hoàn thiện pháp luật nhằm nâng cao hiệu quả thực tiễn, đồng thời, bảo vệ công bằng lợi ích giữa các bên liên quan.
Pháp luật một số quốc gia về thu hồi tài sản tham nhũng không qua kết án và kinh nghiệm đối với Việt Nam

Pháp luật một số quốc gia về thu hồi tài sản tham nhũng không qua kết án và kinh nghiệm đối với Việt Nam

Tóm tắt: Ở Việt Nam, trong những năm qua, công tác đấu tranh phòng, chống tham nhũng và thu hồi tài sản tham nhũng luôn được Đảng, Nhà nước đặc biệt quan tâm. Bên cạnh những thành tựu đạt được, công tác đấu tranh phòng, chống tham nhũng và thu hồi tài sản tham nhũng còn khó khăn, hạn chế nhất định. Bài viết nghiên cứu, phân tích pháp luật của một số quốc gia trên thế giới về thu hồi tài sản tham nhũng không qua kết án; phân tích, đánh giá pháp luật Việt Nam hiện hành; từ đó, đưa ra kiến nghị hoàn thiện pháp luật và nâng cao hiệu quả áp dụng pháp luật về thu hồi tài sản tham nhũng không qua kết án tại Việt Nam trong bối cảnh mới.
Trách nhiệm đào tạo nghề của doanh nghiệp nhằm bảo đảm kinh doanh có trách nhiệm - Tiếp cận từ quy định pháp luật quốc tế và Việt Nam

Trách nhiệm đào tạo nghề của doanh nghiệp nhằm bảo đảm kinh doanh có trách nhiệm - Tiếp cận từ quy định pháp luật quốc tế và Việt Nam

Tóm tắt: Việc bảo đảm quyền tiếp cận học nghề, phát triển kỹ năng và thích ứng với chuyển đổi công nghệ không chỉ góp phần nâng cao chất lượng nguồn nhân lực và năng suất lao động, mà còn phản ánh cam kết của doanh nghiệp trên cơ sở tôn trọng quyền con người và bảo đảm phát triển bền vững. Bài viết tiếp cận từ góc độ so sánh, phân tích chính sách, pháp luật nhằm làm rõ cơ sở lý luận và nội dung trách nhiệm đào tạo nghề của doanh nghiệp trong khuôn khổ kinh doanh có trách nhiệm. Trên nền tảng các chuẩn mực quốc tế của Tổ chức Lao động Quốc tế (ILO), Tổ chức Hợp tác và Phát triển Kinh tế (OECD) và Liên hợp quốc, bài viết so sánh với quy định pháp luật Việt Nam hiện hành và chỉ ra những bất cập về thiết kế thể chế và hạn chế trong thực thi; từ đó, đề xuất nghiên cứu, tiếp thu có chọn lọc, phù hợp với điều kiện của Việt Nam nhằm hoàn thiện pháp luật theo hướng nội luật hóa các cam kết quốc tế, đồng thời, đề xuất tích hợp trách nhiệm đào tạo nghề như một tiêu chí trong các công cụ chính sách phát triển bền vững.
Khung pháp lý về hợp đồng thông minh ở Ý, Ba Lan dưới góc nhìn so sánh và định hướng hoàn thiện pháp luật Việt Nam*

Khung pháp lý về hợp đồng thông minh ở Ý, Ba Lan dưới góc nhìn so sánh và định hướng hoàn thiện pháp luật Việt Nam*

Tóm tắt: Sự phát triển của các công nghệ mới đã và đang tạo ra những tác động đa dạng đối với hệ thống pháp luật hiện hành. Hợp đồng thông minh là một trong những hình thái của công nghệ mới, đặt ra những vấn đề về khả năng áp dụng các quy phạm truyền thống của pháp luật hợp đồng đối với thỏa thuận được thiết lập thông qua hợp đồng thông minh. Ý và Ba Lan là hai quốc gia có sự khác biệt trong việc ghi nhận giá trị pháp lý và khả năng thực thi đối với hợp đồng thông minh. Bài viết nghiên cứu, phân tích quy định pháp luật về hợp đồng thông minh của Ý và Ba Lan, từ đó, đưa ra một số đề xuất, kiến nghị để Việt Nam nghiên cứu, tiếp thu có chọn lọc hoàn thiện quy định pháp luật về hợp đồng thông minh.
Mô hình tổ chức và hoạt động thi hành án hình sự của Úc và khuyến nghị cho Việt Nam

Mô hình tổ chức và hoạt động thi hành án hình sự của Úc và khuyến nghị cho Việt Nam

Nghiên cứu, tham khảo, tiếp thu có chọn lọc kinh nghiệm quốc tế là một trong những nội dung quan trọng trong việc hoàn thiện mô hình tổ chức và hoạt động thi hành án hình sự ở Việt Nam. Bài viết nghiên cứu mô hình tổ chức và hoạt động thi hành án hình sự của Úc, từ đó, đưa ra một số khuyến nghị nhằm tiếp tục hoàn thiện pháp luật thi hành án hình sự của Việt Nam trong thời gian tới.
Xung đột giữa quyền tự do biểu đạt và quyền đối với nhãn hiệu từ thực tiễn Hoa Kỳ và Liên minh châu Âu - Một số kiến nghị hoàn thiện pháp luật Việt Nam

Xung đột giữa quyền tự do biểu đạt và quyền đối với nhãn hiệu từ thực tiễn Hoa Kỳ và Liên minh châu Âu - Một số kiến nghị hoàn thiện pháp luật Việt Nam

Sự xung đột giữa quyền tự do biểu đạt và quyền đối với nhãn hiệu ngày càng trở nên phổ biến trong bối cảnh phát triển của truyền thông và công nghệ. Vấn đề cân bằng giữa hai quyền này cần được xem xét để bảo vệ quyền lợi chính đáng của chủ sở hữu nhãn hiệu và không hạn chế một cách bất hợp lý quyền tự do biểu đạt của người dùng. Bài viết nghiên cứu, phân tích sự cân bằng giữa quyền tự do biểu đạt và quyền nhãn hiệu trong thực tiễn tại Hoa Kỳ và Liên minh châu Âu (EU), từ đó, đề xuất một số kiến nghị hoàn thiện pháp luật Việt Nam.
Bảo hộ tác phẩm tạo ra từ trí tuệ nhân tạo theo pháp luật Hoa Kỳ và gợi mở hoàn thiện pháp luật Việt Nam

Bảo hộ tác phẩm tạo ra từ trí tuệ nhân tạo theo pháp luật Hoa Kỳ và gợi mở hoàn thiện pháp luật Việt Nam

Những vấn đề của trí tuệ nhân tạo (AI) được xem xét không chỉ dưới góc độ pháp lý mà còn dưới góc độ đạo đức xã hội, vì vậy, việc giải quyết những thách thức này phải cân bằng giữa pháp luật và xã hội để bảo đảm thúc đẩy phát triển bền vững. Bài viết phân tích các vấn đề chung về bảo hộ tác phẩm do AI tạo ra trong kỷ nguyên phát triển bền vững. Trên cơ sở tiếp cận từ pháp luật Hoa Kỳ - quốc gia đi đầu trong công nghệ, đặc biệt là AI, nghiên cứu gợi mở một số kinh nghiệm cho Việt Nam dựa trên thực trạng bảo hộ tác phẩm ở Việt Nam.
So sánh mô hình quản lý luật sư tại Ethiopia, Nigeria với Việt Nam

So sánh mô hình quản lý luật sư tại Ethiopia, Nigeria với Việt Nam

Luật sư và nghề luật sư ngày càng đóng vai trò quan trọng trong đời sống xã hội của các quốc gia trên thế giới. Dựa trên yếu tố về truyền thống, văn hóa - xã hội, mỗi quốc gia sẽ có mô hình quản lý luật sư khác nhau. Bài viết nghiên cứu, phân tích, đánh giá tổng quan về cách thức quản lý luật sư ở Ethiopia và Nigeria; đồng thời, liên hệ so sánh với cách thức quản lý luật sư ở Việt Nam; từ đó, đưa ra một số đề xuất nhằm hoàn thiện mô hình quản lý luật sư ở Việt Nam.
Cơ chế kiểm soát quyền lực tại Hoa Kỳ và một số gợi mở cho Việt Nam

Cơ chế kiểm soát quyền lực tại Hoa Kỳ và một số gợi mở cho Việt Nam

Bài viết nghiên cứu cơ chế kiểm soát quyền lực tại Hoa Kỳ - quốc gia theo thể chế tổng thống điển hình, với sự phân quyền chặt chẽ giữa các nhánh quyền lực nhà nước; đồng thời, phân tích những ưu điểm, hạn chế và thách thức của cơ chế này trong bối cảnh chính trị - pháp lý và xã hội hiện nay, gồm cả những biến động trong hệ thống chính trị toàn cầu. Trên cơ sở đó, gợi mở một số kinh nghiệm cho Việt Nam nghiên cứu, tiếp thu có chọn lọc để hoàn thiện cơ chế kiểm soát quyền lực nhà nước, phù hợp với đặc thù chính trị, kinh tế, văn hóa - xã hội.

Theo dõi chúng tôi trên: