1. Đặt vấn đề
Tự động hóa dịch vụ hành chính công là một trong những nhiệm vụ trọng tâm của Chính phủ số theo Quyết định số 942/QĐ-TTg ngày 15/6/2021 của Thủ tướng Chính phủ phê duyệt Chiến lược phát triển Chính phủ điện tử hướng tới Chính phủ số giai đoạn 2021 - 2025, định hướng đến năm 2030[2]. Trong đó, sử dụng trí tuệ nhân tạo (Artificial Intelligence - AI) để vận hành tối ưu các hoạt động của cơ quan nhà nước, cho phép cơ quan nhà nước không cần tự mình thực hiện thủ tục hành chính. Đây cũng là một trong những định hướng phát triển Chính phủ điện tử ở Việt Nam và các quốc gia. Bên cạnh đó, các nghiên cứu cho thấy AI có thể mang lại những rủi ro như: Rủi ro về dữ liệu đào tạo hệ thống, rủi ro về tính chính xác, minh bạch và rủi ro về khả năng chịu trách nhiệm đối với thiệt hại của AI[3]. Do đó, để quyết định hành chính được thực hiện tự động, Việt Nam cần có quy định pháp luật điều chỉnh về vấn đề này và giải quyết những hạn chế của AI, bảo đảm hoạt động của AI minh bạch, chính xác và an toàn với quyền, lợi ích của người dân.
Ở cấp độ pháp luật quốc gia, hiện nay, Hoa Kỳ đã công nhận sự hiện diện của AI trong hoạt động Chính phủ thông qua một đạo luật chính thức[4], trong đó, mô tả những khả năng công việc mà AI có thể thực hiện, không giới hạn cụ thể yêu cầu của con người.
Theo nghiên cứu, có thể xác định các công việc mà cơ quan nhà nước có thể áp dụng AI để thực hiện là: Tổng hợp thông tin, dữ liệu, phân tích dữ liệu để đưa ra các dự đoán; đưa ra các khuyến nghị (đề xuất) đối với yêu cầu của con người; đưa ra các quyết định (kết quả của yêu cầu) một cách tự động dựa trên mục tiêu con người đã thiết lập. Các công việc trên được AI thực hiện tự động hoặc bán tự động, dựa trên truy cập và xử lý dữ liệu do AI tự tìm kiếm được hoặc con người cung cấp.
2. Pháp luật của Estonia về sử dụng trí tuệ nhân tạo để hỗ trợ ra quyết định trong hoạt động của cơ quan nhà nước
Năm 2020, Estonia đã công bố ý định xây dựng đạo luật chung về AI. Quá trình này sớm bị đình chỉ do Liên minh châu Âu (EU) cũng đang xây dựng dự thảo Luật Trí tuệ nhân tạo. Vì vậy, trên phạm vi quốc gia, Estonia đang sửa đổi dự thảo Luật Thủ tục hành chính (APA)[5], theo đó, quy định tự động hóa toàn bộ thủ tục hành chính hoặc một/một vài giai đoạn cụ thể của quy trình. Quan điểm sử dụng AI để hỗ trợ ra quyết định trong hành chính công trong Dự thảo Luật này được xác định:
Một là, để tự động hóa thì cần phải xử lý dữ liệu cá nhân, cơ quan nhà nước có thể ban hành quyết định hành chính tự động thông qua hệ thống thông tin điện tử mà không cần sự tham gia trực tiếp của cơ quan nhà nước hoặc người có thẩm quyền trong cơ quan nhà nước trong các trường hợp do pháp luật quy định (khoản 1 Điều 7 APA). Estonia không công nhận tất cả thủ tục hành chính đều có thể xử lý tự động hóa mà điều này chỉ diễn ra trong điều kiện nhất định.
Hai là, để thủ tục hành chính diễn ra tự động cần phải đáp ứng các điều kiện sau (khoản 2 Điều 7 APA):
(i) Tự động hóa phải có lợi cho cả chính phủ cũng như người chịu ảnh hưởng bởi quyết định tự động, phải tiết kiệm thời gian và tạo điều kiện thuận lợi cho quản lý nhà nước. Không thể biện minh cho việc tự động hóa đối xử bất lợi với người tham gia chỉ vì lý do khó khăn về hành chính và kỹ thuật[6].
(ii) Cơ sở pháp lý hình thành quy định thuật toán cho việc ra quyết định không cho phép cơ quan nhà nước có quyền tùy nghi khi áp dụng pháp luật trong việc ra quyết định hành chính.
AI hoạt động dựa trên thuật toán - một tập hợp các quy tắc do con người lập trình nên, do đó các hành động của AI đều thực hiện theo yêu cầu của con người. Đối với các thủ tục hành chính trong đó pháp luật trao quyền tùy nghi cho cơ quan nhà nước, không thể lập trình thuật toán để AI cũng có năng lực cân nhắc theo từng tình huống thực tế cụ thể như con người mà cần con người (ở đây là người có thẩm quyền) tự mình xem xét các yếu tố liên quan và đưa ra quyết định linh hoạt phù hợp với mỗi tình huống khác nhau.
(iii) Cơ sở pháp lý hình thành quy định thuật toán cho việc ra quyết định không chứa các khái niệm pháp lý mơ hồ không xác định rõ ràng, tồn tại nhiều cách hiểu khác nhau. Không phải tất cả quy định pháp luật đều có thể mã hóa sang dạng thuật toán. Càng khó hơn nếu bản thân quy định pháp luật mà thuật toán dựa vào để ra quyết định đã mang hạn chế, thiếu sót nhất định hay thậm chí thiếu tính khả thi với cả con người.
Điều kiện (ii) và (iii) không phải là một điều kiện hạn chế tuyệt đối. Cơ quan nhà nước vẫn có thể sử dụng AI ra quyết định tự động nếu xây dựng một quy tắc hướng dẫn hành chính nội bộ cung cấp tới các chủ thể tham gia thủ tục hành chính. Nội dung hướng dẫn bao gồm: Thống nhất cách hiểu đối với các khái niệm pháp lý, đánh giá các tình huống để làm rõ các tiêu chí ra quyết định và các vấn đề quan trọng khác.
(iv) Bảo đảm đầy đủ và không sai lệch dữ liệu cho hoạt động của AI trong trường hợp thủ tục hành chính được tiến hành mà không cần nghe ý kiến và phản đối của người tham gia[7] (tiểu mục 4 khoản 2 Điều 7 APA).
Nhiệm vụ chính của cơ quan nhà nước là ngăn chặn các tình huống ảnh hưởng bất lợi đến người tham gia thủ tục hành chính chứ không phải giải quyết hậu quả sau khi đã xảy ra[8]. Vì vậy, Estonia chỉ cho phép tự động hóa những quyết định được phép tiến hành khi không cần nghe ý kiến và phản đối của người tham gia. Theo giải thích tại Thư giải trình của Chính phủ Estonia về nội dung APA, quy định như trên nhằm củng cố nghĩa vụ của cơ quan nhà nước về việc bảo đảm rằng thông tin mà AI dựa vào là đầy đủ, chính xác và người dân không cần phải ý kiến bổ sung hoặc phản đối.
(v) Quy trình ra quyết định của AI không gây bất ngờ và dễ hiểu đối với người bị ảnh hưởng bởi quyết định. Điều này nhằm tăng tính minh bạch, kiểm soát rủi ro đối với các quyết định của AI. Người bị ảnh hưởng bởi quyết định có quyền được biết rằng ngay từ đầu thủ tục diễn ra tự động và diễn ra như thế nào (tiểu mục 5 khoản 2 Điều 7 APA).
(vi) Không tự động hóa thủ tục hành chính đối với các quyết định bất lợi cho người thứ ba (tiểu mục 6 khoản 2 Điều 7 APA). Điều này có thể giải thích dựa theo cách tiếp cận của nguyên tắc bảo đảm đầy đủ dữ liệu tại tiểu mục 4 khoản 2 Điều 7 APA, theo đó, cơ quan nhà nước không có đầy đủ thông tin dữ liệu về bên thứ ba nên việc tự động hóa trong trường hợp này không được tiến hành.
Ba là, quyền tiếp cận thông tin và quyền được giải thích lý do cho các quyết định tự động phải được bảo đảm, ngoại trừ một số trường hợp ngoại lệ hạn chế (khoản 3 Điều 7 APA).
Cơ quan sử dụng AI cho hoạt động của mình phải công khai cung cấp thông tin cho người dân về hướng dẫn hành chính, thông tin về tham số công nghệ thông tin để AI dựa vào đó ra quyết định, giải thích dễ hiểu về lô gíc vận hành của thuật toán và các giải thích chung khác về cơ sở pháp lý của quyết định được đưa ra. Các thông tin được cung cấp trên sẽ là cơ sở bằng chứng để người dân khiếu nại đối với quyết định tự động của AI nếu họ cảm thấy kết quả quyết định là không hợp lý.
Bốn là, cơ quan nhà nước không được sử dụng thuật toán học máy (Machine Learning Algorithms)[9] cho phép tự động thay đổi tham số ban đầu do con người đặt ra hoặc thuật toán có các tham số chung và lôgíc vận hành không được giải thích trong hướng dẫn hành chính (khoản 3 Điều 7 APA). Chỉ những AI được kiểm soát bởi con người, xác định trước yếu tố đầu vào và yếu tố đầu ra, thuật toán và lôgíc vận hành có thể giải thích dễ hiểu mới được sử dụng để ra quyết định hành chính tự động trong hoạt động cơ quan nhà nước, từ đó, bảo đảm kết quả được đưa ra bởi AI là tương tự với kết quả được đưa ra bởi con người.
Năm là, các cơ quan nhà nước có thể cung cấp dịch vụ công chủ động[10] nếu điều đó có lợi một cách rõ ràng đối với người bị ảnh hưởng và pháp luật cho phép thủ tục diễn ra tự động (khoản 4 Điều 7 APA).Vì “lợi ích rõ ràng” của người dân nêu trên chỉ là giả định, dựa trên suy đoán lợi ích rõ ràng của dịch vụ mà không dựa trên một hành vi thể hiện ý chí rõ ràng của người dân, nên cơ quan nhà nước phải bảo đảm quyền từ chối của người nhận dịch vụ tự động, bao gồm: Quyền từ chối ra quyết định tự động và xử lý dữ liệu tự động.
Sáu là, quyền được thông báo của người bị ảnh hưởng bởi thủ tục hành chính tự động (khoản 4 Điều 55 APA), theo đó, khi thủ tục hành chính được diễn ra tự động, cơ quan nhà nước phải thông báo đến người bị ảnh hưởng về việc quyết định được ban hành tự động hóa bởi máy móc thay vì con người.
Về vấn đề xác định trách nhiệm pháp lý đối với thiệt hại do AI gây ra, mặc dù Đạo luật Trách nhiệm nhà nước Estonia quy định rằng, việc xác định trách nhiệm pháp lý của cơ quan nhà nước khi yêu cầu bồi thường thiệt hại phải dựa trên yếu tố lỗi, nếu người bị thiệt hại không thể chứng minh lỗi thuộc về cơ quan nhà nước thì yêu cầu không được chấp nhận[11]. Tuy nhiên, các án lệ của Estonia gần đây đang giải quyết theo hướng loại bỏ yếu tố lỗi trong các yêu cầu về điều kiện bồi thường thiệt hại, giả định lỗi thuộc về cơ quan nhà nước[12]. Khi thiệt hại xảy ra, người bị thiệt hại bởi hoạt động của AI không cần phải thực hiện nghĩa vụ chứng minh, lỗi được suy đoán thuộc về cơ quan nhà nước và để thoát khỏi trách nhiệm bồi thường thiệt hại, cơ quan nhà nước phải chứng minh.
Nhìn chung, APA đã cung cấp các quy định điều chỉnh vấn đề ra quyết định tự động trong hoạt động của cơ quan nhà nước, tạo cơ sở để Chính phủ Estonia ứng dụng AI trong hoạt động của mình. Nhằm bảo đảm an toàn và hạn chế rủi ro, APA đã xác định tự động hóa chỉ diễn ra trong trường hợp nhất định và điều kiện nhất định, trong đó, điều kiện đầu tiên cần xem xét là lợi ích của việc tự động hóa phải lớn hơn chi phí rủi ro và cả người dân cùng chính phủ đều nhận được lợi ích. Cách tiếp cận của APA cho thấy, sự thận trọng đối với tính chính xác của thuật toán AI, giai đoạn này Estonia không cố gắng để ứng dụng tối đa khả năng của AI vào Chính phủ mà ưu tiên vấn đề chính xác, an toàn của AI.
Tuy nhiên, còn một số vấn đề hạn chế của AI mà Estonia chưa giải quyết được như các vấn đề dữ liệu đầu vào, quản lý rủi ro và trách nhiệm giám sát vận hành AI của cơ quan nhà nước. Cùng với đó, nhóm tác giả cho rằng cách tiếp cận của APA về quyền ý kiến và phản đối của người bị ảnh hưởng bởi quyết định tự động có phần không hợp lý đối với AI. Tiểu mục 4 khoản 2 Điều 7 APA quy định rằng chỉ những thủ tục hành chính được pháp luật cho phép được tiến hành mà không cần nghe ý kiến và phản đối của người tham gia thì mới có thể diễn ra tự động hóa. Hay nói cách khác, APA không cho phép sử dụng AI trong trường hợp người bị ảnh hưởng bởi quyết định có quyền ý kiến và phản đối, hạn chế này quá nghiêm ngặt[13]. Sẽ hợp lý hơn nếu pháp luật chỉ hạn chế cơ quan nhà nước tự động hóa thủ tục hành chính khi thực sự có yêu cầu phản đối được đưa ra, các trường hợp còn lại vẫn có thể ra quyết định tự động.
3. Những giá trị tham khảo cho Việt Nam
Khi xây dựng hành lang pháp lý cho việc ứng dụng AI hỗ trợ ra quyết định hành chính, Việt Nam có thể tham khảo những kinh nghiệm phù hợp của pháp luật hành chính Estonia như sau:
Thứ nhất, về nguyên tắc, việc sử dụng AI phải mang lại lợi ích cho người dân, chính quyền và xã hội lớn hơn đáng kể so với rủi ro. Quyết định hành chính ảnh hưởng bất lợi với bên thứ ba, có tính chất phức tạp thì không được áp dụng tự động hóa.
Khác với Estonia có dân số ít và trình độ công nghệ cao[14], khả năng tiếp cận công nghệ của người dân Việt Nam chưa đồng đều. Vì vậy, trước khi ứng dụng AI, cơ quan nhà nước phải đánh giá khả năng tiếp cận của người dân và chỉ triển khai nếu không gây ra bất bình đẳng và khoảng cách số do chênh lệch khả năng tiếp cận công nghệ.
Thứ hai, cơ quan nhà nước phải thực hiện đánh giá và kiểm soát rủi ro liên tục trong suốt quá trình trước và trong khi AI hoạt động. Các vấn đề cần phải đánh giá bao gồm dữ liệu đào tạo AI, quy định pháp luật mà thuật toán dựa vào để đưa ra quyết định, khả năng sai lệch kết quả do hạn chế của thuật toán. Bảo đảm rủi ro tổng thể toàn bộ quy trình ra quyết định của AI đạt ngưỡng chấp nhận được. Dữ liệu phải trải qua biện pháp tiền xử lý, bảo đảm phù hợp, đầy đủ, mang tính đại diện, không có lỗi, hoàn chỉnh và không mang nội dung phân biệt đối xử. Quy định pháp luật mà thuật toán dựa vào để ra quyết định không chứa các khái niệm pháp lý mơ hồ và không có tính tùy nghi. Các cơ quan nhà nước có thể khắc phục hạn chế này bằng cách ban hành văn bản làm rõ quy định pháp luật về các khái niệm pháp lý và tiêu chí ra quyết định đối với các tình huống để hướng dẫn sử dụng AI.
Thứ ba, bảo đảm quyền kiểm soát và can thiệp của con người đối với AI. Bảo đảm việc kiểm duyệt kết quả quyết định của AI và có khả năng thực hiện các biện pháp ngăn chặn sai lệch, thay đổi kết quả khi cần thiết… Trong trường hợp việc sử dụng AI gây ra thiệt hại, cơ quan nhà nước phải chịu trách nhiệm đối với thiệt hại gây ra.
Thứ tư, bảo đảm quyền được thông báo, quyền tiếp cận thông tin, quyền phản đối[15] và quyền được giải thích của người dân khi thực hiện thủ tục hành chính tự động. Khi sử dụng AI để ra quyết định, cơ quan nhà nước phải thông báo cho người bị ảnh hưởng bởi quyết định về điều này từ đó làm cơ sở để các quyền khác được thực hiện; công bố các thông tin về quy trình ra quyết định tự động cần được cung cấp công khai, bao gồm thông tin về tham số và lô gíc vận hành thuật toán, thông tin về quy định pháp luật dùng làm cơ sở cho thuật toán kèm theo giải thích làm rõ khái niệm pháp lý và tiêu chí ra quyết định đối với các tình huống (nếu có).
Thứ năm, cần thành lập cơ quan ứng dụng AI trong Chính phủ số để hỗ trợ tư vấn kỹ thuật, tư vấn chính sách và hỗ trợ về nguồn nhân sự có trình độ về AI, tham gia kiểm duyệt kết quả, đánh giá rủi ro và phương án hạn chế rủi ro khi sử dụng AI của cơ quan nhà nước trước khi chính thức triển khai áp dụng; thành lập cơ quan có thẩm quyền thanh tra, kiểm tra, giám sát việc sử dụng AI trong hoạt động của cơ quan nhà nước.
ThS. Nguyễn Thị Khánh
Trường Đại học Tài chính Ngân hàng Hà Nội
Nguyễn Thị Lâm Vy
Sinh viên Trường Đại học Tài chính - Ngân hàng Hà Nội
[1]. Bài viết được thực hiện dựa trên đề tài nghiên cứu khoa học: “Kinh nghiệm quốc tế về chính phủ điện tử - Giải pháp hoàn thiện pháp luật Việt Nam” do sinh viên Nguyễn Thị Lâm Vy thực hiện, Giảng viên hướng dẫn: ThS. Nguyễn Thị Khánh.
[2]. Xem thêm về Phần V Quyết định số 942/QĐ-TTg.
[3]. Gavighan, C., Knott, A., Maclaurin, J., Zerilli, J., & Liddicoat, J. (2019), ‘Government use of artificial intelligence in New Zealand’, The New Zealand Law Foundation, xem: https://www.researchgate.net/publication/338701988_ Government_Use_of_Artificial_Intelligence_in_New_Zealand, truy cập ngày 30/5/2023.
[4]. Xem: Đạo luật Hợp nhất ngân sách năm tài khóa 2021 của Hoa Kỳ tại https://www.congress.gov/116/crpt/hrpt617/CRPT-116hrpt617.pdf#page=1210; Đạo luật Ủy quyền quốc phòng năm tài khóa 2019 của Hoa Kỳ tại https://www.congress.gov/115/plaws/publ232/PLAW-115publ232.pdf.
[5]. Xem: Dự thảo Luật sửa đổi Luật Thủ tục hành chính và sửa đổi các đạo luật khác liên quan 634 SE tại Trang thông tin điện tử của Quốc hội Estonia, nguồn: https://www.riigikogu.ee/tegevus/eelnoud/eelnou/21f6df90-a333-413a-a533-ebbf7e9deebe/ Haldusmenetluse%20seaduse%20muutmise%20ja%20sellega%20seonduvalt%20teiste%20seaduste%20muutmise%20seadus, truy cập ngày 20/4/2023.
[6]. Xem: Thư giải trình Chính phủ Estonia về Dự thảo sửa đổi Luật Thủ tục hành chính và các đạo luật khác liên quan (634 SE), nguồn: Trang thông tin điện tử của Quốc hội Estonia: https://www.riigikogu.ee/tegevus/eelnoud/eelnou/21f6df90-a333-413a-a533-ebbf7e9deebe/Haldusmenetluse%20seaduse%20muutmise%20ja%20sellega%20seonduvalt% 20teiste%20seaduste%20muutmise%20seadus, truy cập ngày 20/4/2023.
[7]. Xem thêm về các trường hợp được tiến hành thủ tục hành chính mà không cần nghe ý kiến và phản đối của người tham gia thủ tục hành chính tại Điều 40(3) Luật Thủ tục hành chính năm 2002 Estonia tại: https://www.riigiteataja.ee/ en/eli/527032019002/consolide.
[8]. Điều 14 Hiến pháp năm 2015 Estonia, https://www.riigiteataja.ee/en/eli/ee/521052015001/consolide/current.
[9]. Theo Sec.5002(11) Division E Đạo luật Ủy quyền quốc phòng năm tài khóa 2021 Hoa Kỳ: “Thuật ngữ ‘’máy học’’ có nghĩa là một ứng dụng của trí tuệ nhân tạo được đặc trưng bởi việc cung cấp cho các hệ thống khả năng tự động học và cải thiện trên cơ sở dữ liệu hoặc kinh nghiệm, mà không được lập trình rõ ràng”.
Cùng với đó, Quy chế của Nghị viện châu Âu đối với Dự thảo Luật Trí tuệ nhân tạo tuy không đưa ra định nghĩa về học máy nhưng giải thích rằng học máy là một trong các kỹ thuật được sử dụng để tiếp cận AI, bao gồm học có giám sát (supervised learning), học không giám sát (unsupervised learning) và học tăng cường (reinforcement learning); học máy sử dụng nhiều phương pháp trong đó có học sâu (deep learning).
[10]. ”Dịch vụ công chủ động” được giải thích tại Điều 2(3) Quy định số 88 Estonia về nguyên tắc quản lý dịch vụ và quản trị thông tin trong cơ quan chính phủ: “Các dịch vụ chủ động là các dịch vụ công do cơ quan có thẩm quyền chủ động cung cấp phù hợp với mong muốn giả định của người dân dựa trên dữ liệu của cơ hệ thống sở dữ liệu quốc gia. Các dịch vụ chủ động được cung cấp tự động hoặc với sự đồng ý của một người”.
[11]. Xem thêm tại Điều 7 Đạo luật Trách nhiệm nhà nước Estonia tại https://www.riigiteataja.ee/en/eli/ 515112013007#:~:text=(1)%20This%20Act%20provides%20the,damage%20caused%20(state%20liability.
[12]. Ivo Pilving (2023), ‘Guidance-based Algorithms for Automated Decision-Making in Public Administration: the Estonian Perspective’, CERIDAP, https://ceridap.eu/guidance-based-algorithms-for-automated-decision-making-in-public-administration-the-estonian-perspective/?lng=en.
[13]. Ivo Pilving (2023), Tlđd.
[14]. Xem: https://nhandan.vn/estonia-tro-thanh-dat-nuoc-cong-nghe-cao-tu-ban-tay-trang-post576036.html, truy cập ngày 20/5/2023.
[15]. Quyền phản đối có thể được thực hiện trước khi thủ tục diễn ra và sau khi có quyết định.
(Nguồn: Tạp chí Dân chủ và Pháp luật Kỳ 1 (Số 386), tháng 8/2023)