top of page
icj 1.jpeg

[61] PHÂN TÍCH KHOẢN 1 ĐIỀU 5 ĐẠO LUẬT AI CỦA EU: HÀNH VI BỊ CẤM VÀ BÀI HỌC CHO VIỆT NAM

  • Nguyễn Bùi Dũng, Đỗ Vũ Thái Quỳnh
  • 1 thg 8
  • 22 phút đọc

Bài viết này được đăng tại Kỷ yếu Hội thảo Khoa học cho Sinh viên về Luật quốc tế lần thứ ba với chủ đề "Trí tuệ Nhân tạo (AI) và những vấn đề pháp lý" của Khoa Luật Quốc tế - Học viện Ngoại giao năm 2024.

Tác giả: Nguyễn Bùi Dũng[1], Đỗ Vũ Thái Quỳnh[2]


Tóm tắt: Đạo luật AI của Liên minh Châu Âu chính thức được áp dụng từ ngày 1 tháng 8 năm 2024 sau khi được đề xuất lần đầu tiên năm 2020 đã đánh dấu sự ra đời của bộ quy tắc đầu tiên và toàn diện nhất trên thế giới đối với lĩnh vực trí tuệ nhân tạo. Mục tiêu của đạo luật này là thiết lập một khuôn khổ pháp lý vững chắc nhằm điều chỉnh việc phát triển và ứng dụng AI một cách an toàn, minh bạch và đảm bảo sự tuân thủ đối với các quyền cơ bản của con người. Điểm nổi bật trong đạo luật là Điều 5, điều khoản này nêu rõ các hành vi bị nghiêm cấm trong sử dụng và phát triển công nghệ AI, bao gồm việc lạm dụng AI để thao túng hành vi, khai thác điểm yếu của nhóm dân số nhất định, hoặc việc triển khai hệ thống chấm điểm xã hội bởi các cơ quan nhà nước. Đạo luật cũng thiết lập một hệ thống phân loại rủi ro cho các ứng dụng AI, từ cấp độ không thể chấp nhận đến cấp độ rủi ro thấp, mỗi cấp độ đều có bộ quy định riêng biệt. Đạo luật này không chỉ góp phần quan trọng trong việc quản lý AI ở châu Âu mà còn trở thành tài liệu tham khảo cho các quốc gia khác, trong đó có Việt Nam trong việc xây dựng chính sách và quy định về trí tuệ nhân tạo. Bài viết này sẽ tập trung nghiên cứu những nội dung được quy định tại khoản 1 Điều 5 Đạo luật AI của EU đồng thời đề xuất một khuôn khổ pháp lý cho việc quản lý sử dụng và phát triển AI phù hợp với thực tiễn Việt Nam nhằm đảm bảo sự đổi mới và phát triển công nghệ diễn ra song hành với việc bảo vệ an toàn, minh bạch và quyền lợi của các bên liên quan.


Từ khóa: Đạo luật AI, Khoản 1 Điều 5 đạo luật AI, Các hành vi bị cấm, Khung pháp lý.


1. Dẫn nhập

Dưới tác động của cuộc Cách mạng công nghiệp 4.0, đặc biệt là sự tiến bộ vượt bậc của trí tuệ nhân tạo (AI) - một trong ba trụ cột chính của cách mạng số đã tạo ra những thay đổi sâu rộng trong nhiều lĩnh vực đời sống kinh tế và xã hội. Tuy nhiên, sự phát triển của AI cũng đặt ra những thách thức to lớn trong việc quản lý rủi ro và đảm bảo đạo đức trách nhiệm khi ứng dụng công nghệ này. Trong bối cảnh đó, Liên minh châu Âu (EU) đã tiên phong trong việc thiết lập các quy định toàn diện đầu tiên nhằm quản lý AI. Tháng 3 năm 2024, Đạo luật quản lý trí tuệ nhân tạo (AI Act) chính thức được Nghị viện châu Âu thông qua[3] đã đặt nền tảng pháp lý đầu tiên trên thế giới về quản lý AI. Điểm đáng chú ý của Đạo luật này là Điều 5 khi đã quy định các hành vi bị cấm nhằm bảo vệ quyền lợi của công dân và đảm bảo AI được đưa ra thị trường và sử dụng một cách có trách nhiệm. 

Tại Việt Nam, khung pháp lý về AI được quy định trong dự thảo Luật Công nghiệp công nghệ số vẫn đang trong giai đoạn xây dựng và phát triển. Việc nghiên cứu khoản 1 Điều 5 Đạo luật AI của EU mang lại những bài học quý giá trong việc xây dựng, điều chỉnh các quy định phù hợp với thực tiễn phát triển và ứng dụng trí tuệ nhân tạo tại Việt Nam. Nghiên cứu này sẽ phân tích chi tiết các quy định trong khoản 1 Điều 5, đánh giá tác động và rút ra những khuyến nghị cho Việt Nam.


2. Cơ sở lý thuyết và các khái niệm liên quan

2.1. Khái niệm

Từ những năm 50 của thế kỷ XX, thuật ngữ “trí tuệ nhân tạo” xuất hiện lần đầu tiên khi nhà khoa học máy tính người Mỹ John McCarthy nhắc đến tại Hội nghị Dartmouth để mô tả ngành khoa học kỹ thuật tạo ra máy móc thông minh có thể bắt chước hành vi của con người.[4]  Kể từ đó, hệ thống AI đã phát triển không ngừng và sự xuất hiện cũng ngày càng phổ biến nhờ những thành tựu mà nó mang lại. 

Theo đạo luật AI của EU, “Hệ thống AI” là một hệ thống dựa trên học máy (machine-based system) được thiết kế để hoạt động với nhiều mức độ tự chủ (autonomy) khác nhau và có thể thể hiện khả năng thích ứng sau khi triển khai, và đối với các mục tiêu rõ ràng hoặc tiềm ẩn, từ dữ liệu đầu vào mà nó nhận được, sẽ suy ra cách tạo ra những kết quả như dự đoán, nội dung, khuyến nghị hoặc quyết định có thể ảnh hưởng đến môi trường vật lý hoặc ảo.[5] 

Trong dự thảo Luật Công nghiệp công nghệ số, định nghĩa về “Hệ thống AI” được trình bày với nội dung tương tự với định nghĩa được nêu trong Đạo luật AI của EU.[6]


2.2. Tổng quan về Đạo luật AI của EU

Đạo luật AI của EU có hiệu lực vào tháng 08/2024[7] là luật AI toàn diện đầu tiên trên thế giới.[8] Đạo luật này nhằm giải quyết các rủi ro đối với sức khỏe, sự an toàn và các quyền cơ bản khi triển khai trí tuệ nhân tạo. Những quy định trong đạo luật cũng bảo vệ nền dân chủ, pháp quyền và môi trường trong khu vực.

Đạo luật AI đưa ra một khuôn khổ thống nhất trên tất cả các quốc gia thành viên EU với cách tiếp cận dựa trên mức độ rủi ro: (1) Rủi ro không chấp nhận được: bao gồm các hệ thống AI đặc biệt có hại, vi phạm các quyền cơ bản và do đó sẽ bị cấm;[9] (2) Rủi ro cao: Các hệ thống AI có khả năng gây ra tác động tiêu cực đến sự an toàn hoặc các quyền cơ bản của con người (được bảo vệ bởi Hiến chương về các quyền cơ bản của EU); (3) Rủi ro thiếu tính minh bạch: Rủi ro này có nguồn gốc từ việc thiếu tính minh bạch khi sử dụng hệ thống AI và (4) Rủi ro tối thiểu: những hệ thống này không chịu ràng buộc về mặt pháp lý và được phép sử dụng tự do.[10]


3. Điều 5 Đạo luật AI của EU

Quy định này của Đạo luật AI cấm đưa ra thị trường, đưa vào sử dụng và sử dụng một số hệ thống AI nhất định. Việc sử dụng AI không được định nghĩa trong Đạo luật AI, nhưng các thuật ngữ “đưa ra thị trường” và “đưa vào sử dụng” đề cập đến các khái niệm cụ thể được định nghĩa trong Đạo luật AI.[11]


3.1. Làm biến đổi đáng kể hành vi, nhận thức của con người hoặc của nhóm người dễ bị tổn thương

Điểm a và b ngăn cấm việc đưa ra thị trường, đưa vào sử dụng và sử dụng các hệ thống AI có khả năng làm biến đổi việc đưa ra quyết định, nhận thức của con người theo hướng tiêu cực. Cả 2 điểm này đều nhằm bảo vệ cá nhân và nhóm người cụ thể khỏi việc bị lợi dụng sự thiếu hiểu biết hoặc điểm yếu của họ, từ đó làm phát sinh những hành vi hoặc quyết định gây hại hoặc có thể gây hại cho người đó và những người xung quanh.[12]

Hai điểm trên đề cập đến hệ thống AI áp dụng gây ảnh hưởng đến hành vi người dùng (có thể thông qua các kỹ thuật ngầm nằm ngoài nhận thức của người dùng hoặc thông qua lợi dụng những khuyết điểm của nhóm người dùng cụ thể, như tuổi tác, khuyết tật, hoàn cảnh xã hội và kinh tế). Những ảnh hưởng này có thể làm mất đi khả năng đưa ra quyết định của người dùng, khiến họ đưa ra những lựa chọn mà khi không bị ảnh hưởng bởi AI, họ sẽ không chọn. Biện pháp cấm này không nhất thiết phải tính đến liệu có ý định gây ra tác hại đối với người dùng hay không, miễn là tác hại đó xảy ra do các hành vi thao túng hoặc lợi dụng khi sử dụng AI.[13]

Các lệnh cấm đối với các hành vi thao túng và lợi dụng này không áp dụng đối với các hoạt động hợp pháp trong y tế như điều trị bệnh tâm thần hoặc phục hồi chức năng thể chất, khi các hoạt động đó tuân theo pháp luật và các tiêu chuẩn y tế, ví dụ như sự đồng ý rõ ràng của cá nhân hoặc đại diện hợp pháp của họ. Ngoài ra, các hoạt động thương mại hợp pháp, ví dụ như trong lĩnh vực quảng cáo cũng không được coi là cấu thành các hoạt động AI.[14]


3.2. Phân loại cá nhân và đánh giá khả năng phạm tội 

Điểm (c) ngăn cấm việc đưa ra thị trường, đưa vào sử dụng và sử dụng AI để phân loại cá nhân hoặc nhóm người dựa trên hành vi xã hội, đặc điểm cá nhân trong một khoảng thời gian nhất định.[15] Mục tiêu chính là ngăn chặn việc dùng AI để tạo ra “điểm số xã hội” (social score) có thể dẫn đến hệ quả tiêu cực cho con người, cụ thể là bị xâm phạm quyền riêng tư và sự phân biệt đối xử trong một tình huống cụ thể, dựa trên điểm số xã hội được thu thập trong bối cảnh không giống với tình huống thực sự đang diễn ra.[16] Ví dụ, nếu một cá nhân bị chấm điểm tín dụng thấp thì điều này không nên gây ảnh hưởng tới các vấn đề khác của họ, ví dụ như cơ hội việc làm…

Điểm (d) cấm việc đưa ra thị trường, đưa vào sử dụng và sử dụng hệ thống AI cho việc đánh giá rủi ro nhằm dự đoán khả năng phạm tội mà chỉ dựa trên việc phân tích hồ sơ cá nhân,[17] chẳng hạn như quốc tịch, nơi sinh, nơi cư trú, con cái, mức nợ hoặc dựa trên đặc điểm tính cách của người đó.[18] Việc dự đoán khả năng phạm tội chỉ dựa trên tính cách hay hồ sơ cá nhân mà không có sự tham gia đánh giá của con người nên bị cấm do hành vi này có thể dẫn đến những định kiến phân biệt đối xử và gây tổn hại không mong muốn. 

Tuy nhiên, ngoại lệ cho phép các hệ thống AI hỗ trợ con người đánh giá dựa trên các sự kiện khách quan liên quan trực tiếp đến một hành vi phạm tội đã được xác thực bởi con người.[19] Ngoài ra, lệnh cấm không áp dụng đối với việc phân tích rủi ro dựa trên các yếu tố hồ sơ cá nhân đặc điểm tính cách của cá nhân, chẳng hạn như hệ thống AI đánh giá khả năng gian lận tài chính của các doanh nghiệp dựa trên các giao dịch đáng ngờ hay công cụ của cơ quan hải quan dự đoán khả năng xác định vị trí giao dịch ma túy hoặc hàng hóa bất hợp pháp dựa trên các tuyến giao dịch đã được kiểm chứng trước đó.[20]

Tóm lại, điểm (c) và (d) đều nhằm bảo vệ con người trước những tác động tiềm tàng do AI gây ra, đảm bảo rằng việc sử dụng AI khi đánh giá cá nhân hoặc nhóm người cụ thể chỉ được sử dụng trong các giới hạn cho phép để ngăn ngừa sự phân biệt đối xử và xâm phạm quyền con người.


3.3. Thu thập hoặc dự đoán dựa trên những đặc điểm bên ngoài của con người trong các lĩnh vực khác nhau

3.3.1. Điểm e

Điểm e cấm việc đưa vào thị trường, triển khai, hoặc sử dụng các hệ thống AI nhằm tạo hoặc mở rộng các cơ sở dữ liệu nhận dạng khuôn mặt thông qua việc thu thập hình ảnh khuôn mặt từ internet hoặc CCTV mà không có mục đích cụ thể. Quy định này nhằm ngăn chặn việc xâm phạm quyền riêng tư và bảo vệ người dân khỏi cảm giác bị giám sát hàng loạt.[21]

Đồng thời, quyền riêng tư cơ bản của con người được bảo vệ bởi pháp luật cũng có thể bị xâm phạm nghiêm trọng.[22] Khi hình ảnh cá nhân bị thu thập và sử dụng mà người dùng không biết hoặc không đồng ý, hành vi này tiềm ẩn nguy cơ bị lạm dụng dữ liệu vào những mục đích không mong muốn.


3.3.2. Điểm f

Điểm f trong Đạo luật quy định rằng việc đưa vào thị trường, đưa vào sử dụng hoặc sử dụng các hệ thống AI nhằm suy luận cảm xúc của con người trong các lĩnh vực như nơi làm việc và các cơ sở giáo dục phải bị cấm.[23]

Điểm f phản ánh những mối lo ngại về tính chính xác của hệ thống AI trong việc suy luận cảm xúc của con người. Hiện tại, các hệ thống AI vẫn chưa đạt được mức độ tin cậy trong việc nhận diện và hiểu được cảm xúc do sự khác biệt trong biểu lộ cảm xúc của mỗi cá nhân phụ thuộc vào từng văn hóa và bối cảnh. Vì vậy, điều này có thể dẫn đến phán đoán sai lệch hoặc sự phân biệt đối xử. Hơn nữa, trong bối cảnh mất cân bằng quyền lực giữa người dùng AI và người bị dự đoán cảm xúc bởi AI trong môi trường làm việc và giáo dục, càng khiến các hệ thống này có khả năng tạo ra sự bất công và xâm phạm quyền tự do của cá nhân.[24]

Lệnh cấm đó không áp dụng đối các hệ thống AI được sử dụng riêng vì lý do y tế hoặc đảm bảo an toàn cho cá nhân, chẳng hạn như các hệ thống dùng cho mục đích điều trị.[25]


3.3.3. Điểm g 

Điểm g quy định rằng việc đưa vào thị trường, triển khai hoặc sử dụng các hệ thống phân loại cá nhân dựa trên dữ liệu sinh trắc học (như khuôn mặt, dấu vân tay) nhằm suy ra các đặc điểm của con người như chủng tộc, quan điểm chính trị, tư cách thành viên công đoàn, tín ngưỡng tôn giáo hoặc quan điểm triết học, đời sống tình dục hoặc xu hướng tình dục đều bị cấm.[26] Các hệ thống AI sử dụng dữ liệu sinh trắc học để suy luận một cách tùy tiện các đặc điểm riêng tư có thể xâm phạm nghiêm trọng quyền riêng tư cơ bản của con người, điều mà pháp luật luôn bảo vệ. 

Quy định này trao ngoại lệ cho việc dán nhãn, phân loại dữ liệu sinh trắc học phục vụ cho mục đích thực thi pháp luật, chẳng hạn như phân nhóm dựa trên đặc điểm sinh học như màu tóc hoặc màu mắt.[27] Các ngoại lệ này chỉ áp dụng cho các dữ liệu sinh trắc học được thu thập hợp pháp,[28] đảm bảo rằng dữ liệu sinh trắc học được sử dụng đúng mục đích và không để xảy ra tình trạng lạm dụng.


3.3.4. Điểm h

Điểm h quy định về việc cấm sử dụng hệ thống nhận dạng sinh trắc học thời gian thực (“real-time”) từ xa tại công cộng nhằm phục vụ mục đích thực thi pháp luật ngoại trừ một số trường hợp thực sự cần thiết.[29]

Cụ thể, điểm h quy định rằng việc sử dụng hệ thống nhận diện sinh trắc học từ xa theo thời gian thực trong không gian công cộng cho mục đích thực thi pháp luật chỉ được phép nếu cần thiết cho một trong ba mục tiêu sau: Tìm kiếm nạn nhân của bắt cóc, buôn bán người hoặc lạm dụng tình dục, cũng như tìm người mất tích; Ngăn chặn nguy cơ đe dọa đối với tính mạng hoặc an toàn của con người, hoặc mối đe dọa khủng bố có thể thấy; Xác định người bị nghi ngờ phạm tội nhằm phục vụ điều tra hình sự hoặc thi hành án.[30] Đây là những trường hợp khẩn cấp đòi hỏi biện pháp mạnh để bảo vệ sự an toàn cho xã hội.


4. Bài học cho Việt Nam trong việc xây dựng hệ thống pháp luật về quản lý AI

4.1. Sự cần thiết của việc xây dựng hệ thống pháp luật đối với AI tại Việt Nam

4.1.1. Về cơ sở lý luận

Năm 2019, Bộ Chính trị ban hành Nghị quyết số 52-NQ/TW, về một số chủ trương, chính sách chủ động tham gia cuộc Cách mạng công nghiệp lần thứ tư. Trong nghị quyết này, khái niệm “trí tuệ nhân tạo” lần đầu tiên được đề cập và xác định đây là một trong những lĩnh vực cần có chính sách ưu tiên phát triển.[31]

Năm 2020, Thủ tướng Chính phủ ký Quyết định số 2117/QĐ-TTg, ban hành danh mục công nghệ ưu tiên nghiên cứu, phát triển và ứng dụng để chủ động tham gia cuộc Cách mạng công nghiệp lần thứ tư.[32] Trong đó, Bộ Khoa học và Công nghệ xác định AI là công nghệ được ưu tiên hàng đầu.[33]

Đầu năm 2021, Thủ tướng Chính phủ ban hành Quyết định số 127/QĐ-TTg “Về Chiến lược Quốc gia về nghiên cứu, phát triển và ứng dụng trí tuệ nhân tạo đến năm 2030”. Trong đó, một trong những định hướng chiến lược được xác định trong giai đoạn này là xây dựng hệ thống văn bản quy phạm pháp luật và hành lang pháp lý liên quan đến trí tuệ nhân tạo.[34] Theo đó cần xây dựng, hoàn thiện chính sách, pháp luật tạo hành lang pháp lý thông thoáng đáp ứng yêu cầu thúc đẩy nghiên cứu, phát triển và ứng dụng trí tuệ nhân tạo vào cuộc sống; phát triển và ứng dụng trí tuệ nhân tạo lấy con người và doanh nghiệp làm trung tâm, tránh lạm dụng công nghệ và xâm phạm quyền, lợi ích hợp pháp của tổ chức, cá nhân.[35]

Tháng 2 năm 2024, Thủ tướng Chính phủ ban hành Quyết định 142/QĐ-TTg “Phê duyệt Chiến lược dữ liệu quốc gia đến năm 2030” trong đó yêu cầu Xây dựng và ban hành các nguyên tắc sử dụng dữ liệu có trách nhiệm, các quy định hướng dẫn về an toàn khi ứng dụng trí tuệ nhân tạo (AI) trong khu vực công nhằm duy trì vai trò chủ thể kiểm soát toàn diện của con người trong mọi ứng dụng AI, hài hòa các lợi ích mà ứng dụng AI mang lại đối với các ngành/lĩnh vực trong mọi mặt đời sống xã hội, đồng thời đảm bảo cách tiếp cận AI phù hợp với chuẩn mực đạo đức của con người.[36]


4.1.2. Về cơ sở thực tiễn

Năm 2023, theo báo cáo “Chỉ số sẵn sàng AI của Chính phủ năm 2023” do Tổ chức Oxford Insights (Anh) công bố, hiện nay, Việt Nam xếp hạng 59/193 quốc gia/vùng lãnh thổ (năm 2022 con số này là 55/181) và xếp thứ 05/10 trong ASEAN về chỉ số sẵn sàng AI (tăng một bậc so với năm 2022).[37] Điều này đã cho thấy những nỗ lực to lớn và chiến lược hiệu quả của Chính phủ trong việc chỉ đạo, định hướng, thúc đẩy nghiên cứu, ứng dụng và phát triển AI tại Việt Nam.

Việt Nam đang có nhiều điều kiện thuận lợi để phát triển AI. Chính phủ và các tập đoàn trong nước như Viettel và Vingroup đang tích cực hỗ trợ chính sách để thúc đẩy thị trường AI. Về hợp tác quốc tế, Việt Nam đã thiết lập quan hệ với các tập đoàn công nghệ lớn như Google và đầu tư mạnh vào đào tạo nguồn nhân lực. Hệ sinh thái công nghệ tại Việt Nam cũng phát triển mạnh mẽ, thu hút hơn 1 tỷ USD đầu tư vào các startup công nghệ trong năm 2023. Việt Nam còn có truyền thống giáo dục tốt, đặc biệt trong lĩnh vực toán học và khoa học, tạo ra nguồn nhân lực chất lượng cao cho ngành AI.[38] 

Bên cạnh những thuận lợi, sự phát triển của AI tại Việt Nam còn đối mặt với nhiều rủi ro và thách thức. Các rủi ro bao gồm tội phạm lừa đảo trên không gian mạng thông qua công nghệ deepfake, đánh cắp và mua bán thông tin cá nhân, cũng như sử dụng mã độc để tấn công mạng. Trong năm 2023, Công ty Công nghệ An ninh mạng quốc gia Việt Nam đã ghi nhận 13.900 vụ tấn công mạng vào các tổ chức tại Việt Nam, trung bình mỗi tháng xảy ra 1.160 vụ, tăng 9,5% so với năm 2022. Đặc biệt, trong 3 tháng cuối năm 2023 số vụ tấn công mạng tăng mạnh, lên tới 1.614 vụ/tháng.[39] Điều này đòi hỏi cần phải có các cơ chế quản lý, chính sách pháp luật cụ thể nhằm hạn chế các tác động bất lợi trong quá trình phát triển, triển khai, ứng dụng trí tuệ nhân tạo nhưng vẫn đảm bảo cân bằng các yếu tố kinh tế, đạo đức và pháp lý liên quan. 


4.2. Những vấn đề pháp lý còn tồn đọng và đề xuất xây dựng các quy định cấm trên cơ sở Điều 5 Đạo luật AI của EU.

4.2.1. Những vấn đề pháp lý còn tồn đọng trong quản lý phát triển, triển khai, ứng dụng AI trong pháp luật Việt Nam.

Hiện nay, Việt Nam vẫn chưa có một văn bản quy phạm pháp luật chính thức dành riêng đối với trí tuệ nhân tạo.[40] Các quy định hiện hành chủ yếu là các quy định chung về công nghệ thông tin và bảo mật dữ liệu trong khi Luật Công nghiệp công nghệ số vẫn đang trong quá trình xây dựng dự thảo, lấy ý kiến và bổ sung hoàn thiện dự kiến sẽ có những quy định liên quan đến AI.[41] Bên cạnh đó, Vẫn còn nhiều khía cạnh của trí tuệ nhân tạo mà con người chưa thể hiểu đầy đủ hay đạt được sự nhất quán khiến cho việc khẳng định hay dự đoán các tác động xã hội và các ảnh hưởng đến các nguyên tắc đạo đức trong ứng dụng trí tuệ nhân tạo trở nên khó khăn.[42] 


4.2.2. Đề xuất xây dựng khung pháp lý trên cơ sở Điều 5 Đạo luật AI của EU.

Thứ nhất, Việt Nam cần xây dựng nguyên tắc đạo đức cho trí tuệ nhân tạo trên cơ sở công bằng, minh bạch, có trách nhiệm, bảo mật, đảm bảo quyền con người.[43] Đặc biệt, cần phải đảm bảo quyền bình đẳng và không phân biệt đối xử bị ảnh hưởng do hệ thống AI dựa trên học máy có thể phản ánh định kiến xã hội và tạo ra sự bất bình đẳng trong xã hội, đặc biệt là trong các vấn đề liên quan đến cá nhân và thiểu số. Thuật toán AI có thể chứa đựng định kiến gây vi phạm đạo đức xã hội, ảnh hưởng đến quyền lợi của người yếu thế và dẫn đến quyết định sai lệch một cách có chủ ý khiến việc ra quyết định của chủ thể liên quan không còn chính xác hoặc năng lực tự hoàn thiện của AI có thể vượt qua thuật toán lập trình ban đầu, để tự ra các quyết định không cần đến sự can thiệp của con người và gây nguy hiểm cho người sử dụng.[44] Trong quá trình xây dựng nguyên tắc đạo đức cho AI, Việt Nam nên cùng các quốc gia trong khu vực và trên thế giới xây dựng các diễn đàn, hội thảo trao đổi nhằm học hỏi các kinh nghiệm của các nước tiến bộ, đảm bảo hài hòa pháp luật giữa các quốc gia trên một tiêu chuẩn khung tương đồng nhưng vẫn đảm bảo tính đặc trưng, phù hợp với văn hóa và pháp luật của Việt Nam. 

Thứ hai, Trong quá trình phát triển, triển khai và ứng dụng AI, Việt Nam cần xây dựng cơ chế bảo vệ thông tin và dữ liệu cá nhân. Mặc dù AI đem lại nhiều lợi ích song cũng kèm theo nhiều rủi ro về vấn đề bảo mật thông tin cá nhân. Việc xây dựng cơ chế bảo vệ thông tin cá nhân cần đảm bảo phù hợp với tình hình thực tiễn của Việt Nam, đảm bảo hài hòa giữa phát triển và ứng dụng công nghệ với bảo vệ thông tin cá nhân của người dân. Ví dụ, việc ứng dụng CCTV tích hợp công nghệ sinh trắc học trong quản lý, giám sát tại các địa điểm công cộng cần có cơ chế đảm bảo an toàn dữ liệu, hạn chế tối đa khả năng mạng lưới giám sát trở thành công cụ thu thập dữ liệu bất hợp pháp.

Thứ ba, Việt Nam cần xây dựng thang đo phân loại cấp độ rủi ro dành cho AI tương tự như tại Đạo luật AI của EU. Cách thức phân loại rủi ro cho AI có thể phân thành 04 cấp độ bao gồm: Rủi ro không thể chấp nhận được, rủi ro cao, rủi ro hạn chế, rủi ro tối thiểu hoặc không có. Việc phân loại rủi ro cần nghiên cứu xây dựng phù hợp với thực tiễn tình hình phát triển, triển khai và sử dụng AI tại Việt Nam, đảm bảo hài hòa giữa phát triển nghiên cứu khoa học, kinh tế nhưng vẫn đảm bảo an toàn cho người dân.

Thứ tư, Việt Nam cần xây dựng các quy định trong nghiên cứu, phát triển, triển khai và ứng dụng AI. Các quy định này bao gồm các điều khoản cấm các cơ quan, đơn vị không được nhà nước cấp phép, giám sát tiến hành các hoạt động nghiên cứu và ứng dụng các công nghệ, phần mềm AI vì mục đích gây hại cho cộng đồng. Bên cạnh đó, nhà nước cần xây dựng các cơ chế bảo hộ, khuyến khích các hoạt động nghiên cứu, phát triển công nghệ vì mục đích phát triển kinh tế, bảo vệ an ninh trật tự, phục vụ cộng đồng và xã hội.

Thứ năm, Việt Nam cần thiết lập các cơ quan chuyên trách có chức năng quản lý, giám sát vấn đề tuân thủ của AI. Việc xây dựng các quy tắc cũng đặt ra yêu cầu cần có sự quản lý, giám sát thường xuyên của các cơ quan quản lý chuyên trách. Các cơ quan này sẽ đóng vai trò hướng dẫn, hỗ trợ và cung cấp thông tin cho các tổ chức và cá nhân triển khai AI đồng thời thực hiện chức năng đánh giá mức độ tuân thủ của AI trên các quy chuẩn được xây dựng trước đó. Việc thiết lập cơ chế quản lý, giám sát chặt chẽ, thường xuyên và minh bạch sẽ tạo ra môi trường pháp lý an toàn, bền vững, hạn chế tối đa các rủi ro mà AI có thể đem lại cho đời sống con người khi công nghệ này dần trở nên phổ biến, đi sâu vào đời sống người dân.


5. Kết luận

Bài nghiên cứu của nhóm tác giả không chỉ giúp hiểu rõ hơn về những hành vi bị cấm trong lĩnh vực trí tuệ nhân tạo được quy định trong Điều 5 của Đạo luật AI của EU mà còn mang lại những bài học quý giá cho Việt Nam trong việc xây dựng khung pháp lý cho công nghệ này. Kết quả nghiên cứu cho thấy, việc quy định rõ ràng các hành vi bị cấm là rất cần thiết để bảo vệ quyền lợi của người sử dụng và an toàn cho xã hội. Điều này đặc biệt quan trọng trong bối cảnh Việt Nam đang trên đà phát triển công nghệ AI với nhiều ứng dụng tiềm năng nhưng cũng tiềm ẩn nhiều rủi ro. Vì vậy, bên cạnh những đề xuất pháp lý trong bài nghiên cứu của nhóm tác giả, các cơ quan xây dựng pháp luật của Việt Nam cần nghiên cứu kỹ lưỡng các bối cảnh, tình hình thực tiễn phát triển AI tại Việt Nam để xây dựng một khung pháp lý hoàn chỉnh trước khi công nghệ này dần phổ biến trong đời sống người dân.


DANH MỤC TÀI LIỆU THAM KHẢO

[1] Nguyễn Bùi Dũng - Sinh viên khoa Luật Quốc tế, Học viện Ngoại giao.

[2] Đỗ Vũ Thái Quỳnh - Sinh viên khoa Luật Quốc tế, Học viện Ngoại giao.

[3] Ngọc Minh, ‘Nghị viện châu Âu thông qua đạo luật đầu tiên về trí tuệ nhân tạo’ (Báo điện tử Đại biểu nhân dân, Ngày 14/03/2024) <https://daibieunhandan.vn/nghi-vien-chau-au-thong-qua-dao-luat-dau-tien-ve-tri-tue-nhan-tao-post362917.html> truy cập ngày 02/11/2024.

[4] Văn Toản,  ‘Những cột mốc đánh dấu sự hình thành và phát triển của trí tuệ nhân tạo’ (Báo điện tử Nhân dân, ngày 13/03/2023) <https://nhandan.vn/nhung-cot-moc-danh-dau-su-hinh-thanh-va-phat-trien-cua-tri-tue-nhan-tao-post742632.html> truy cập ngày 10/11/2024.

[5] Khoản 1 Điều 3, Đạo luật Trí tuệ nhân tạo của Liên minh Châu Âu.

[6] Dự thảo Luật Công nghiệp công nghệ số.

[7] Minh Ngọc, 'EU chính thức kích hoạt Đạo luật quản lý AI' (Tạp chí Thị trường Tài chính Tiền tệ, Ngày 03/08/2024).

[8] European Parliament ‘EU AI Act: first regulation on artificial intelligence’ (The official website of the European Parliament, last updated 18/06/2024)  <https://www.europarl.europa.eu/topics/en/article/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence> truy cập ngày 09/11/ 2024.

[9] Điều 5 Đạo luật Trí tuệ nhân tạo của Liên minh Châu Âu.

[10] Quỳnh Vũ, 'Quản lý AI dựa trên 4 cấp độ rủi ro' (Báo Đại biểu Nhân dân, Ngày 09/07/2023) <https://daibieunhandan.vn/quan-ly-ai-dua-tren-4-cap-do-rui-ro-post335473.html#:~:text=D%E1%BB%B1%20lu%E1%BA%ADt%20%C4%91%C6%B0a%20ra%204,ho%E1%BA%B7c%20kh%C3%B4ng%20c%C3%B3%20r%E1%BB%A7i%20ro.> truy cập ngày 10/11/2024.

[11] Điều 3 Đạo luật Trí tuệ nhân tạo của Liên minh Châu Âu.

[12] Điểm a và điểm b, khoản 1, Điều 5 Đạo luật Trí tuệ nhân tạo của Liên minh Châu Âu.

[13][14] Giải thích số 29 Đạo luật Trí tuệ nhân tạo của Liên minh Châu Âu.

[15] Điểm c, khoản 1, Điều 5 Đạo luật Trí tuệ nhân tạo của Liên minh Châu Âu.

[16] Giải thích số 31 Đạo luật Trí tuệ nhân tạo của Liên minh Châu Âu.

[17] Điểm d, khoản 1, Điều 5 Đạo luật Trí tuệ nhân tạo của Liên minh Châu Âu.

[18][20] Giải thích số 42 Đạo luật Trí tuệ nhân tạo của Liên minh Châu Âu.

[19] Điểm d, khoản 1, Điều 5 Đạo luật Trí tuệ nhân tạo của Liên minh Châu Âu.

[21][22] Giải thích số 43 Đạo luật Trí tuệ nhân tạo của Liên minh Châu Âu.

[23] Điểm f, khoản 1, Điều 5 Đạo luật Trí tuệ nhân tạo của Liên minh Châu Âu.

[24][25] Giải thích số 44 Đạo luật Trí tuệ nhân tạo của Liên minh Châu Âu.

[26] Điểm g, khoản 1, Điều 5 Đạo luật Trí tuệ nhân tạo của Liên minh Châu Âu.

[27][28] Giải thích số 30 Đạo luật Trí tuệ nhân tạo của Liên minh Châu Âu.

[29] Điểm h, khoản 1, Điều 5 Đạo luật Trí tuệ nhân tạo của Liên minh Châu Âu.

[30] Như trên; Danh sách các tội phạm hình sự được quy định tại Phụ lục 2 Đạo luật Trí tuệ nhân tạo của Liên minh Châu Âu.

[31] Nghị quyết số 52-NQ/TW, ngày 20/09/2019, của Bộ Chính trị ‘về một số chủ trương, chính sách chủ động tham gia cuộc Cách mạng công nghiệp lần thứ tư’.

[32] Quyết định số 2117/QĐ-TTg ngày 16/12/2020, của Thủ tướng Chính phủ ‘Về ban hành danh mục công nghệ ưu tiên nghiên cứu, phát triển và ứng dụng để chủ động tham gia cuộc Cách mạng công nghiệp lần thứ tư’.

[33] Hoàng Giang, ‘Trí tuệ nhân tạo là công nghệ được ưu tiên hàng đầu’ (Báo điện tử Chính phủ, Ngày 27/07/2022) <https://baochinhphu.vn/tri-tue-nhan-tao-la-cong-nghe-duoc-uu-tien-hang-dau-102220727143941131.htm#:~:text=(Chinhphu.vn)%20%2D%20C%C3%B3,ngh%E1%BB%87%20%C4%91%C6%B0%E1%BB%A3c%20%C6%B0u%20ti%C3%AAn%20h%C3%A0ng> truy cập ngày 02/11/2024.

[34][35] Quyết định số 127/QĐ-TTg ngày 26/01/2021 của Thủ tướng Chính phủ ‘Về Chiến lược Quốc gia về nghiên cứu, phát triển và ứng dụng trí tuệ nhân tạo đến năm 2030’.

[36] Quyết định số 142/QĐ-TTg ngày 02/02/2024, của Thủ tướng Chính phủ ‘Phê duyệt Chiến lược dữ liệu quốc gia đến năm 2030’.

[37] Oxford Insights, ‘Government AI Readiness Index’ (20/12/2023) <https://oxfordinsights.com/ai-readiness/ai-readiness-index/> truy cập ngày 04/11/2024. 

[38] Phương Nhi, ‘Việt Nam đang nắm bắt lợi thế lớn trong việc phát triển công nghệ AI’ (Tạp chí kinh tế Việt Nam, Ngày 20/08/2024) <https://vneconomy.vn/viet-nam-dang-nam-bat-loi-the-lon-trong-viec-phat-trien-cong-nghe-ai.htm> truy cập ngày 02/11/2024.

[39] Tùng Giang, ‘Tội phạm mạng đang lợi dụng trí tuệ nhân tạo để lừa đảo' (Báo Lao động, Ngày 08 /01/2024) <https://laodong.vn/cong-nghe/toi-pham-mang-dang-loi-dung-tri-tue-nhan-tao-de-lua-dao-1289662.ldo> truy cập ngày 02/11/2024.

[40] Nguyễn Chí Thành, 'Trí tuệ nhân tạo và những nguy cơ, thách thức đối với công tác bảo vệ nền tảng tư tưởng của Đảng hiện nay' (Tạp chí Cộng sản, Ngày 28/08/2024)

[41] LS, 'Cần thiết xây dựng Luật Công nghiệp công nghệ số' (Báo điện tử Chính phủ, Ngày 09/08/2024)<https://baochinhphu.vn/can-thiet-xay-dung-luat-cong-nghiep-cong-nghe-so-102240809151710572.htm> truy cập ngày 02/11/2024.

[42] Hoa Hữu Cường, Chử Thị Nhuần,  'CHIẾN LƯỢC XÂY DỰNG ĐẠO ĐỨC TRÍ TUỆ NHÂN TẠO TẠI CHLB ĐỨC VÀ MỘT SỐ GỢI MỞ CHO VIỆT NAM' (Tạp chí Nghiên cứu Châu Âu, Ngày 31/01/2022)<https://sti.vista.gov.vn/tw/Lists/TaiLieuKHCN/Attachments/344108/CVv181S012022058.pdf> truy cập ngày 02/11/2024.

[43] Minh Thư, 'Cần cơ sở pháp lý để điều chỉnh về trí tuệ nhân tạo' (Báo điện tử Đảng Cộng sản Việt Nam, Ngày 08/10/2024)

[44] TS Nguyễn Thị Thu Vân, 'Xây dựng, hoàn thiện chính sách, pháp luật về trí tuệ nhân tạo ở Việt Nam' (Tạp chí Cộng sản, Ngày 09/09/2024) <https://www.tapchicongsan.org.vn/web/guest/nghien-cu/-/2018/968602/xay-dung%2C-hoan-thien-chinh-sach%2C-phap-luat-ve-tri-tue-nhan-tao-o-viet-nam.aspx> truy cập ngày 02/11/2024.


 
 
 

Bình luận


bottom of page