top of page
icj 1.jpeg

[65] PHÁP LUẬT LIÊN MINH CHÂU ÂU (EU) VỀ CHỦ THỂ CHỊU TRÁCH NHIỆM BỒI THƯỜNG THIỆT HẠI DO TRÍ TUỆ NHÂN TẠO GÂY RA VÀ PHƯƠNG HƯỚNG ĐIỀU CHỈNH LUẬT VIỆT NAM

  • Nguyễn Ngọc Tâm, Nguyễn Diệu Linh, Trần Hiếu Minh
  • 7 thg 8
  • 29 phút đọc

Bài viết này được đăng tại Kỷ yếu Hội thảo Khoa học cho Sinh viên về Luật quốc tế lần thứ ba với chủ đề "Trí tuệ Nhân tạo (AI) và những vấn đề pháp lý" của Khoa Luật Quốc tế - Học viện Ngoại giao năm 2024.


Tác giả: Nguyễn Ngọc Tâm[1], Nguyễn Diệu Linh[2], Trần Hiếu Minh[3]


Tóm tắt: Trong những năm gần đây, Trí tuệ Nhân tạo (Artificial Intelligence - AI) đã có những bước phát triển vượt bậc, đóng góp tích cực cho nhiều lĩnh vực của xã hội. Vì AI là sản phẩm do con người tạo ra và vận hành, nó không thể tránh khỏi các sai sót kỹ thuật, từ đó tạo ra những thách thức pháp lý mới, đặc biệt là trong việc xác định trách nhiệm bồi thường thiệt hại phát sinh từ việc ứng dụng công nghệ này. Liên minh châu Âu, với tư cách là một trong những khu vực đi đầu trong việc nghiên cứu và phát triển AI, đã có những nỗ lực ban hành các quy định pháp lý nhằm giải quyết vấn đề trách nhiệm pháp lý liên quan đến AI. Trên cơ sở phân tích một số vấn đề cơ bản liên quan đến AI và chủ thể chịu trách nhiệm pháp lý, bài viết sẽ tập trung nghiên cứu khung pháp lý của Liên minh châu Âu về việc xác định chủ thể chịu trách nhiệm bồi thường thiệt hại do AI gây ra, từ đó đề xuất một số kiến nghị pháp lý phù hợp cho Việt Nam. 


Từ khóa: Trí tuệ nhân tạo, thiệt hại do trí tuệ nhân tạo gây ra, chủ thể chịu trách nhiệm bồi thường, bồi thường thiệt hại, pháp luật Liên minh châu Âu. 


1. Dẫn nhập 

Sự phát triển nhanh chóng của trí tuệ nhân tạo (AI) đã đặt ra nhiều thách thức pháp lý, đặc biệt trong việc xác định trách nhiệm bồi thường thiệt hại (BTTH) do AI gây ra. Tại Liên minh châu Âu (EU), vấn đề này đã và đang được chú trọng để đảm bảo quyền lợi của người bị thiệt hại và tạo hành lang pháp lý rõ ràng để AI phát triển an toàn, hiệu quả. Điển hình nhất là Nghị quyết của Nghị viện châu Âu ngày 16 tháng 2 năm 2017 với các khuyến nghị gửi đến Ủy ban về Quy tắc Luật Dân sự liên quan đến rô-bốt, hai dự thảo Chỉ thị vào năm 2022 về trách nhiệm dân sự ngoài Hợp đồng đối với AI (AI Liability Directive - AILD) và Chỉ thị về trách nhiệm pháp lý đối với sản phẩm bị lỗi (Product Liability Directive - PLD). Gần đây nhất, vào ngày 10 tháng 10 năm 2024, EU cũng vừa thông qua Chỉ thị mới về trách nhiệm pháp lý đối với sản phẩm bị lỗi, cụ thể hóa về vấn đề trách nhiệm bồi thường khi AI gây ra thiệt hại. Việt Nam cũng đang đối mặt với vấn đề này, song pháp luật hiện vẫn chưa có quy định cụ thể về trách nhiệm BTTH do AI gây ra. Vì vậy, nghiên cứu kinh nghiệm pháp luật từ EU để định hướng điều chỉnh phù hợp cho Việt Nam là một nhiệm vụ cấp thiết, góp phần đảm bảo công bằng xã hội và khuyến khích sáng tạo công nghệ.


2. Một số vấn đề cơ bản về Trí tuệ nhân tạo (AI) và chủ thể chịu trách nhiệm bồi thường thiệt hại (BTTH) gây ra bởi AI 

2.1. Khái niệm về Trí tuệ nhân tạo (AI)

Sự phát triển nhanh chóng AI đã dẫn đến sự xuất hiện của nhiều định nghĩa khác nhau về công nghệ này, được đưa ra bởi các tổ chức và chuyên gia trong nhiều lĩnh vực.[4] Một trong những nỗ lực đầu tiên nhằm xác định khả năng tư duy của máy móc là Turing Test do Alan Turing đề xuất vào năm 1950, với câu hỏi cơ bản: “Liệu máy móc có thể suy nghĩ không?”.[5] Từ nền tảng đó, định nghĩa AI lần đầu được sử dụng bởi John McCarthy vào năm 1956, khi ông tổ chức Hội nghị Dartmouth – được coi là nơi khai sinh của lĩnh vực AI,[6] cụ thể: “Trí tuệ nhân tạo là khoa học và kỹ thuật về việc tạo ra các máy móc thông minh.”[7] Dựa trên các định nghĩa trước đó, vào năm 1991, định nghĩa AI được đưa ra như sau: “Nghiên cứu cách làm cho máy tính thực hiện những việc mà hiện tại con người làm tốt hơn.”[8] Định nghĩa này nhấn mạnh việc mô phỏng các hành vi tương đồng với con người của máy móc.


Bên cạnh đó, một trong những định nghĩa AI gần đây nhất được đề cập bởi Ủy ban châu Âu vào năm 2019, theo đó AI nhìn chung là các hệ thống do con người thiết kế, có khả năng thực hiện nhiệm vụ phức tạp thông qua nhận biết môi trường, phân tích dữ liệu, lập luận, quyết định hành động để đạt mục tiêu, đồng thời có thể tự học hỏi và điều chỉnh hành vi, với phạm vi bao gồm các lĩnh vực như học máy, lập luận máy, và rô-bốt học.[9] Như vậy, sau hơn nửa thế kỷ, định nghĩa của AI đã được phát triển mở rộng và chi tiết hơn, từ một khái niệm đơn giản về “máy móc thông minh”, AI đã phát triển thành một hệ thống phức tạp và đa dạng hơn nhiều, với khả năng tự học hỏi, thích nghi trong nhiều môi trường và ra quyết định.


2.2. Vấn đề pháp lý về chủ thể chịu trách nhiệm BTTH do AI gây ra 

Với sự phát triển mạnh mẽ của AI và mức độ tự chủ của AI ngày càng tăng cao, vấn đề xác định chủ thể chịu trách nhiệm BTTH do AI gây ra đang trở thành thách thức pháp lý phức tạp. Những sản phẩm của AI với khả năng “học máy” (machine learning[10]) và “học sâu” (deep learning[11]) có thể giúp AI học từ dữ liệu mới và tự cải thiện hiệu suất theo thời gian, nhưng điều này cũng làm tăng nguy cơ AI có thể tự đưa ra các quyết định gây thiệt hại ngoài ý muốn mà không có sự giám sát hoặc trách nhiệm rõ ràng.[12] Một ví dụ là vào năm 2017, một rô-bốt đã được thông qua chốt kiểm soát an toàn, tiến vào khu vực trái phép và nghiền nát đầu của một nhân viên.[13] Hay mới đây, vụ tai nạn chết người thứ hai tại Mỹ liên quan đến công nghệ xe tự lái của Tesla lại xảy ra.[14]


Khi AI gây ra thiệt hại, câu hỏi về chủ thể chịu trách nhiệm BTTH trở nên phức tạp vì vấn đề liệu có nên coi AI như chủ thể của pháp luật không còn đặt ra nhiều tranh cãi, trong đó có 3 cách tiếp cận chính: (1) xem AI như một đối tượng của quan hệ dân sự, phải chịu chế độ pháp lý đối với vật; (2) xem AI như một chủ thể của quan hệ dân sự, có quyền, nghĩa vụ và khả năng hành động độc lập; (3) vừa có thể là chủ thể, vừa là đối tượng trong quan hệ dân sự.[15] Quan điểm phổ biến theo các chuyên gia hiện nay là không cần thiết để công nhận AI như một chủ thể pháp lý,[16] thay vào đó, họ cho rằng nên chọn coi AI là đối tượng của quan hệ dân sự và quy trách nhiệm pháp lý cho nhà sản xuất, người sở hữu và các bên liên quan khác.[17] Với cách tiếp cận này, chủ thể chịu trách nhiệm BTTH do AI gây ra sẽ thuộc về nhà sản xuất, người sở hữu AI và các bên thứ ba khác.[18]


Tuy nhiên, hệ thống AI được đặc trưng bởi chuỗi giá trị phức tạp với nhiều bên liên quan khác nhau, khiến việc xác định ai trong chuỗi giá trị này phải chịu trách nhiệm cho thiệt hại do AI gây ra và trong các trường hợp cụ thể nào trở nên khó khăn.[19] Tai nạn có thể xảy ra do lỗi từ người cung cấp hoặc huấn luyện dữ liệu cho AI, và trong những trường hợp này, trách nhiệm BTTH ngoài hợp đồng có thể được xem xét.[20] Dù vậy, việc đạt được bồi thường đầy đủ là rất khó, vì nạn nhân khó chứng minh thiệt hại do lỗi dữ liệu, nhất là khi họ là người dùng cuối hoặc bên thứ ba.[21]


3. Khung pháp lý điều chỉnh chủ thể chịu trách nhiệm BTTH do AI gây ra ở Liên minh châu Âu 

3.1. Nghị quyết của Nghị viện châu Âu ngày 16 tháng 2 năm 2017 với các khuyến nghị gửi đến Ủy ban về Quy tắc Luật Dân sự liên quan đến rô-bốt.

Nghị quyết của Nghị viện châu Âu ngày 16 tháng 2 năm 2017 với các khuyến nghị gửi đến Ủy ban về Quy tắc Luật Dân sự liên quan đến rô-bốt đã mở ra một hướng đi mới trong việc xác định trách nhiệm BTTH do AI gây ra.[22] Nghị quyết này đã lần đầu tiên đưa ra một trạng thái pháp lý (“legal status”) cho AI. Căn cứ theo khoản f Điều 59 của Nghị quyết, về lâu dài, Nghị viện châu Âu đã khuyến nghị tạo ra một trạng thái pháp lý cụ thể cho các rô-bốt tự động phức tạp như là các “cá nhân điện tử” (“electronic person”) với các quyền và nghĩa vụ cụ thể.[23] Tình trạng pháp lý này sẽ được áp dụng cho các trường hợp rô-bốt có năng lực đưa ra quyết định tự chủ và có khả năng tương tác với bên thứ ba một cách độc lập.[24] 


Nghị quyết cũng quy định rằng, trong trường hợp có thiệt hại do AI gây ra, hành vi của AI sẽ được truy ngược lại đến một chủ thể con người cụ thể, có thể là nhà sản xuất, chủ sở hữu hoặc người sử dụng, nếu những chủ thể đó có thể đã dự đoán và có thể đã tránh được hành vi gây thiệt hại của AI.[25] Đặc biệt, chỉ có những thực thể AI hoạt động hoàn toàn tự chủ mới có thể được xem xét cho tư cách pháp lý này.[26] Đây là giải pháp hợp lý nhằm đối phó với sự phát triển vượt bậc của công nghệ AI, đồng thời giải quyết các vấn đề về sở hữu trí tuệ do AI gây ra.[27] 


Đối với trách nhiệm pháp lý khi AI gây ra thiệt hại, Nghị quyết cũng lưu ý rằng pháp luật trong tương lai “cần phải dựa trên một đánh giá toàn diện để xác định xem liệu có nên áp dụng chế độ trách nhiệm tuyệt đối (Strict Liability[28]) hay phương pháp quản lý rủi ro (Risk Management Approach[29]). Ngoài ra, Nghị quyết còn đề xuất giải pháp bảo hiểm bắt buộc và quỹ bồi thường bắt buộc, áp đặt lên chủ sở hữu và nhà sản xuất để phân bổ trách nhiệm BTTH do rô-bốt gây ra.[30]


Tuy nhiên, việc cấp trạng thái pháp lý này cũng gây nên nhiều tranh cãi. Thứ nhất, việc xem xét AI như một thực thể pháp lý độc lập đặt ra thách thức lớn về trách nhiệm pháp lý trong trường hợp AI gây thiệt hại mà không thể truy ngược nguyên nhân về một tác nhân con người cụ thể.[31] Thứ hai, tư cách "cá nhân điện tử" không chỉ tạo ra rủi ro làm mờ ranh giới trách nhiệm giữa con người và máy móc mà còn có thể dẫn đến tình trạng lạm dụng tư cách pháp lý của AI để né tránh trách nhiệm bồi thường.[32] Thứ ba, từ góc độ pháp lý, việc công nhận robot thông minh là một chủ thể không phù hợp với cấu trúc và nguyên tắc của hệ thống pháp luật hiện tại, vốn chỉ ghi nhận cá nhân và pháp nhân.[33] Thay vào đó, pháp luật nên tập trung cải thiện hệ thống pháp luật, bao gồm các cơ chế bồi thường và bảo hiểm để giải quyết vấn đề thiệt hại do AI gây ra.[34]


3.2.  Sự ra đời của Đạo luật AI 2024 và hai Dự thảo chỉ thị ngày 28/09/2022 về trách nhiệm dân sự ngoài Hợp đồng đối với Trí tuệ Nhân tạo (AI Liability Directive - AILD) và Chỉ thị về trách nhiệm pháp lý đối với sản phẩm bị lỗi (Product Liability Directive - PLD) 

Đạo luật AI được Nghị viện châu Âu thông qua vào tháng 3 năm 2024 và được Hội đồng phê duyệt vào tháng 5 năm 2024, là luật toàn diện đầu tiên điều chỉnh AI trên thế giới. Tuy không trực tiếp điều chỉnh vấn đề xác định trách nhiệm pháp lý đối với các thiệt hại do AI gây ra, Đạo luật AI đã đưa ra các yêu cầu và nghĩa vụ cụ thể để đảm bảo an toàn và ngăn ngừa thiệt hại liên quan đến hệ thống AI.[35]


Để bổ sung thêm những quy định cụ thể hơn cho dự thảo Đạo luật AI[36] cũng như khắc phục những hạn chế của chỉ thị 85/374/EEC[37], EU đã chính thức trình bày hai dự thảo Chỉ thị vào năm 2022, đó là Chỉ thị về trách nhiệm dân sự ngoài Hợp đồng đối với Trí tuệ Nhân tạo ( Dự thảo AILD 2022[38]) và Chỉ thị về trách nhiệm pháp lý đối với sản phẩm bị lỗi ( Dự thảo PLD 2022[39]). Tuy nhiên, với bản chất phức tạp và khó tiếp cận (hiệu ứng “hộp đen[40]”) các hệ thống AI rủi ro cao gây ra nhiều trở ngại trong việc yêu cầu BTTH. Cả hai Dự thảo đều nhằm giải quyết vấn đề này, nhưng theo cách tiếp cận khác nhau: Dự thảo AILD 2022 dựa trên trách nhiệm do lỗi,[41] trong khi Dự thảo PLD 2022 áp dụng trách nhiệm nghiêm ngặt đối với sản phẩm lỗi.[42]


Thứ nhất, Điều 3(1) của Dự thảo AILD 2022 quy định rằng các Tòa án quốc gia thành viên có quyền yêu cầu nhà cung cấp hoặc người sử dụng AI có rủi ro cao cung cấp thông tin về đặc điểm kỹ thuật của hệ thống khi nguyên đơn khiếu nại thiệt hại. Đặc biệt, trách nhiệm BTTH ngoài hợp đồng sẽ được phát sinh nếu nguyên đơn chứng minh được “giả định về mối quan hệ nhân quả” khi đáp ứng đủ các yếu tố (i) lỗi vi phạm nghĩa vụ cẩn trọng, (ii) tính hợp lý cho thấy lỗi ảnh hưởng đến kết quả, (iii) thiệt hại.[43] Sự đổi mới này giúp cho việc chứng minh vi phạm pháp lý (burden of proof) trở nên dễ dàng hơn, khi nghĩa vụ chứng minh rơi vào phía nhà sáng lập (hoặc công ty chủ quản) của sản phẩm công nghệ tích hợp AI.[44]


Thứ hai, Dự thảo PLD 2022 sửa đổi mở rộng phạm vi trách nhiệm của các sản phẩm lỗi sang cả phần mềm và hệ thống AI. Căn cứ theo Điều 1(1) Dự thảo PLD 2022, chỉ thị quy định về trách nhiệm nghiêm ngặt ngoài hợp đồng, cho phép người bị thiệt hại có thể yêu cầu bồi thường mà không cần chứng minh lỗi hay quan hệ hợp đồng trước đó với nhà sản xuất. Chỉ thị cũng yêu cầu các nhà sản xuất cung cấp chứng cứ khi có yêu cầu bồi thường, giúp giảm bớt gánh nặng chứng minh cho người tiêu dùng cho người tiêu dùng.[45] Phiên bản sửa đổi này đã mở rộng phạm vi trách nhiệm sang phần mềm và hệ thống AI, trong khi chỉ thị số 85/374/EEC chủ yếu tập trung vào hàng hóa vật lý.[46]


Như vậy, Đạo luật AI tập trung vào an toàn và ngăn ngừa rủi ro liên quan đến các hệ thống AI. Trong khi đó, PLD và AILD cung cấp các cơ chế bồi thường khác nhau nhưng có phần chồng lấn khi xảy ra thiệt hại do AI gây ra. Cả ba luật này được thiết kế để kết hợp thành một mô hình ba bên thống nhất, bổ trợ giữa ba văn bản này không chỉ làm rõ vai trò và nghĩa vụ của các chủ thể trong chuỗi cung ứng mà còn bảo vệ quyền lợi cho người bị thiệt hại trong bối cảnh công nghệ AI ngày càng phức tạp.[47]


3.3. Chỉ thị về Trách nhiệm sản phẩm của Hội đồng châu Âu ngày 10/10/2024[48]

Hội đồng châu Âu mới đây đã thông qua Chỉ thị mới về Trách nhiệm đối với khuyết tật của sản phẩm vào ngày 10 tháng 10 năm 2024.[49] Chỉ thị này thay thế khung pháp lý về Trách nhiệm Sản phẩm của EU được thiết lập vào năm 1985 (PLD 1985),[50] khung pháp lý trước đây nhằm bảo vệ người tiêu dùng bằng cách đưa ra khái niệm về Trách nhiệm sản phẩm nghiêm ngặt (Strict Liability), theo đó nhà sản xuất phải chịu trách nhiệm về khuyết tật của sản phẩm, bất kể họ có lỗi hay không.[51] Sau gần 40 năm tồn tại, PLD 1985 sẽ bị thay thế bởi PLD 2024 để phù hợp với sự phát triển liên quan đến công nghệ mới, bao gồm AI, các mô hình kinh doanh kinh tế tuần hoàn mới và chuỗi cung ứng toàn cầu mới.[52]


Về vấn đề chủ thể, Điều 8 của PLD 2024 đã mở rộng phạm vi chủ thể chịu trách nhiệm đối với khuyết tật của sản phẩm, các tổ chức kinh tế (Economic operators) chịu trách nhiệm, bao gồm: 


Thứ nhất, nhà sản xuất sẽ chịu trách nhiệm đối với khuyết tật của sản phẩm, bao gồm cả nhà sản xuất của một linh kiện bị lỗi (khi linh kiện đó đã được tích hợp hoặc kết nối với sản phẩm).[53] Bất kỳ cá nhân hoặc tổ chức nào có sự thay đổi đáng kể đối với một sản phẩm đã được đưa ra thị trường hoặc đưa vào sử dụng giờ đây cũng được coi là nhà sản xuất.[54]


Thứ hai, nhà nhập khẩu của sản phẩm hoặc linh kiện bị lỗi và đại diện ủy quyền của nhà sản xuất[55] cũng có thể bị quy trách nhiệm trong trường hợp nhà sản xuất thành lập ngoài EU.[56] Nếu cả nhà nhập khẩu lẫn đại diện ủy quyền của nhà sản xuất không đặt tại EU, thì nhà cung cấp dịch vụ hoàn thiện[57] cũng có thể bị chịu trách nhiệm BTTH.[58] Ngoài ra, các nhà cung cấp dịch vụ của nền tảng trực tuyến cũng có thể chịu trách nhiệm trong một số điều kiện nhất.[59]


Như vậy, trong khi trách nhiệm sản phẩm trước đây chỉ áp dụng cho nhà sản xuất, nhà nhập khẩu sản phẩm vào EU và trong một số điều kiện nhất định đối với nhà cung cấp sản phẩm,[60] phạm vi trách nhiệm của PLD mới đã mở rộng đáng kể tới các thành phần khác trong chuỗi cung ứng.[61] Ngoài ra, PLD mới của EU giữ nguyên quy định miễn trừ trách nhiệm nếu lỗi không tồn tại khi sản phẩm được lưu thông, đồng thời bổ sung ngoại lệ khi lỗi liên quan đến dịch vụ, phần mềm, hoặc cập nhật cần thiết do nhà sản xuất kiểm soát,[62] làm tăng trách nhiệm cho nhà sản xuất ngay cả khi lỗi phát sinh sau khi sản phẩm đã ra thị trường. Chỉ thị cũng đưa ra những quy định mới cho phép áp dụng giả định về khuyết tật của sản phẩm.[63] Quy định này giúp giảm bớt nghĩa vụ chứng minh trước kia thường đặt lên người tiêu dùng,[64] chuyển một phần gánh nặng chứng minh sang nhà sản xuất và các bên chịu trách nhiệm khác,[65] qua đó giúp người tiêu dùng dễ dàng hơn trong việc yêu cầu bồi thường thiệt hại hợp lý.


Có thể thấy, EU đã có hướng đi tiến bộ khi quy trách nhiệm pháp lý cho con người, cơ sở lý luận vẫn dựa trên chế độ trách nhiệm đối với sản phẩm tuy nhiên đã có những dự thảo nhằm giảm nhẹ nghĩa vụ chứng minh lỗi cho người bị thiệt hại. Đây là một cách tiếp cận vừa thể hiện sự thận trọng phù hợp với các cấp độ phát triển của trí tuệ nhân tạo trong giai đoạn hiện nay nhưng cũng vừa thể hiện yếu tố tiến bộ và cởi mở, tích hợp được những tiến bộ khoa học công nghệ vào vấn đề hoạch định chính sách.[66]


4. Quy định của pháp luật Việt Nam về chủ thể chịu trách nhiệm BTTH do AI gây ra

4.1. Pháp luật Việt Nam về chủ thể chịu trách nhiệm BTTH gây ra bởi trí tuệ nhân tạo 

Cho đến thời điểm hiện tại, pháp luật Việt Nam chưa có một bộ luật riêng điều chỉnh các vấn đề pháp lý phát sinh từ AI. Tuy nhiên, các quy định hiện hành có thể áp dụng để xác định chủ thể chịu trách nhiệm BTTH từ sản phẩm AI bằng các quy định về trách nhiệm sản phẩm.


Trách nhiệm sản phẩm là một dạng trách nhiệm dân sự, theo đó thiệt hại xảy ra phải được bù đắp dựa trên căn cứ pháp luật về BTTH ngoài hợp đồng hoặc do vi phạm nghĩa vụ theo hợp đồng.[67] Đối với thiệt hại trong hợp đồng, việc BTTH sẽ được tiến hành theo quy định của hợp đồng. Chế định trách nhiệm BTTH ngoài hợp đồng được ghi nhận tại Bộ Luật Dân sự 2015 (BLDS 2015) và Luật Bảo vệ quyền lợi người tiêu dùng năm 2023 (Luật BVQLNTD 2023). Tại BLDS 2015, khoản 3 Điều 584 quy định chủ sở hữu, người chiếm hữu tài sản phải chịu trách nhiệm BTTH đối với thiệt hại gây ra bởi tài sản. Nếu tài sản có độ nguy hiểm cao thì chủ sở hữu của các tài sản phải có trách nhiệm BTTH ngay cả khi không có lỗi, chẳng hạn như quy định từ Điều 601 đến Điều 605 BLDS về nguồn nguy hiểm cao độ và các trường hợp đặc biệt (ô nhiễm môi trường, do nhà cửa, súc vật gây ra).[68] 


Cũng liên quan đến trách nhiệm sản phẩm, Luật BVQLNTD là văn bản quy định trực tiếp về cơ chế bảo vệ quyền lợi người bị thiệt hại do sản phẩm khuyết tật gây ra.[69] Điều 608 BLDS 2015 nêu rõ: “Cá nhân, pháp nhân sản xuất, kinh doanh hàng hóa, dịch vụ không bảo đảm chất lượng hàng hóa, dịch vụ mà gây thiệt hại cho người tiêu dùng thì phải bồi thường.” Luật BVQLNTD quy định rằng tổ chức, cá nhân có trách nhiệm BTTH do khuyết tật của sản phẩm, hàng hóa bao gồm tất cả các tổ chức, cá nhân sản xuất, nhập khẩu, đơn vị trung gian, nhà cung cấp trực tiếp và các bên khác có trách nhiệm theo quy định pháp luật.[70]


4.2. Khó khăn trong việc xác định chủ thể chịu trách nhiệm BTTH do AI gây ra

Nhìn chung, có thể thấy các quy định của BLDS năm 2015 cùng các văn bản pháp lý khác về bảo vệ quyền lợi người tiêu dùng và về chất lượng sản phẩm hàng hóa đều có những quy định bước đầu về chủ thể BTTH. Tuy nhiên, những quy định này chỉ đưa ra những nguyên tắc chung về BTTH, dù có thể áp dụng một phần, vẫn còn nhiều hạn chế trong việc xác định chủ thể đối với thiệt hại do AI gây ra.


Thứ nhất, các quy định về trách nhiệm BTTH theo BLDS chỉ đề cập đến hành vi của con người, pháp nhân và một số trường hợp nhất định mà chưa áp dụng được cho hệ thống AI, vốn không phải là một chủ thể pháp lý. Các quy định này cũng chưa đề cập rõ ràng đến các tình huống phức tạp mà AI gây ra.


Thứ hai, về khó khăn trong việc xác định chủ sở hữu, người chiếm hữu tài sản đối với sản phẩm AI. Nếu sản phẩm mang AI được xem là một loại tài sản, ví dụ như rô-bốt[71] thì trách nhiệm BTTH ngoài hợp đồng sẽ được giải quyết theo hướng chủ sở hữu của AI sẽ phải chịu trách nhiệm bồi thường khi có thiệt hại xảy ra.[72] Tuy nhiên, quy định này chưa thực sự phù hợp vì có khả năng sẽ bỏ sót các chủ thể khác liên quan đến AI nhưng không phải chủ sở hữu và cũng không phải người chiếm hữu chúng trên thực đó, đó chính là người sử dụng AI.[73] Đồng thời, không chỉ chủ sở hữu, các doanh nghiệp Việt Nam, được coi là những người sử dụng AI, cũng đang dần tiếp nhận tư duy vì cộng động và sẵn sàng bồi thường nếu có thiệt hại.


Ngoài ra, khi xem xét kỹ yếu tố thứ tư về trách nhiệm BTTH ngoài hợp đồng,[74] rằng phải có lỗi cố ý hoặc vô ý của người gây thiệt hại, có thể thấy rằng bên chủ thể sử dụng AI trong từng trường hợp cụ thể phát sinh lỗi dù cố ý hay vô ý đều phải chịu trách nhiệm liên đới với các bên liên quan như chủ sở hữu, nhà sản xuất. Do đó, dù trách nhiệm có thể nói là thuộc về con người, song khó có thể xác định chủ thể thực hiện hành vi trái pháp luật là thuộc về bên sử dụng hay đó là lỗi thuộc về nhà sản xuất, chủ sở hữu hay bất kể là bên thứ ba nào khác.[75]


Thứ ba, về chủ thể sử dụng AI không vì mục đích thương mại. Do đối tượng điều chỉnh của Luật BVQLNTD chỉ bao gồm tổ chức, cá nhân có hoạt động kinh doanh,[76] vì thế, nếu một chủ thể sử dụng AI gây thiệt hại cho người khác mà không thực hiện hành vi kinh doanh hoặc không vì mục đích thương mại, thì họ có thể không phải bồi thường.[77]


5. Đề xuất hoàn thiện pháp luật Việt Nam 

Bên cạnh việc tập trung vào phát triển công nghệ AI, Việt Nam cần ban hành các quy định pháp luật cụ thể hơn để xác định rõ trách nhiệm BTTH liên quan đến AI để đảm bảo quyền lợi cho người tiêu dùng. Từ việc phân tích các quy định pháp luật của EU về vấn đề này, nhóm tác giả đã rút ra một số đề xuất nhằm hoàn thiện khung pháp luật Việt Nam hiện hành điều chỉnh chủ thể chịu trách nhiệm BTTH do AI gây ra như sau: 


Thứ nhất, khi xây dựng các quy định liên quan đến chủ thể chịu trách nhiệm BTTH, có thể tham khảo quan điểm từ Nghị quyết ngày 16/02/2017 của Nghị viện châu Âu,[78] rằng, “ít nhất ở thời điểm hiện tại, trách nhiệm pháp lý vẫn nên thuộc về con người”. Các chủ thể này bao gồm nhà sản xuất, chủ sở hữu AI, người chiếm hữu hợp pháp hoặc trái phép hệ thống AI, và các thực thể mang AI. Quy định này phải xét đến trách nhiệm liên đới và không liên đới giữa các chủ thể để đảm bảo tính toàn diện, minh bạch và công bằng.[79] Bên cạnh đó, cũng cần nhận thức rằng người dân và doanh nghiệp Việt Nam sẽ cần một khoảng thời gian nhất định để thích nghi với khái niệm trách nhiệm liên đới này. 


Thứ hai, Việt Nam cần xem xét sửa đổi các văn bản quy phạm pháp luật về trách nhiệm BTTH theo hướng giảm bớt gánh nặng chứng minh lỗi cho người dùng với tư cách người bị thiệt hại. Có thể tham khảo áp dụng “trách nhiệm nghiêm ngặt” (Strict Liability) đối với các công nghệ có nguy cơ cao, trong đó không yêu cầu người bị thiệt hại phải chứng minh lỗi của nhà sản xuất hay chủ sở hữu AI. 


Thứ ba, khi AI gây ra thiệt hại, cơ quan nhà nước có thẩm quyền có thể yêu cầu các nhà sản xuất và các chủ thể liên quan phải cung cấp thông tin minh bạch về hoạt động của hệ thống AI,[80] bằng cách tham khảo Đạo luật AI của EU[81], bao gồm các yếu tố liên quan đến cách thức vận hành, quy trình ra quyết định của AI, cũng như các tiêu chuẩn an toàn mà hệ thống AI đã được kiểm tra. Việc yêu cầu cung cấp thông tin này sẽ tạo điều kiện thuận lợi cho các cơ quan chức năng trong việc đánh giá và xử lý các khiếu nại, giúp giảm bớt khó khăn cho người tiêu dùng trong việc thu thập chứng cứ khi xảy ra thiệt hại.


Thứ tư, Việt Nam có thể cân nhắc tham khảo việc cấp tư cách pháp lý "cá nhân điện tử" cho AI, coi nó là một chủ thể độc lập và xây dựng khung pháp lý riêng để điều chỉnh các vấn đề pháp lý liên quan. Mặc dù quy định này của châu Âu không hoàn toàn được ủng hộ, ý kiến của nhóm tác giả cho rằng việc trao tư cách pháp lý độc lập cho AI là hợp lý do viễn cảnh AI tự mình tham gia vào các quan hệ xã hội là có thể xảy ra. Tuy nhiên, tư cách chủ thể này chỉ nên trao cho các AI có khả năng độc lập với tính tự chủ cao. Điều này dẫn đến sự cần thiết để Nhà nước xây dựng tiêu chuẩn đánh giá năng lực riêng, qua quá trình quan sát và tham khảo ý kiến chuyên gia. Khi được công nhận, AI sẽ là chủ thể pháp lý, nhưng quyền và nghĩa vụ của nó sẽ bị giới hạn theo khả năng tham gia độc lập vào quan hệ xã hội, do thiếu nhận thức và tư duy như con người hoặc pháp nhân.[82]


Kết luận 

Với vai trò tiên phong trong lĩnh vực công nghệ và pháp lý, EU đã triển khai các quy định pháp lý tiên tiến để quản lý vấn đề trách nhiệm BTTH do AI gây ra. Các quy định của EU, trong đó trách nhiệm chủ yếu thuộc về con người, không chỉ bảo vệ quyền lợi của người bị thiệt hại mà còn thúc đẩy các nhà phát triển, nhà cung cấp và người sử dụng AI tuân thủ các tiêu chuẩn minh bạch, an toàn và có trách nhiệm. Trong bối cảnh AI ngày càng phát triển mạnh mẽ, Việt Nam cần nhanh chóng hoàn thiện hệ thống pháp luật, đảm bảo vừa thúc đẩy đổi mới sáng tạo, vừa bảo vệ quyền lợi của các cá nhân và tổ chức. Đây là bước đi quan trọng để hội nhập quốc tế và phát triển bền vững trong thời đại số hóa.


DANH MỤC TÀI LIỆU THAM KHẢO

[1] Nguyễn Ngọc Tâm, Khoa Luật Quốc tế - Học viện Ngoại giao.

[2] Nguyễn Diệu Linh, Khoa Luật Quốc tế - Học viện Ngoại giao.

[3] Trần Hiếu Minh, Khoa Luật Quốc tế - Học viện Ngoại giao.

[4] Finocchiaro, G., ‘The Regulation of Artificial Intelligence’ [2024] 39 AI & SOCIETY 1961, trang 1961.

[5] Stuart Russell and Peter Norvig, Artificial Intelligence: A Modern Approach (Tái bản lần thứ 4, Nhà xuất bản Pearson 2021), trang 2.

[6] OECD, ‘Artificial Intelligence in Society’ (Nhà xuất bản OECD Publishing 2019) <https://doi.org/10.1787/eedfee77-en> truy cập ngày 02/11/2024, trang 20.

[7] S L Andresen, ‘John McCarthy: Father of AI’ [2002] 17 IEEE Intell SSyst 84, trang 84.

[8] Rich E and Knight K, Artificial Intelligence (Tái bản lần thứ 2, Nhà xuất bản McGraw-Hill 1991), trang 1.

[9] AI được định nghĩa như sau: “Trí tuệ nhân tạo (AI) đề cập đến các hệ thống được con người thiết kế, có khả năng thực hiện các nhiệm vụ trong thế giới vật lý hoặc kỹ thuật số nhằm đạt được một mục tiêu phức tạp nhất định. AI hoạt động bằng cách nhận biết môi trường xung quanh, diễn giải các dữ liệu có cấu trúc hoặc phi cấu trúc thu thập được, lập luận dựa trên tri thức từ các dữ liệu này và quyết định hành động tốt nhất cần thực hiện (theo các thông số được xác định trước) để đạt được mục tiêu đã đề ra. Các hệ thống AI cũng có thể được thiết kế để học hỏi và điều chỉnh hành vi của chúng bằng cách phân tích tác động của các hành động trước đó lên môi trường.  Là một lĩnh vực khoa học, AI bao gồm nhiều phương pháp và kỹ thuật khác nhau như học máy (với các ví dụ cụ thể là học sâu và học củng cố), lập luận máy (bao gồm lập kế hoạch, lập lịch, biểu diễn tri thức và lập luận, tìm kiếm và tối ưu hóa), và robot học (bao gồm kiểm soát, nhận thức, cảm biến và cơ cấu chấp hành, cũng như tích hợp tất cả các kỹ thuật khác vào các hệ thống không gian mạng vật lý).” Xem thêm tại: High-Level Expert Group on Artificial Intelligence, ‘A definition of AI: Main capabilities and scientific disciplines’, (European Commission, 7 May 2018) <https://ec.europa.eu/newsroom/dae/document.cfm?doc_idz> truy cập ngày 01/11/2024, trang 7. 

[10] “Học máy là một nhánh của trí tuệ nhân tạo (AI) giúp máy tính có khả năng học hỏi mà không cần được lập trình một cách rõ ràng. Học máy tập trung vào việc phát triển các chương trình máy tính có khả năng tự dạy mình, phát triển và thay đổi khi tiếp xúc với dữ liệu mới.” Xem thêm tại: ‘Machine learning’ (TechTarget) <http://whatis.techtarget.com/definition/machine-learning> truy cập ngày 10/11/2024. 

[11] “Học sâu là một phương thức trong lĩnh vực trí tuệ nhân tạo (AI), được sử dụng để dạy máy tính xử lý dữ liệu theo cách được lấy cảm hứng từ bộ não con người” Xem thêm tại: AWS, What is Deep Learning? <https://aws.amazon.com/what-is/deep-learning/> truy cập ngày 10/11/2024.

[12] Ahmad, S.F., Han, H., Alam, M.M. et al. ‘Impact of artificial intelligence on human loss in decision making, laziness and safety in education.’ Humanit Soc Sci Commun 10, 311 [2023] <https://doi.org/10.1057/s41599-023-01787-8> truy cập ngày 10 tháng 11 năm 2024.

[13] Conner Forrest, ‘Robot kills worker on assembly line, raising concerns about human-ro- bot collaboration’, Tech Republic, (2017) <https://www.techrepublic.com/article/robot-kills-worker-on-assembly-line-raising-concerns-about-human-robot-collaboration/> truy cập ngày 14/11/2024.

[14] Reuters, ‘Tesla car that killed Settle motorcyclist was in ‘Full Self-Driving’ mode, police say’, (CNN Business, 2024) <https://edition.cnn.com/2024/07/31/tech/tesla-full-self-driving-mode-seattle-motorcyclist-killed/index.html> truy cập ngày 10/11//2024.

[15] Roman A. Maydanyk, Nataliia I. Maydanyk, Maryna M. Velykanova, ‘Liability for damage caused using Artificial intelligence technologies’, [2022], 150-159, trang 151, <https://www.researchgate.net/publication/353488165_Liability_for_damage_caused_using_artificial_intelligence_technologies>  \truy cập ngày 15/11/2024.

[16][17][18][19] Antonia Rapti, ‘Liability Issues regarding Artificial Intelligence in a European and International context’, (Master’s thesis, Transnational ana European Commercial Law, Banking Law, Arbitration/Mediation).

[20][21][30] EU Commission, ‘Safety and Liability Implications of Artificial Intelligence, the Internet of Things and Robotics’ (Report) COM (2020) 64 final <https://eur-lex.europa.eu/legal-content/en/TXT/?uri=CELEX%3A52020DC0064> truy cập ngày 15/11/2024.

[22][23][77] Nghị quyết của Nghị viện châu Âu ngày 16/02/2017 với các khuyến nghị gửi đến Ủy ban về Quy tắc Luật Dân sự liên quan đến rô-bốt (2015/2103(INL) (OJ C 252, 18/07/2018, p. 239) CELEX <https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:52017IP0051> truy cập ngày 10/11/2024.

[24][26] Giedrius Nemeiksis, ‘Artificial Intelligence as Legal Entity in the Civil Liability Context’ [2021] Journal of Turiba University 89-102, trang 95.

[25] Xem thêm tại Chú thích số 21, phần “Liability”, đoạn AD; Xem thêm tại: Stanford University, Artificial Intelligence and Life in 2030 – One Hundred Year Study on Artificial Intelligence [2016] 46 <https://ai100.stanford.edu/2016-report> truy cập ngày 3 tháng 11 năm 2024 (“Các tòa án có thể gán trách nhiệm pháp lý một cách tùy ý cho một cá nhân con người ngay cả khi trách nhiệm đó nên được đặt ở nơi khác vì lý do công bằng hoặc hiệu quả. Ngoài ra, các tòa án cũng có thể từ chối xác định trách nhiệm vì bị đơn trước tòa không dự đoán được và cũng không thể dự đoán được thiệt hại do AI gây ra.”). 

[27] European Trade Union Institute, Artificial Intelligence: A Game Changer for Workers and Trade Unions (ETUI Foresight Brief 02, 2020) <https://www.etui.org/sites/default/files/Foresight_Brief_02_EN.pdf> truy cập ngày 01/11/2024.

[28] ‘Trách nhiệm tuyệt đối chỉ yêu cầu chứng minh rằng thiệt hại đã xảy ra và xác định mối quan hệ nhân quả giữa hoạt động gây hại của rô-bốt và thiệt hại mà bên bị thiệt hại phải gánh chịu’. Xem thêm tại: Nghị quyết của Nghị viện châu Âu ngày 16/02/2017 với các khuyến nghị gửi đến Ủy ban về Quy tắc Luật Dân sự liên quan đến rô-bốt, phần Liability, đoạn 54. 

[29] ‘Phương pháp quản lý rủi ro không nhấn mạnh vào việc xác định người "hành động thiếu cẩn trọng" để truy cứu trách nhiệm cá nhân, mà tập trung vào người có khả năng, trong những tình huống nhất định, giảm thiểu rủi ro và xử lý các tác động tiêu cực’ Xem thêm tại: Nghị quyết của Nghị viện châu Âu ngày 16/02/2017 với các khuyến nghị gửi đến Ủy ban về Quy tắc Luật Dân sự liên quan đến rô-bốt, phần Liability, đoạn 55. 

[31] Nikos Th. Nikolinakos, Adapting the EU Civil Liability Regime to the Digital Age: Artificial Intelligence, Robotics, and Other Emerging Technologies, (Xuất bản lần 1, Springer Cham, 2024) trang 77.  

[32] Giáo sư Noel Sharkey từ Đại học Sheffield, Anh, cho rằng việc cấp tư cách pháp lý cho rô-bốt giúp các nhà sản xuất né tránh trách nhiệm. Xem thêm tại: Philippe Fauquet-Alekhine, 'Can the Robot be Considered a Person? The European Perspective' [2022] Volume 23 [Issue 6] Advances in Research 100-105 <https://doi.org/10.9734/air/2022/v23i6924> truy cập ngày 02/11/2024.

[33] Open Letter to the European Commission: Artificial Intelligence and Robotics (2018) <http://www.robotics-openletter.eu> truy cập ngày 02/11/2024. 

[34] Nathalie Nevejans, European civil law rules in robotics: Study (the Policy Department for “Citizens’ Rights and Constitutional Affairs” 2016) Executive summary.

[35] Đạo luật AI (2024), Điều 16, 25. Xem thêm tại: Europeon Commission, ‘AI Act enters into force’, (2024) <https://commission.europa.eu/news/ai-act-enters-force-2024-08-01_en> truy cập ngày 11/11/2024.

[36] Dự thảo Quy định của Nghị viện châu Âu và của Hội đồng về quản lý an toàn và trách nhiệm đối với các sản phẩm trí tuệ nhân tạo (2021), COM(2021) 206 final <https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A52021PC0206> truy cập ngày 10/11/2024.

[37] Chỉ thị Hội đồng 85/374/EEC ngày 25/07/1985 về việc hài hòa các luật, quy định và các quy định hành chính của các quốc gia thành viên liên quan đến trách nhiệm pháp lý đối với sản phẩm có khuyết tật (1985/374/EEC), [1985] OJ L 210/29 <https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A31985L0374> truy cập ngày 11/11/2024.

[38][41] Dự thảo Chỉ thị của Ủy ban châu Âu về việc điều chỉnh các quy tắc trách nhiệm dân sự ngoài hợp đồng đối với trí tuệ nhân tạo (2022) , COM(2022) 496 final, <https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A52022PC0496> truy cập ngày 10/11/2024.

[39][42] Dự thảo Chỉ thị của Nghị viện châu Âu và của Hội đồng về Trách nhiệm Pháp lý đối với Sản phẩm Có Khuyết Tật, (2022) , COM(2022) 495 final <https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A52022PC0495> truy cập ngày 10/11/2024.

[40] “​​Vấn đề "hộp đen" đề cập đến việc quá trình ra quyết định của một hệ thống AI không thể được quan sát hoặc đánh giá, cả trong khi nó đang thực hiện quyết định lẫn sau khi quyết định đã được đưa ra.” Xem thêm tại: Boell Foundation, ‘Artificial Intelligence (AI), Tort Law, and Network Theory: Who Should Be Held Liable When AI Causes Harm?’ (Heinrich Böll Stiftung, 24 December 2021) <https://il.boell.org/en/2021/12/24/artificial-intelligence-ai-tort-law-and-network-theory-who-should-be-held-liable-when-ai> truy cập ngày 10/11/2024.

[42]Dự thảo AILD 2022, Điều 4(1).

[43]Guido Noto La Diega, Leonardo C T Bezerra, 'Can There Be Responsible AI Without AI Liability? Incentivizing Generative AI Safety Through Ex-Post Tort Liability Under the EU AI Liability Directive' [2024] 32 IJLIT eaae021 15 <https://doi.org/10.1093/ijlit/eaae021> truy cập ngày 06/12/2024.

[44] Dự thảo PLD 2022, Điều 8(b).

[45] PLD 1985, Điều 2.

[46] Simmons & Simmons, 'What is the new EU AI Liability Regime?', (2024), <https://www.simmons-simmons.com/en/publications/cla2fpkgw5uj20a94oaegyszn/what-is-the-new-eu-ai-liability-regime>, truy cập ngày 11/11/2024.

[47] Chỉ thị của Nghị viện châu Âu và của Hội đồng về trách nhiệm pháp lý đối với sản phẩm có khuyết tật và bãi bỏ Chỉ thị 85/374/EEC của Hội đồng (2024), PE-7-2024-INIT, <https://data.consilium.europa.eu/doc/document/PE-7-2024-INIT/en/pdf> truy cập ngày 10/11/2024.

[48] Council of the European Union, 'EU brings product liability rules in line with digital age and circular economy' (Press release, 10//2024) <https://www.consilium.europa.eu/en/press/press-releases/2024/10/10/eu-brings-product-liability-rules-in-line-with-digital-age-and-circular-economy/>  truy cập ngày 15/11/2024.

[49] Xem thêm tại chú thích số 35, trang 29.

[50] European Commission, ‘Report from the Commission to the European Parliament, the Council and the European Economic and Social Committee on the Application of the Council Directive on the approximation of the laws, regulations, and administrative provisions of the Member States concerning liability for defective products (85/374/EEC)’ (European Union, 7/5/2018) <http://data.europa.eu/eli/dir/1985/374/oj> truy cập ngày 10/11/2024.

[51] PLD 2024, đoạn 3.

[52] PLD 2024, Điều 8.1.

[53] PLD 2024, Điều 8.2.

[54] Đại diện ủy quyền của nhà sản xuất được định nghĩa là bất kỳ cá nhân hoặc tổ chức nào đặt tại Liên minh châu Âu và đã nhận được ủy nhiệm bằng văn bản từ nhà sản xuất để hành động thay mặt trong các nhiệm vụ cụ thể. Xem thêm tại: PLD 2024, Điều 4(11).

[55] PLD 2024, Điều 8.1(c)(i), 8.1(c)(ii) .

[56] Nhà cung cấp dịch vụ hoàn thiện bao gồm các bên thực hiện dịch vụ lưu kho, đóng gói, ghi địa chỉ và gửi hàng. Xem thêm tại: PLD 2024, Điều 4(13).

[57] PLD 2024, Điều 8.1(c)(iii).

[58] PLD 2024, Điều 8.4.

[59] PLD 1985, Điều 3.

[60] Bao gồm cả nền tảng trực tuyến và nhà cung cấp dịch vụ hoàn thiện.

[61] PLD 2024, Điều 11.

[62] PLD 2024, Điều 10(2).

[63] Theo Điều 10(4) PLD 2024, sự giả định về khuyết tật sẽ được áp dụng khi, do sự phức tạp về kỹ thuật hoặc khoa học của sản phẩm, bên bị thiệt hại gặp khó khăn quá mức trong việc chứng minh sản phẩm bị lỗi và chứng minh rằng sản phẩm có khả năng bị lỗi.

[64] PLD 2024, Điều 10(5) (“Bị đơn có quyền bác bỏ bất kỳ giả định nào được đề cập trong các khoản 2, 3 và 4”).

[65] Nguyễn Thị Thu Vân, ‘Trách nhiệm pháp lý của trí tuệ nhân tạo - Kiến nghị về cách tiếp cận pháp luật của Việt Nam, [2023], <https://www.misa.vn/142919/trach-nhiem-phap-ly-cua-tri-tue-nhan-tao-kien-nghi-ve-cach-tiep-can-cua-phap-luat-viet-nam/> truy cập ngày 10/11/2024.

[66] Nguyễn Thị Quế Anh, Nguyễn Bích Thảo, ‘Pháp luật về trách nhiệm sản phẩm: Từ lý thuyết đến thực tiễn ở Việt Nam’ [2020] 3 Tạp chí Khoa học: Luật học 37, trang  41.

[67] Đỗ Giang Nam, Đào Trọng Khôi, ‘Pháp luật bồi thường thiệt hại ngoài hợp đồng trước thách thức của trí tuệ nhân tạo và công nghệ số mới nổi’ [2022] 20 Nghiên cứu lập pháp 3, trang 7,8.

[68] Nguyễn Hữu Phúc, ‘Legal Requirements For Product Liability Under Eu Law – Legal Lessons For Vietnam’ [2017] 3 Tạp chí Khoa học và Công nghệ Đại học Đà Nẵng 139, trang 140.

[69] Luật BVQLNTD 2023, khoản 2 Điều 34.

[70] BLDS 2015,  Điều 105, 107.

[71] Căn cứ theo Điều 584 BLDS 2015, trường hợp tài sản gây thiệt hại thì chủ sở hữu, người chiếm hữu tài sản phải chịu trách nhiệm bồi thường cho thiệt hại.

[72] Đỗ Ngọc Bảo, ‘Trách nhiệm bồi thường thiệt hại ngoài hợp đồng do trí tuệ nhân tạo gây ra – đạo luật trí tuệ nhân tạo Liên minh châu Âu và kinh nghiệm cho Việt Nam’ (Giải thưởng Nhà nghiên cứu trẻ UEH 2024, Đại học Kinh tế thành phố Hồ Chí Minh, 2024), trang 24 <https://digital.lib.ueh.edu.vn/handle/UEH/72373> truy cập ngày 10/11/2024.

[73] Căn cứ theo Điều 583 BLDS 2015, trách nhiệm bồi thường thiệt hại ngoài hợp đồng phát sinh khi có các điều kiện (i) Có thiệt hại xảy ra, (ii) hành vi gây thiệt hại là hành vi trái pháp luật, (iii) có mối quan hệ nhân quả giữa hành vi trái pháp luật và thiệt hại xảy ra và (iv) có lỗi cố ý hoặc lỗi vô ý của người gây thiệt hại.

[74] “Trong thời đại công nghệ 4.0 với sự lắp đặt rộng rãi của camera giám sát thì việc chứng minh hành vi có lỗi của bên sử dụng AI không phải là một vấn đề khó. Bên sử dụng AI là bên trực tiếp quản lý, điều chỉnh AI trong thời điểm gần nhất phát sinh thiệt hại nên bên sử dụng AI sẽ trở thành một trong những đối tượng mà các bên điều tra hành vi vi phạm xem xét đầu tiên để giải quyết hành vi gây thiệt hại này. Trường hợp bên khác lợi dụng khoảng thời gian bên sử dụng AI vắng mặt cố ý thay đổi các thuật toán trong bộ máy xử lý của AI khiến AI gây ra thiệt hại, nếu không xác định được bên khác liệu bên sử dụng AI có phải chịu trách nhiệm cho toàn bộ thiệt hại gây ra không?”. Xem thêm tại Chú thích số 72, trang 25.

[75] Luật BVQLNTD 2023, khoản 1 Điều 2.

[76]Xem thêm tại chú thích số 71, trang 5.

[78] Lưu Minh Sang, Trần Đức Thành, ‘Trí tuệ nhân tạo và thách thức pháp lý’ [2020] 8 Tạp chí Khoa học & Công nghệ Việt 20, trang 23.

[79] Hoạt động của hệ thống AI bao gồm các yếu tố liên quan đến cách thức vận hành, quy trình ra quyết định của AI, cũng như các tiêu chuẩn an toàn mà hệ thống AI đã được kiểm tra.

[80] Đạo luật AI 2024, Điều 9-17. 

[81] Bùi Thị Hằng Nga, 'Xác lập tư cách pháp lý cho trí tuệ nhân tạo' (Lapphap.vn, 2024) <https://lapphap.vn/Pages/tintuc/tinchitiet.aspx?tintucid=210863> truy cập ngày 20/11/2024.


 
 
 
bottom of page