top of page
icj 1.jpeg

[66] MỘT SỐ VẤN ĐỀ PHÁP LÝ VỀ TRÁCH NHIỆM BỒI THƯỜNG THIỆT HẠI LIÊN QUAN ĐẾN TRÍ TUỆ NHÂN TẠO

  • Nông Ngọc Diệp
  • 8 thg 8
  • 26 phút đọc

Bài viết này được đăng tại Kỷ yếu Hội thảo Khoa học cho Sinh viên về Luật quốc tế lần thứ ba với chủ đề "Trí tuệ Nhân tạo (AI) và những vấn đề pháp lý" của Khoa Luật Quốc tế - Học viện Ngoại giao năm 2024.


Tác giả: Nông Ngọc Diệp[1]


Tóm tắt: Trong bối cảnh các sáng kiến công nghệ ngày càng được phát triển một cách mạnh mẽ, cùng với sự ra đời của vô vàn các phát minh tiên tiến, trí tuệ nhân tạo trở nên ngày càng phổ biến và được ứng dụng trong rất nhiều trong các sản phẩm công nghệ phục vụ đa dạng mục đích với nhiều lĩnh vực. Trí tuệ nhân tạo đã cho thấy vai trò vô cùng quan trọng đối với nhiều khía cạnh của đời sống của con người trong đó có kinh tế, văn hoá, giáo dục,… Tuy nhiên, bên cạnh những lợi ích tích cực mà trí tuệ nhân tạo đã đem lại cũng tồn tại không ít những vấn đề phức tạp cần được chú trọng nghiên cứu, đánh giá và đưa ra giải pháp. Trí tuệ nhân tạo luôn tiềm ẩn những nguy cơ làm phát sinh rất nhiều những tranh chấp liên quan đến mối quan hệ giữa trí tuệ nhân tạo và xã hội loài người. Trong số đó, những vấn đề về tư cách pháp lý cũng như trách nhiệm bồi thường thiệt hại liên quan đến trí tuệ nhân tạo hiện vẫn chưa có một cơ chế thực sự hiệu quả điều chỉnh vấn đề này. Bài viết này tập trung phân tích các khía cạnh pháp lý có liên quan đến trách nhiệm bồi thường thiệt hại liên quan đến trí tuệ nhân tạo, phân tích cách tiếp cận về tư cách pháp lý của các thực thể ứng dụng trí tuệ nhân tạo, từ đó, đưa ra những đề xuất mang tính định hướng cho việc hoàn thiện hệ thống pháp luật điều chỉnh các vấn đề pháp lý có liên quan đến trí tuệ nhân tạo.

 

Từ khóa: Trí tuệ nhân tạo, AI, tư cách pháp lý, trách nhiệm bồi thường thiệt hại.

 

Dẫn nhập

Sự phát triển ngày một mạnh mẽ của trí tuệ nhân tạo (AI) đã đặt dấu mốc quan trọng trong lịch sử phát triển của nhân loại, có thể xem là bước chuyển giao giữa thời kỳ cách mạng công nghiệp 4.0 và kỷ nguyên mới của cách mạng công nghiệp 5.0. Trong bối cảnh sự tương tác giữa con người và các thực thể ứng dụng AI ngày càng trở nên phổ biến, đồng nghĩa với sự phát sinh các quan hệ xã hội giữa con người và các thực thể này cũng ngày càng gia tăng. Trong trường hợp phát sinh những xung đột hay xuất hiện các hành vi xâm phạm quyền và lợi ích hợp pháp của con người do các thực thể ứng dụng AI gây ra hoàn toàn có khả năng làm phát sinh các vấn đề pháp lý liên quan đến năng lực chịu trách nhiệm bồi thường thiệt hại (BTTH). Trên thực tế, những hành vi gây thiệt hại được thực hiện bởi các thực thể ứng dụng AI đã liên tục được ghi nhận, tiêu biểu trong thời gian gần đây tại Việt Nam đã ghi nhận trường hợp một người tử vong do va chạm với máy bay không người lái (Drone) phun thuốc bảo vệ thực vật tại Kiên Giang.[2] Khi xảy ra các trường hợp như vậy, việc xác định chủ thể chịu trách nhiệm pháp lý trong trường hợp phải BTTH sẽ không dễ dàng nếu thiếu vắng khung pháp lý điều chỉnh vấn đề này do tính chất của các thực thể này có nhiều điểm khác biệt so với các thực thể truyền thống. Vì vậy, bài viết lựa chọn tập trung nghiên cứu về đề tài “Một số vấn đề pháp lý về trách nhiệm bồi thường thiệt hại liên quan đến trí tuệ nhân tạo” nhằm mục đích làm rõ cách xác định trách nhiệm BTTH liên quan đến trí tuệ nhân tạo trong đó chủ yếu phân tích trên những thực thể ứng dụng AI.

 

1. Một số vấn đề lý luận cơ bản về trách nhiệm bồi thường thiệt hại

Sự xuất hiện của AI ngày càng phổ biến trong hầu hết tất cả các lĩnh vực của đời sống đã và đang đặt ra rất nhiều vấn đề liên quan tư cách pháp lý của AI. Việc đưa ra câu trả lời cho vấn đề này sẽ đóng vai trò rất quan trọng trong việc xác định chủ thể chịu trách nhiệm BTTH. Bởi, nếu có khả năng các thực thể ứng dụng AI được coi là có tư cách pháp lý điều này sẽ là cơ sở để phát sinh quyền và nghĩa vụ, bao gồm cả nghĩa vụ BTTH.[3]


Đối với vấn đề BTTH, quy định trong luật La Mã và cả pháp luật dân sự của nhiều quốc gia theo dòng họ pháp luật dân luật[4] đều ghi nhận quy định việc BTTH phải được thực hiện bởi chủ thể có hành vi gây thiệt hại hoặc người chịu trách nhiệm về hành vi (người đại diện) của chủ thể đó.[5] Thông thường, quy định của pháp luật hiện hành ở một số quốc gia chỉ dừng ở việc ghi nhận các chủ thể này là các cá nhân và pháp nhân[6] là những chủ thể có tư cách pháp lý và có khả năng thực hiện nghĩa vụ BTTH.[7] Bởi quyền và nghĩa vụ chỉ được ghi nhận cho các chủ thể là con người và pháp nhân.[8] Song các hành vi làm phát sinh nghĩa vụ BTTH dù được gán cho cá nhân hay pháp nhân đều được thực hiện bởi các cá nhân trên thực tế.


Điều này đồng nghĩa với việc, để xác định khả năng BTTH của các thực thể có ứng dụng AI cần xác định chính xác tư cách pháp lý và xác định liệu các thực thể này có được coi là một cá nhân có tư cách pháp lý với các quyền và nghĩa vụ như con người hay không.

 

2. Một số quy định của pháp luật và thực tiễn về trách nhiệm bồi thường thiệt hại liên quan đến trí tuệ nhân tạo

2.1. Thực tiễn về bồi thường thiệt hại liên quan đến trí tuệ nhân tạo

Hiện nay, AI đang ngày càng phát triển và không ngừng đạt được những bước tiến mới về độ hoàn thiện của các thực thể ứng dụng AI trong đa dạng các lĩnh vực khác nhau. Trong đó, một số AI được trang bị công nghệ deep learning và machine learning đã được phát triển đến mức có khả năng tự học hỏi, tích lũy kinh nghiệm và có thể tự đưa ra quyết định và vận hành một cách hoàn toàn độc lập với con người[9] và có khả năng gây ra thiệt hại một cách độc lập. Đồng thời, những công nghệ vượt trội như vậy lại đã và đang được phổ cập với tốc độ vô cùng nhanh chóng trong bối cảnh hiện nay, dẫn đến sự tiếp xúc giữa con người và các thực thể ứng dụng AI ngày càng trở nên phổ biến.[10]


Mặc dù, với sự phát triển vô cùng vượt bậc của công nghệ, các nhà nghiên cứu và các đơn vị sản xuất AI ngày càng hướng đến mức độ hoàn thiện gần như tuyệt đối với tỷ lệ sai sót ngày càng thấp.[11] Song, khả năng xảy ra các vấn đề liên quan đến sự mất an toàn khi các thực thể ứng dụng AI được đưa vào sử dụng là hoàn toàn có thể dù xác suất có thể là không cao.[12] Thực tế cũng đã cho thấy không ít những trường hợp các sản phẩm, thiết bị được vận hành tự động bởi AI đã gây ra những thiệt hại không chỉ về vật chất thậm chí là ảnh hưởng đến sức khoẻ và tính mạng của con người. Ví dụ, trong nhiều trường hợp, các phương tiện giao thông được vận hành bởi AI có khả năng gây tai nạn do phát sinh lỗi về phần mềm hoặc các thuật toán, hoặc AI có thể thực hiện những hành vi gây thiệt hại một cách có chủ đích và bỏ qua sự an toàn của người khác để đạt được mục tiêu đã được thiết lập sẵn cho chính nó.[13] Trên thực tế, các trường hợp phương tiện giao thông được điều khiển tự động bởi AI gây tai nạn đã xảy ra thậm chí có xu hướng gia tăng.[14]  Tiêu biểu dòng xe điện tự lái của Tesla được xác định gây ra ít nhất 13 vụ tai nạn gây tử vong và nhiều vụ việc khác gây thương tích nghiêm trọng, đặc biệt việc lạm dụng hệ thống lái tự động được cho là nguyên nhân hàng đầu.[15]


Ngoài ra, theo báo cáo năm 2024 của AI Incident Database (AIID) – cơ sở dữ liệu sự cố AI, số lượng các trường hợp ứng dụng AI gây ra sự cố có xu hướng gia tăng hàng năm.[16] Trong đó, năm 2023 có 123 vụ việc được báo cáo, tăng 32,3% so với năm 2022 và tăng gấp 20 lần so với năm 2013.[17] Với xu hướng ngày càng gia tăng các trường hợp sự cố gây ra bởi AI, thiệt hại chắc chắn sẽ phát sinh ngày càng gia tăng về số lượng điều này sẽ dẫn đến những tình huống pháp lý liên quan đến trách nhiệm BTTH. Trên thực tế, đã có không ít những vụ án đã được khởi kiện liên quan đến vấn đề yêu cầu BTTH gây ra bởi các thực thể ứng dụng AI đặc biệt là phương tiện tự vận hành bởi AI.[18]


Nhìn chung, thực tiễn cho thấy sự phát triển của AI luôn đặt ra nhiều thách thức với xu hướng ngày càng gia tăng về số lượng các vụ việc gây thiệt hại bởi AI. Trong khi đó, vấn đề xác định trách nhiệm BTTH liên quan đến AI còn tồn tại rất nhiều hạn chế và tồn tại nhiều quan điểm chưa được thống nhất để điều chỉnh và giải quyết những tình huống pháp lý như vậy.

 

2.2. Những quan điểm về trách nhiệm bồi thường thiệt hại liên quan đến trí tuệ nhân tạo

Hiện nay, có hai quan điểm không thống nhất liên quan đến vấn đề xác định tư cách pháp lý của AI và xác định trách nhiệm BTTH liên quan đến AI. Quan điểm thứ nhất cho rằng các thực thể ứng dụng AI là “tài sản” và không có tư cách pháp lý độc lập và do đó không thể tự chịu trách nhiệm về hành vi của mình.[19] Quan điểm này nhận được nhiều sự ủng hộ và có nhiều điểm tương đồng hơn các quy định hiện hành của hệ thống pháp luật các quốc gia, trong đó tập trung vào học thuyết trách nhiệm nghiêm ngặt (Strict liability), học thuyết trách nhiệm sản phẩm (Product liability) và học thuyết trách nhiệm pháp lý gián tiếp (Vicarious liability). Theo đó, đa số các quốc gia căn cứ vào pháp luật hiện hành để quy trách nhiệm về một chủ thể xác định bao gồm chủ sở hữu, người sử dụng, đơn vị vận hành,… Chẳng hạn, theo quy định của pháp luật châu Âu “hành vi sử dụng sản phẩm chịu trách nhiệm về những thiệt hại xảy ra” do đó chủ thể sử dụng AI sẽ phải chịu trách nhiệm BTTH.[20] Ngoài ra, cũng có quy định quy trách nhiệm BTTH cho nhà sản xuất trước những hành vi gây thiệt hại được thực hiện bởi các sản phẩm ứng dụng AI.[21]


Theo quan điểm này, bất kể chủ sở hữu, nhà sản xuất,.. có lỗi hay không việc các thực thể ứng dụng AI thực hiện các hành vi gây thiệt hại phải thuộc về trách nhiệm quản lý của các chủ thể này. Trong các trường hợp như vậy, yếu tố lỗi không được coi là một điều kiện để xác định trách nhiệm BTTH. Bởi vì, nếu coi các thực thể ứng dụng AI là tài sản thì sự tồn tại và hoạt động của tài sản phải luôn nằm trong sự quản lý của chủ sở hữu hoặc một chủ thể nhất định. Mặc dù, người quản lý tài sản không có lỗi trong hành vi gây ra thiệt hại, nhưng việc tài sản thuộc sự quản lý của họ gây ra thiệt hại thì mặc nhiên xác định là họ có lỗi. Đồng thời, mặc dù lỗi không phải là điều kiện làm phát sinh trách nhiệm BTTH theo học thuyết này, nhưng việc xác định lỗi của các bên cũng có những vai trò nhất định trong việc giải quyết vấn đề BTTH do tài sản gây ra trên thực tế.[22] Trong đó, nhấn mạnh đến tính chất và nguyên nhân cụ thể của thiệt hại để xác định những chủ thể liên quan có được loại trừ trách nhiệm BTTH hay không, hoặc có được giảm mức bồi thường phù hợp với tính chất và mức độ lỗi trong hành vi gây thiệt hại hay không. Ví dụ, nếu chứng minh được chủ sở hữu đã nỗ lực trong việc giành lại quyền điều khiển để hạn chế thiệt hại xảy ra khi các thực thể ứng dụng AI mất kiểm soát, chủ sở hữu có khả năng được giảm mức BTTH.


Thực tế, ưu điểm của cách tiếp cận nghiêm ngặt như vậy giúp hạn chế việc lơ là và thiếu cẩn trọng trong khâu sản xuất hoặc quá trình vận hành và sử dụng các thực thể ứng dụng AI để thúc đẩy trách nhiệm quản lý của các chủ thể cũng như nhấn mạnh trách nhiệm của các chủ thể này đối với vấn đề đảm bảo an toàn xã hội.[23] Đồng thời, đảm bảo tính công bằng cho người chịu thiệt hại bởi nếu không công nhận AI là một chủ thể có tư cách pháp lý và không công nhận học thuyết nghiêm ngặt, coi lỗi là một điều kiện để xác định trách nhiệm BTTH sẽ đồng nghĩa với việc gián tiếp bác bỏ khả năng đòi bồi thường của nạn nhân.[24] Bởi chủ sở hữu, nhà sản xuất, lập trình viên,… đều không có lỗi trong việc gây thiệt hại mà lỗi hoàn toàn do bản thân AI – trong khi AI không được trao tư cách pháp lý dẫn đến việc nạn nhân không thể đòi BTTH từ một chủ thể như vậy.[25]


Mặt khác, cách tiếp cận như vậy có khả năng gây hạn chế sự phát triển của ngành công nghiệp AI bởi nỗi lo về khủng hoảng pháp lý khi chủ sở hữu, nhà sản xuất, vận hành đứng trước nguy cơ đối mặt với những thách thức pháp lý trong lĩnh vực này. Đồng thời, những quan điểm phản đối cách tiếp cận này cũng cho rằng, không thể áp đặt trách nhiệm BTTH lên các chủ thể không có lỗi trong việc gây ra thiệt hại và coi yếu tố lỗi phải được đặt lên hàng đầu để xác định chủ thể chịu trách nhiệm.[26]


Ngoài ra, cũng tồn tại quan điểm gần tương tự cho rằng việc xác định trách nhiệm BTTH liên quan đến AI có thể được tiếp cận giống như các quy định về BTTH gây ra bởi vật nuôi,[27] các nguồn nguy hiểm cao độ như thú dữ,[28] hoặc BTTH gây ra bởi người chưa thành niên,[29] hoặc quy định về trách nhiệm gián tiếp trong trường hợp quy trách nhiệm BTTH cho pháp nhân do hành vi của người của pháp nhân, người làm công, học nghề gây ra.[30]


Mặc dù, những cách tiếp cận dựa trên cơ sở pháp luật hiện hành có thể giúp giải quyết một số tình huống pháp lý nhất định có liên quan đến AI, giúp tiết kiệm thời gian và công sức, chi phí trong việc phải thiết lập một hệ thống pháp lý hoàn toàn mới để điều chỉnh AI.[31] Song, mỗi cách tiếp cận như vậy đều vướng phải hạn chế do tính chất hoàn toàn mới và có nhiều điểm khác biệt của AI so với các thực thể truyền thống khác.[32]


Quan điểm thứ hai coi AI là một chủ thể có tư cách pháp lý và có khả năng chịu trách nhiệm cho hành vi của chính mình như con người.[33] Tuy nhiên quan điểm thứ hai phần lớn chỉ mang tính học thuyết vì đa số các quốc gia trên thế giới và các tổ chức quốc tế đều chưa ghi nhận AI là một chủ thể của pháp luật và không thể tự chịu trách nhiệm BTTH.[34] Nguyên nhân chủ yếu là bởi mặc dù AI đã và đang phát triển ngày càng đạt tới mức độ hoàn thiện rất cao nhưng nhiều ý kiến vẫn nhận định rằng AI không thể hoàn toàn tách rời với con người[35] và việc trao tư cách pháp lý cho các thực thể ứng dụng AI có thể gây ra xung đột pháp luật và đặc biệt có thể tạo ra những ảnh hưởng tiêu cực đến các mối quan hệ xã hội của con người đặc biệt là khía cạnh đạo đức.[36] Cũng theo quan điểm này, căn cứ xác định chủ thể chịu trách nhiệm BTTH phải được xác định bởi yếu tố lỗi và việc các thực thể ứng dụng AI gây ra các thiệt hại thực tế cần quy trách nhiệm cho chính AI - chủ thể thực hiện hành vi.[37]


Trên thực tế, các thực thể ứng dụng AI được hình thành rất phức tạp không chỉ tồn tại một quan hệ sở hữu duy nhất giữa người dùng và thực thể mà còn có cả nhà sản xuất, lập trình viên,… và thậm chí các thực thể này được vận hành bởi AI hoàn toàn có khả năng bị can thiệp của bên thứ ba khác như các hackers, tội phạm mạng dẫn đến những sai sót trong quá trình vận hành hoặc gặp các lỗi về mặt phần mềm, kỹ thuật và gây ra thiệt hại trên thực tế.[38] Điều này dẫn đến việc xác định yếu tố lỗi cũng gặp nhiều khó khăn đặc biệt khi lỗi phát sinh từ hành vi can thiệp của bên thứ ba bởi các hành vi này không dễ để truy vết khi tất cả đều được thực hiện trên không gian mạng. 


Song, không thể phủ nhận rằng sự phát triển của AI hoàn toàn có thể đạt đến mức độ vận hành độc lập mà không có sự can thiệp của con người sau khi hoàn thành quá trình sản xuất, lập trình. Với mức độ tinh vi và hoàn thiện cao như vậy khác biệt với các thực thể truyền thống, việc dự đoán trước những hành động của AI là gần như không thể đạt được độ chính xác tuyệt đối và hoàn toàn nằm ngoài khả năng kiểm soát và quản lý của chủ sở hữu, lập trình viên hoặc đơn vị vận hành và lỗi hoàn toàn đến từ quyết định độc lập của các thực thể ứng dụng AI do đó các thực thể này thực chất không thể coi là tài sản đơn thuần. Vì vậy mà tồn tại các ý kiến phản đối quan điểm thứ nhất, và ủng hộ quan điểm thứ hai theo học thuyết cổ điển, theo đó, người chịu thiệt hại phải có trách nhiệm chứng minh lỗi của người gây thiệt hại đồng nghĩa với việc chủ thể không có lỗi sẽ không phải chịu trách nhiệm BTTH.[39] Bên cạnh đó, việc áp dụng quan điểm thứ nhất cũng gặp phải một số vấn đề khi một số hệ thống pháp lý của các nước có quy định cụ thể rằng các nhà sản xuất chỉ phải chịu trách nhiệm về các lỗi phát sinh khi có nguy cơ gây hại có thể dự đoán trước do sản phẩm gây ra[40] trong khi sự vận hành của AI trong nhiều trường hợp vượt quá khả năng dự đoán của con người.

 

2.3. Pháp luật Việt Nam về trách nhiệm bồi thường thiệt hại liên quan đến trí tuệ nhân tạo

Pháp luật Việt Nam hiện chưa ghi nhận bất kỳ quy định nào liên quan đến vấn đề trao quyền công dân cho các thực thể ứng dụng AI trên thực tế. Trong đó, Hiến pháp Việt Nam năm 2013 chỉ trao quyền công dân cho các chủ thể là con người. Ngoài ra, pháp luật hiện hành cũng chưa ghi nhận AI là một thực thể có tư cách pháp lý riêng biệt, mà chủ yếu coi các thực thể ứng dụng AI dưới dạng hàng hoá, sản phẩm, tài sản.[41]


Đối với vấn đề BTTH, đây là một chế định quan trọng của pháp luật dân sự các nước nói chung và của Việt Nam nói riêng nhằm bảo vệ quyền và lợi ích chính đáng cho những người chịu thiệt hại từ hành vi xâm phạm quyền và lợi ích của chủ thể khác. Tương tự như nhiều quy định của các quốc gia khác trên thế giới, Việt Nam quy định chủ thể gây thiệt hại thì phải chịu trách nhiệm BTTH.[42] Tuy nhiên, pháp luật Việt Nam hiện hành chưa có quy định về trách nhiệm BTTH liên quan đến AI. Cụ thể, trong quy định của Bộ luật Dân sự (BLDS) năm 2015, ghi nhận trách nhiệm BTTH đối với cá nhân[43] và pháp nhân[44] và chưa có quy định cụ thể về chủ thể chịu trách nhiệm BTTH là các thực thể ứng dụng AI.


Tuy nhiên, xét trên nền tảng những quy định hiện hành của pháp luật Việt Nam về trách nhiệm BTTH có thể nhận thấy nhiều điểm tương đồng với cách tiếp cận của nhiều quốc gia và tổ chức quốc tế trên thế giới. Thứ nhất, pháp luật Việt Nam có quy định về trách nhiệm BTTH của nhà sản xuất theo Luật Chất lượng sản phẩm hàng hoá năm 2007,[45] sửa đổi bổ sung 2018 và quy định về BTTH ngoài hợp đồng trong BLDS năm 2015.[46] Thứ hai, nếu như xác định các thực thể ứng dụng AI là tài sản như quan điểm thứ nhất được nêu ở trên, theo quy định tại Khoản 3 Điều 584 BLDS năm 2015: “Trường hợp tài sản gây thiệt hại thì chủ sở hữu, người chiếm hữu tài sản phải chịu trách nhiệm BTTH…”. Ngoài ra, BLDS năm 2015 cũng ghi nhận các quy định về trách nhiệm BTTH do người của pháp nhân gây ra,[47] do người làm công, người học nghề gây ra,[48] do nguồn nguy hiểm cao độ gây ra.[49] Qua các quy định của BLDS năm 2015 có thể nhận thấy, đối với trường hợp tài sản gây thiệt hại, cơ bản pháp luật Việt Nam coi yếu tố lỗi chỉ là một trong các điều kiện để có thể xem xét giảm mức bồi thường chứ không phải là điều kiện phát sinh trách nhiệm BTTH.[50] Tuy vậy, các quy định nêu trên chỉ chủ yếu áp dụng đối với các chủ thể truyền thống và chưa từng được áp dụng đối với các chủ thể phi truyền thống như AI.

 

3. Đánh giá về trách nhiệm bồi thường thiệt hại liên quan đến trí tuệ nhân tạo và đề xuất định hướng

Nhìn chung vấn đề tư cách pháp lý liên quan đến các thực thể ứng dụng AI còn tồn tại nhiều quan điểm và học thuyết trái chiều. Để nhận định đúng về tư cách pháp lý của AI cần thiết phải xem xét dựa trên nhiều tố bao gồm cả các yếu tố về mặt pháp lý và đạo đức. Nếu ghi nhận các thực thể ứng dụng AI có tư cách pháp lý một mặt có thể đưa AI trở thành một chủ thể mới trong hệ thống pháp luật và gắn trách nhiệm BTTH cho chính các thực thể này. Mặt khác, điều này cũng sẽ đặt ra nhiều vấn đề về mặt đạo đức khi coi các thực thể này có quyền và nghĩa vụ ngang với con người trong khi bản thân các thực thể này vẫn thiếu vắng những đặc điểm rất quan trọng của con người.[51] Ngược lại, nếu tiếp cận theo hướng không coi các thực thể ứng dụng AI không có tư cách pháp lý riêng biệt, vấn đề xác định trách nhiệm BTTH sẽ khá phức tạp khi thực tế cho thấy bản thân các thực thể này không chỉ được quản lý vận hành bởi chủ sở hữu mà còn có trách nhiệm từ nhiều bên liên quan khác như nhà sản xuất, bộ phận lập trình,…Khi đó, việc xác định yếu tố lỗi sẽ phải được đặt ra và điều tra, đánh giá một cách vô cùng cẩn trọng bời tính chất phức tạp của các thực thể này.[52]


Việc xác định trách nhiệm BTTH có liên quan đến AI là vấn đề còn nhiều khó khăn bởi tính chất mới và chưa từng có tiền lệ của loại chủ thể này trong lịch sử pháp lý nhân loại. Đồng thời, tính chất phức tạp của loại chủ thể này khiến việc áp dụng các chế định pháp lý về xác định trách nhiệm BTTH cũng không dễ dàng. Trong khi đó, sự ứng dụng của AI đang ngày càng trở nên phổ biến đòi hỏi cần thiết phải có khung pháp lý để điều chỉnh hành vi của chủ thể này nhằm quản lý và hạn chế những tranh chấp pháp lý không cần thiết.


Việc xác định trách nhiệm BTTH dù được tiếp cận theo nhiều cách khác nhau song việc hài hoà và vận dụng linh hoạt các nền tảng lý luận từ các học thuyết nêu trên đóng vai trò cốt lõi. Trong đó, với sự phát triển tiên tiến của công nghệ hiện đại, việc xác định nguyên nhân dẫn đến các lỗi phát sinh trong quá trình vận hành của các thực thể ứng dụng AI không phải là bất khả thi. Để định hướng pháp luật điều chỉnh một cách toàn diện hơn, khuyến khích việc áp dụng các công cụ để kiểm tra đánh giá năng lực của các thực thể ứng dụng AI sẽ giúp định hình tư cách pháp lý của các thực thể này một cách rõ ràng hơn trước khi các thực thể này được sử dụng trên thực tế. Ý tưởng này thực tế đã được các chuyên gia, học giả và một số quốc gia nghiên cứu.[53] Dựa trên việc thiết kết và áp dụng cách kiểm tra đánh giá năng lực sẽ có thể giúp phân loại các thực thể ứng dụng AI theo từng mức độ từ đó có thể xác định tư cách pháp lý phù hợp cho từng thực thể. Ví dụ, nếu được phân loại ở mức thấp (Weak AI) đồng nghĩa với việc các thực thể chỉ có khả năng thực hiện một số tác vụ nhất định mà không có khả năng vận hành và hoạt động hoàn toàn độc lập với con người[54] sẽ có thể được coi là các “tài sản” thuộc quyền sở hữu của con người, không có tư cách pháp lý riêng biệt và trách nhiệm BTTH khi xảy ra thiệt hại sẽ được xác định cụ thể dựa vào mức độ và tính chất trong xác định yếu tố lỗi của các chủ thể có liên quan. Cụ thể, trong trường hợp các thực thể ứng dụng AI này phát sinh lỗi trong quá trình vận hành, trách nhiệm BTTH sẽ được quy cho chủ sở hữu nếu xác định rằng chủ sở hữu có khả năng điều khiển (một phần hoặc toàn bộ) để ngăn cản, hạn chế thiệt hại xảy ra, hoặc quy cho đơn vị lập trình nếu phát hiện lỗi đến từ các thuật toán trong quá trình sản xuất, hoặc quy cho đơn vị kiểm định vì đã bỏ qua các sai sót về mặt kỹ thuật dẫn đến thiếu an toàn trong quá trình vận hành,… Trong trường hợp khác, khi các thực thể ứng dụng AI đạt ngưỡng yêu cầu về khả năng vận hành hoàn toàn độc lập với con người sau khi tách rời khỏi giai đoạn sản xuất, các thực thể này có thể được coi là có khả năng vượt bậc (Artificial superintelligence)[55] là một chủ thể độc lập có tư cách pháp lý đặc biệt có khả năng tự chịu trách nhiệm BTTH cho những hành vi tự mình gây ra.[56] Khi đó, quy định pháp luật của các quốc gia cần ghi nhận thêm một chủ thể đặc biệt mới xác định các quyền và nghĩa vụ nhất định và công nhận khả năng sở hữu tài sản của các chủ thể này để có khả năng tham gia vào một số quan hệ xã hội nhất định bao gồm cả quan hệ hợp đồng và có khả năng bồi thường các khoản thiệt hại. Việc thiết kế và áp dụng một công cụ kiểm tra đánh giá năng lực sẽ giúp đánh giá khách quan về tư cách chủ thể của các thực thể ứng dụng AI, qua đó đảm bảo yếu tố công bằng trong việc xác định trách nhiệm BTTH.


Đối với Việt Nam, như đã phân tích, hiện nay chưa có bất kỳ quy định nào của pháp luật Việt Nam điều chỉnh vấn đề liên quan đến trách nhiệm BTTH liên quan đến AI. Trong tương lai gần, Việt Nam cũng sẽ không thể tránh khỏi làn sóng phát triển mạnh mẽ của các thực thể ứng dụng AI, vì vậy, việc đưa ra những quy định điều chỉnh vấn đề này là cấp thiết. Để vừa khuyến khích sự phát triển của lĩnh vực đổi mới khoa học công nghệ và vừa để đảm bảo sự công bằng và quyền, lợi ích hợp pháp của người dân, việc đưa ra chế định theo đó, dựa trên cơ bản cách tiếp cận của BLDS năm 2015 về BTTH, xác định rõ tư cách chủ thể của các thực thể ứng dụng AI là cấp thiết. Đối với việc trao cho AI một tư cách pháp lý như một chủ thể đặc biệt đòi hỏi cần có sự cân nhắc và nghiên cứu kỹ lưỡng hơn trong tương lai dựa trên tiềm lực công nghệ của quốc gia và cân nhắc các yếu tố kinh tế, xã hội khác bao gồm cả yếu tố về mặt đạo đức.

 

4. Kết luận

Nhìn chung, vấn đề xác định trách nhiệm BTTH liên quan đến AI còn tồn tại nhiều quan điểm đối lập và chưa đạt được sự thống nhất cũng như chưa được ghi nhận một cách cụ thể và toàn diện trong hệ thống pháp luật của nhiều quốc gia trong đó có Việt Nam. Song, qua nghiên cứu và phân tích các học thuyết có liên quan, nhận thấy rằng việc đưa ra một khung pháp lý điều chỉnh vấn đề là cấp thiết trên cơ sở hài hoà và vận dụng linh hoạt những học thuyết được cộng đồng quốc tế ủng hộ đảm bảo tạo ra cơ sở pháp lý vừa đảm bảo tính công bằng có cân nhắc kỹ lưỡng về yếu tố đạo đức và vừa đảm bảo khuyến khích sự phát triển của khoa học công nghệ trong tương lai.


DANH MỤC TÀI LIỆU THAM KHẢO

[1] Nông Ngọc Diệp – Sinh viên Khoa Luật Quốc tế - Học viện Ngoại giao.

[2] Quốc Trinh, ‘Kiên Giang: Bị máy bay không người lái va chạm, người đi đường tử vong’ (Báo Nhân dân điện tử, 26/11/2024) <https://nhandan.vn/kien-giang-bi-may-bay-khong-nguoi-lai-va-cham-nguoi-di-duong-tu-vong-post846996.html> truy cập ngày 05/12/2024.

[3] Karolina Ziemianin, ‘Civil legal personality of artificial intelligence. Future or utopia?’ [2021] 10(2) Internet Policy Review, trang 18.

[4] BLDS Cộng hòa Lithuania, Điều 6.263; BLDS Pháp, Điều 1383; BLDS Đức, Điều 823; BLDS Quebec, Điều 1457.

[5] Cerka P, Jurgita Grigiene, Gintare Sirbikyte, ‘Liability for damages caused by artificial intelligence’ [2015],  Computer Law & Security Review, trang 8.

[6] Judson A. Crane, ‘The Uniform Partnership Act and Legal Persons’ [1916] 29(8) Harvard Law Review, trang 839: “…A legal person (Pháp nhân) is an entity treated by the law as the subject of rights and obligations. Human beings constitute the numerically largest class of legal persons and have a wider range of interests and powers than other legal persons, such as the state, the city, the university, the business corporation…”; Bryant Smith, ‘Legal Personality' [1928] Vol. XXXVII No. 3, Yale Law Journal, trang 233: “To be a legal person is to be the subject of rights and duties…”.

[7] Bộ luật Dân sự năm 2015 Điều 587, 584; Bộ luật Dân sự Pháp 2013, Điều 1384; Bộ luật Dân sự Ba Lan 2012, Điều 427,429,430.

[8] Cerka P, Jurgita Grigiene, Gintare Sirbikyte, ‘Liability for damages caused by artificial intelligence’ [2015],  Computer Law & Security Review, trang 8.

[9] Enrico Bonadio, Luke McDonagh and Christopher Arvidsson, ‘Intellectual Property Aspects of Robotics’ [2018], 9(4), European Journal of Risk Regulation, trang 655-676;  Eduardo Magrani, ‘New perspectives on ethics and the laws of artificial intelligence’ [2019] 8 Internet Policy Review, trang 9. 

[10] Mohsen Sooria, Behrooz Arezoob, Roza Dastresc, ‘Artificial intelligence, machine learning and deep learning in advanced robotics, a review’ [2023], Volume 3 Cognitive Robotics, trang 65.

[11] Keith Kirkpatrick, ‘Legal issues with robots’ [2013], Vol. 56, No. 11 Communications of the ACM, trang 17.

[12] Stephen M. Omohundro, ‘The Basic AI Drives. - Self-Aware Systems.’ (Proceedings of the 2008 conference on Artificial General Intelligence, June 2008), trang 483.

[13] Cerka P, Jurgita Grigiene, Gintare Sirbikyte, ‘Liability for damages caused by artificial intelligence’ [2015],  Computer Law & Security Review, trang 7.

[14] Chuyển động 24/TTXVN, ‘Tai nạn ô tô Tesla "không người lái" khiến 2 người thiệt mạng’ (VTV online, ngày 19/04/2021) <https://vtv.vn/the-gioi/tai-nan-o-to-tesla-khong-nguoi-lai-khien-2-nguoi-thiet-mang-20210419190946197.htm> truy cập ngày 05/12/2024.

[15] ‘Tesla Autopilot feature was involved in 13 fatal crashes, US regulator says’ (The Guardian, ngày26/4/2024) <https://www.theguardian.com/technology/2024/apr/26/tesla-autopilot-fatal-crash> truy cập ngày 05/12/2024.

[16] Artificial Intelligence Index Report 2024, Chương 3, trang 7.

[17] Như trên.

[18] GW Law, ‘Database of AI Litigation’, <https://blogs.gwu.edu/law-eti/ai-litigation-database/> truy cập ngày 10/11/2024.

[19] Bertolini, A, ‘Robots as Products: The Case for a Realistic Analysis of Robotic Applications and Liability Rules.’ [2013] 5(2) Law Innovation and Technology, trang 214.

[20] Lưu Minh Sang, Trần Đức Thành, ‘Trí tuệ nhân tạo và những thách thức pháp lý’ [2020], 8 Tạp chí Khoa học và Công nghệ Việt Nam 20, trang 22.

[21] European Parliament resolution of 16 February 2017 with recommendations to the Commission on Civil Law Rules on Robotics (2015/2103(INL)).

[22] Dr. Sarah Zein, ‘The Civil Liability for Artificial Intelligence’ [2023] Vol. 2022 , Article 14, BAU Journal - Journal of Legal Studies - مجلة الدراسات القانونية, trang 5. 

[23] Wendehorst Christiane, ‘Strict Liability for AI and other Emerging Technologies’ [2020] 11 Journal of European Tort Law, trang 174.

[24] Nguyễn Mạnh Bách, Nghĩa vụ dân sự trong luật dân sự Việt Nam, (Tái bản lần thứ nhất, NXB Chính trị Quốc gia 1998), trang 242.

[25] D'Agostino, Giuseppina; Gaon, Aviv; Piovesan, Carole (Biên tập), Leading Legal Disruption : Artificial Intelligence and a Toolkit for Lawyers and the Law (Nhà xuất bản Éditions Yvon Blais 2021), trang 173-174.

[26] European Commission, ‘Report on the safety and liability implications of Artificial Intelligence, the Internet of Things and Robotics’, <https://commission.europa.eu/publications/commission-report-safety-and-liability-implications-ai-internet-things-and-robotics-0_en> truy cập ngày 10/11/2024.

[27] Kārkliņš, Jānis, ‘Artificial Intelligence and Civil Liability’ [2020], 13 Journal of the University of Latvia. Law, trang 174.

[28] Artificial Intelligence and the Law in Canada, Florian Martin-Bariteau & Teresa Scassa (LexisNexis, 2021 trang 13; Animals Act 1971, Chapter 22; Dangerous Wild Animals Act 1976, Chapter 38; Chessman, Christian,  ‘Not Quite Human: Artificial Intelligence, Animals, and the Regulation of Sentient Property’ SSRN Electronic Journal, (California, January 2018), <https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3200802> truy cập ngày 11/11/2024.

[29] Patrick Lin, George Bekey, Keith Abney, and Ryan Jenkins (Biên tập), Robot Ethics 2.0 (Nhà xuất bản Oxford University Press 2017), trang 72.

[30] Florian Martin-Bariteau, Teresa Scassa, Artificial Intelligence and the Law in Canada, (Nhà xuất bản LexisNexis 2021), trang 13.

[31] Frits Willem Hondius, Emerging Data Protection in Europe (Nhà xuất bản North-Holland Publishing Company 1975), trang 88.

[32] D'Agostino, Giuseppina; Gaon, Aviv; Piovesan, Carole (Biên tập), Leading Legal Disruption : Artificial Intelligence and a Toolkit for Lawyers and the Law (Nhà xuất bản Éditions Yvon Blais 2021), trang 170-176.

[33] Paulius  Cerka,  Jurgita  Grigiene,  Gintare Sirbikyt, ‘Liability  for  damages caused by artificial intelligence’, [2015] 31 Computer Law & Security Review, trang 376-389.

[34] Paulius  Cerka,  Jurgita  Grigiene,  Gintare Sirbikyt, ‘Liability  for  damages caused by artificial intelligence’, [2015] 31 Computer Law & Security Review, trang 376-389.

[35] Andrea Bertolini, ‘Artificial Intelligence and Civil Liability’ [2020], Policy Department for Citizens' Rights and Constitutional Affairs European Parliament, trang 36.

[36] John Stewart Gordon, ‘Artificial moral and legal personhood’ [2021] Volume 36, Issue 2, AI & SOCIETY, trang 457–471.

[37] Karolina Ziemianin, ‘Civil legal personality of artificial intelligence. Future or utopia?’ [2021] 10(2) Internet Policy Review, trang 18.

[38] A. Austin, ’Product Liability in the AI age’ <https://www.freshfields.com/en-gb/our-thinking/campaigns/technolo-

gy-quotient/regulation-and-platforms/artificial-intelligence/product-liability-in-the-ai-age/?> truy cập ngày 15/11/2024.

[39] Vũ Văn Mẫu (1963), Việt Nam dân luật lược khảo (quyển II - Nghĩa vụ và khế ước), Nxb Sài Gòn, Sài Gòn, trang 481.

[40] United States Restatement (Third) Of Torts: Product Liability §2(b) (1998) [Restatement] (which states that the manufacturer is liable for design defects ‘‘when the foreseeable risk of harm posed by the product could have been reduced or avoided by the adoption of a reasonable alternative design by the seller or other distributor, or a predecessor in the commercial chain of distribution, and the omission, of the alternative design renders the product not reasonably safe” as well as for its ‘‘inadequate instructions or warnings when the foreseeable risks of harm posed by the product could have been reduced or avoided by the provision of reasonable instructions or warnings by the seller or other distributor, or a predecessor in the commercial chain of distribution, and the omission of the instructions or warnings renders the product not reasonably safe”. A similar rule exists under EC, Product Liability Directive, supra note 15, art 7(b) and under the Swiss Product Liability Act (RS 221.112.944), art 5(b), amongst others, establishing the ‘‘development risk” defense that manufacturers are likely to raise in cases of AI’s unforeseeable actions. Under this defense, producers can escape liability if they can establish that, at the time the AI was put into circulation, they were not aware and could not have been aware of the risk which materialized.

[41] Lê Minh Hùng, Nguyễn Thiện Tâm, ‘Chủ thể chịu trách nhiệm bồi thường thiệt hại do trí tuệ nhân tạo gây ra’ [2023] Số 08 (168) Tạp chí khoa học pháp lý Việt Nam, trang 16 – 19.

[42] Bộ Luật Dân sự năm 2015, Khoản 1 Điều 584.

[43] Bộ Luật Dân sự năm 2015, Điều 586.

[44] Bộ Luật Dân sự năm 2015, Điều 597.

[45] Luật Chất lượng sản phẩm hàng hoá năm 2007, Điều 59 – 63.

[46] Bộ Luật Dân sự năm 2015, Điều 584 – Điều 608.

[47] Bộ Luật Dân sự năm 2015, Điều 597.

[48] Bộ Luật Dân sự năm 2015, Điều 600.

[49] Bộ Luật Dân sự năm 2015, Điều 601.

[50] Nguyễn Văn Hợi, ‘Trách nhiệm bồi thường thiệt hại do tài sản gây ra theo pháp luật dân sự Việt Nam’ (Luận văn Tiến sĩ Luật học, Trường Đại học Luật Hà Nội 2017),  trang 17.

[51] Heng Gao (2021). Analysis of Citizenship for AlI (Artificial Intelligence). Advances in Economics, Business and Management Research, vol 185: Proceedings of the 1st International Symposium on Innovative Management and Economics (ISIME 2021), Atlantis Press, trang 622-626; European Parliamentary Research Services (2020). The ethnics of Artificial Intelligence: Issues and nitiatives, European Union, Brussels, trang 18.

[52] D'Agostino, Giuseppina; Gaon, Aviv; Piovesan, Carole (Biên tập), Leading Legal Disruption : Artificial Intelligence and a Toolkit for Lawyers and the Law (Nhà xuất bản Éditions Yvon Blais 2021), trang 170-171.

[53] Hernández-Orallo, J. ‘Identifying Artificial Intelligence capabilities: What and how to test’ [2021], Volume 1:  Capabilities and Assessments, AI and the Future of Skills, OECD Publishing; Goertzel, Ben. ‘Artificial General Intelligence: Concept, State of the Art, and Future Prospects’ [2014] 5(1)  Journal of Artificial General Intelligence, Journal of Artificial General Intelligence, trang 1-46; Riedl, Mark. (2014). The Lovelace 2.0 Test of Artificial Creativity and Intelligence; Eagleman, David. (2023). A proposed test for human-level intelligence in AI; Rapaport, W. (2006). Turing Test. Encyclopedia of Language & Linguistics.

[54] Maydanyk, Roman & Maidanyk, Nataliia & Velykanova, Maryna, ‘Liability for damage caused using artificial intelligence technologies’ [2021]  28(2) Journal of the National Academy of Legal Sciences of Ukraine, trang 152.

[55] Maydanyk, Roman & Maidanyk, Nataliia & Velykanova, Maryna, ‘Liability for damage caused using artificial intelligence technologies’ [2021]  28(2) Journal of the National Academy of Legal Sciences of Ukraine, trang 152.

[56] Velykanova, Maryna. ‘Artificial Intelligence: Legal Problems and Risks’ [2020], 27 Journal of the National Academy of Legal Sciences of Ukraine, trang 185-198.



 
 
 

Bình luận


bottom of page