top of page
icj 1.jpeg

[63] XÂY DỰNG KHUNG PHÁP LÝ VỀ VŨ KHÍ SÁT THƯƠNG TỰ ĐỘNG VỚI TRÍ TUỆ NHÂN TẠO TRONG XUNG ĐỘT VŨ TRANG DƯỚI GÓC NHÌN CỦA LUẬT NHÂN ĐẠO QUỐC TẾ

  • Nguyễn Hoàng Vân Ly, Phạm Thảo Nguyên, Phạm Nam Khánh
  • 5 thg 8
  • 25 phút đọc

Bài viết này được đăng tại Kỷ yếu Hội thảo Khoa học cho Sinh viên về Luật quốc tế lần thứ ba với chủ đề "Trí tuệ Nhân tạo (AI) và những vấn đề pháp lý" của Khoa Luật Quốc tế - Học viện Ngoại giao năm 2024.


Tác giả: Nguyễn Hoàng Vân Ly, Phạm Thảo Nguyên, Phạm Nam Khánh[1]


Tóm tắt: Vũ khí sát thương tự động (Lethal Autonomous Weapon Systems - LAWS) là một khái niệm mới, chưa có định nghĩa cũng như quy phạm cụ thể trong các văn kiện quốc tế nói chung và Luật Nhân đạo quốc tế nói riêng. LAWS trong cộng đồng quốc tế đã được tận dụng rất nhiều trong hệ thống tấn công và phòng thủ của các quốc gia, đặc biệt là trong viễn cảnh của các cuộc xung đột vũ trang. Không thể phủ nhận sự đa dụng của trí tuệ nhân tạo được tích hợp trong LAWS, nhưng điều này đã làm phát sinh các vấn đề về quy kết trách nhiệm pháp lý cũng như bảo hộ mục tiêu dân sự và dân thường trong các cuộc xung đột vũ trang. Cụ thể, quá trình tạo ra LAWS bao gồm sự tham gia của nhiều cá nhân hoặc tổ chức, và việc thiếu đi phẩm chất đặc trưng của con người đã đặt ra rất nhiều thách thức cho các nhà luật học trong việc xây dựng hành lang pháp lý. Từ những lý do này, bài nghiên cứu của nhóm tác giả sẽ làm rõ các khía cạnh của các vấn đề pháp lý nêu trên theo các quy phạm liên quan đến Luật Nhân đạo quốc tế. Bên cạnh đó, thông qua phương pháp phân tích và tổng hợp, bài nghiên cứu sẽ đưa ra nhận định về những thách thức liên quan, đồng thời đưa ra một số đề xuất nhằm cụ thể hoá việc xây dựng khung pháp lý để kiểm soát LAWS dưới góc nhìn của Luật Nhân đạo quốc tế.

 

Từ khóa: Luật Nhân đạo Quốc tế, vũ khí sát thương tự động, trí tuệ nhân tạo, trách nhiệm pháp lý, bảo hộ. 

 

1. Mở đầu

Luật Nhân đạo quốc tế (International Humanitarian Law - IHL), hay còn được gọi là “Luật chiến tranh", là tổng hợp các quy phạm pháp luật được tạo ra với mục đích bảo vệ những cá nhân trong một cuộc xung đột vũ trang; hoặc không còn thực hiện nghĩa vụ chiến đấu trên chiến trường. Về cơ bản, IHL nghiêm cấm tất cả các loại hình thức giao chiến, vũ khí có khả năng “gây ra những thương tích hoặc đau đớn không cần thiết" theo Điều 35 Nghị định bổ sung thứ I của Công ước Geneva về vấn đề Bảo hộ nạn nhân trong các cuộc xung đột vũ trang quốc tế (1977). Vũ khí sát thương tự động (Lethal Autonomous Weapons Systems - LAWS) cùng với sự kết hợp trí tuệ nhân tạo (Artificial Intelligence - AI) đã gây ra nhiều tranh luận sôi nổi và phức tạp trong việc tạo ra các quy phạm pháp luật điều chỉnh loại vũ khí mới này. Việc nghiên cứu và làm rõ các khía cạnh của LAWS, đồng thời củng cố lại hệ thống quy phạm của IHL có ý nghĩa quan trọng trong việc cân bằng lợi ích của các quốc gia khi phát triển và sử dụng công nghệ AI hiện đại tích hợp vào LAWS; cũng như để đảm bảo an ninh toàn cầu một cách tối ưu nhất.

 

2. Khái quát về Vũ khí sát thương tự động (LAWS)

2.1. Định nghĩa về Vũ khí sát thương tự động

Hiện nay chưa có một định nghĩa chính thức về LAWS được ghi nhận trong các văn kiện quốc tế.[2] Thông thường, có ba cách tiếp cận để định nghĩa LAWS: theo đặc tính kỹ thuật, theo mức độ can thiệp của con người và theo các chức năng hoặc việc mà vũ khí có thể vận hành tự động.[3] Uỷ ban Chữ thập đỏ Quốc tế (International Committee of the Red Cross - ICRC) đưa ra một nhận định như sau: “...là bất kì loại vũ khí nào tự động trong chức năng cốt lõi, chức năng này được hiểu là chọn mục tiêu…và tấn công mục tiêu… mà không cần sự can thiệp của con người”.[4] Đây là một định nghĩa rộng và tập trung vào chức năng cốt lõi thay vì tất cả các chức năng của vũ khí, và Uỷ ban cho rằng chỉ sự tự động trong chức năng cốt lõi mới được coi là LAWS.[5]


Một vài quan điểm khác cũng đưa ra cách tiếp cận gần như tương tự, tuy nhiên bổ sung về một số tiêu chí kỹ thuật. Ví dụ, chỉ rõ rằng vũ khí đó chỉ tự động sau sự kích hoạt của con người[6] hay liên hệ tới loại vũ khí này như một rô-bốt,[7] có khả năng tự chủ và có thể gây chết người.[8] Bên cạnh đó, có quan điểm giải thích rằng vũ khí sát thương tự động được lập trình theo công thức Nếu/Thì, tuy nhiên nó có cảm biến để tương tác với môi trường xung quanh,[9] và phải phân biệt giữa tính tự động với tính thông minh của vũ khí.[10]


Tóm lại, có thể hiểu LAWS là loại vũ khí gây chết người có sự tự do nhất định trong việc thực hiện chức năng quan trọng của mình, thường là chức năng chọn và tấn công, có tính tự động thể hiện qua việc tương tác với môi trường và cần ít sự can thiệp của con người.

 

2.2. Phân loại vũ khí sát thương tự động

Có nhiều cách để phân loại LAWS, tuy nhiên phân loại theo mức độ tự động hóa trong mối tương quan với mức độ can thiệp của con người là phù hợp nhất cho định hướng nghiên cứu của nhóm tác giả. Theo cách phân loại đó, có ba loại LAWS như sau:[11]


Thứ nhất, loại vũ khí mà con người có trong vòng lặp (human-in-the-loop). Đây là loại vũ khí chỉ có thể tự động trong vận hành khi có mệnh lệnh của con người[12] (điều khiển từ xa, nhập lệnh,...). Một ví dụ có thể kể tới là các loại đạn hành trình (precise-guided munition) với công nghệ bám sát lộ trình và mục tiêu bắn được khoá bởi con người.[13]


Thứ hai, loại vũ khí mà con người có thể can thiệp (human-on-the-loop), hay còn gọi là vũ khí bán tự động,[14] là loại vũ khí phụ thuộc vào sự can thiệp của con người trong một số chức năng, từ tìm tới diệt mục tiêu[15] và con người cũng có thể dừng hoạt động của vũ khí này nếu cần thiết hoặc tái quyết định mục tiêu của vũ khí.


Thứ ba, loại vũ khí mà con người không can thiệp (human-out-of-the-loop) hay vũ khí tự động hoàn toàn. Bên cạnh việc có thể tự do trong chọn và tìm mục tiêu hạ gục, loại vũ khí tự động này có thể thích ứng với sự thay đổi của môi trường và phản hồi tương ứng.[16]


Như vậy, tính “tự động” của LAWS phụ thuộc vào mức độ can thiệp vận hành của con người trong việc điều động và sử dụng, tuỳ vào độ phức tạp của công nghệ cũng như đặc điểm của môi trường xảy ra xung đột. Điều này tạo khó khăn trong việc xây dựng một khung pháp lý để điều chỉnh, thậm chí là cấm các loại LAWS cũng như truy cứu trách nhiệm của người sử dụng vũ khí do các đặc điểm về đối tượng của ngành Luật Nhân đạo quốc tế.

 

2.3. Các quy định liên quan của IHL về LAWS

IHL, vốn được áp dụng cho các quốc gia tham gia xung đột vũ trang; bảo vệ chiến binh mất khả năng tham chiến và dân thường, đòi hỏi việc phát triển, sử dụng và điều động LAWS phải tuân thủ quy định nghiêm ngặt, đặc biệt khi trách nhiệm của con người không thể chuyển giao cho máy móc và hiện tại chưa có điều ước quốc tế nào cụ thể cấm loại vũ khí này.


Trước hết, việc sử dụng loại vũ khí này cần tuân thủ các nguyên tắc cơ bản của IHL mà đặc biệt phải kể tới nguyên tắc phân biệt, tương xứng và cẩn trọng. Cụ thể, nguyên tắc phân biệt, được ghi nhận tại Điều 48 Nghị định thư bổ sung 1,[17] quy định các bên tham gia xung đột chỉ được tấn công trực tiếp vào các mục tiêu quân sự - những mục tiêu có đóng góp hiệu quả cho hành động quân sự và việc phá hủy hoặc vô hiệu hóa mục tiêu đó mang lại lợi thế quân sự nhất định. Nguyên tắc tương xứng, được ghi nhận tại Điều 51(5)(b) Nghị định thư bổ sung I,[18] giảm thiểu thiệt hại cho dân thường và các công trình dân sự bằng cách cấm các cuộc tấn công có khả năng gây thương vong ngẫu nhiên tới hai đối tượng này tới mức vượt quá lợi thế quân sự trực tiếp và cụ thể đã được dự tính. Cũng liên quan tới dân thường và mục tiêu dân sự, nguyên tắc cẩn trọng, được ghi nhận tại Điều 57 Nghị định thư bổ sung I,[19] đề ra quy tắc dù cuộc tấn công có nhằm vào mục tiêu quân sự và đảm bảo tính tương xứng, các bên vẫn có nghĩa vụ cẩn trọng để tránh và giảm thiểu thiệt hại đối với dân thường và các mục tiêu dân sự.


Các nguyên tắc trên có thể được sử dụng như là cơ sở để tạo nghĩa vụ cho các cá nhân tham chiến vận hành vũ khí sát thương tự động, họ là người cần tôn trọng các quy định và nhận trách nhiệm cho bất kỳ thiệt hại nào mình gây ra. Tuy nhiên, do tồn tại mức độ tự động hoá cao tới mức tự chủ hoàn toàn của loại vũ khí này, việc truy cứu trách nhiệm gặp nhiều khó khăn.


Bên cạnh các quy định dành cho cá nhân tham chiến, theo Điều 36 Nghị định thư bổ sung I, các quốc gia thành viên của các Công ước và Nghị định thư bổ sung của ICRC cũng có nghĩa vụ phải thực hiện nghiên cứu và rà soát pháp lý đối với các loại vũ khí mới. Điều này là quan trọng bởi nó đảm bảo quốc gia đó tham chiến và tôn trọng nghĩa vụ quốc tế của mình[20].


Điều khoản Marten[21] quy định rằng trong trường hợp chưa có điều ước quốc tế để điều chỉnh, thường dân và người tham chiến được bảo vệ bởi các quy định tập quán của IHL, nguyên tắc nhân đạo[22] và chỉ định của dư luận xã hội (dictate of the public conscience).[23]


Các quốc gia đã nhiều lần thảo luận về các tác động của loại vũ khí này trong Công ước về Vũ khí thông thường năm 1980 (CCW) - một Hiệp định kiểm soát vũ khí đa phương với mục đích cấm hoặc hạn chế việc sử dụng các loại vũ khí được coi là có thể gây ra những thiệt hại không cần thiết hoặc vô cớ đối với người tham chiến hoặc dân thường một cách bừa bãi.[24] Hiện nay, nhóm chuyên gia các nước thành viên vẫn tiếp tục họp và thảo luận để xây dựng một khung pháp lý điều chỉnh LAWS.

 

3. Những thách thức pháp lý trong việc kiểm soát sử dụng LAWS tích hợp AI:

3.1. Đối tượng chịu trách nhiệm pháp lý trong việc sử dụng LAWS.

ICRC đã đề cập rằng những điều lệ của IHL chỉ có thể áp dụng được lên các cá nhân là con người,[25] và: “Những quy định này không thể được áp dụng lên máy móc”.[26] Mặc dù hệ thống được đề cập tới là hệ thống vũ khí tự động, nhưng bản thân vũ khí sát thương tự động chính là vũ khí tự động với mục đích cụ thể hơn, ví dụ như áp dụng sát thương, trái ngược với sự vận dụng rộng hơn của vũ khí tự động.[27] Vấn đề được đặt ra ở đây là ai sẽ thực sự là người chịu trách nhiệm cho những vấn đề pháp lý và những thiệt hại gây ra bởi những hệ thống vũ khí sát thương tự động này.


Cho đến hiện tại, pháp luật quốc tế vẫn chưa tồn tại một khung pháp lý nào đề cập trực tiếp tới việc gán trách nhiệm cho ai khi vũ khí sát thương tự động vi phạm pháp luật quốc tế, gây ra khó khăn trong việc truy cứu trách nhiệm cũng như xét xử. Tuy vậy, việc áp dụng các khung pháp lý quốc tế có sẵn cho LAWS cũng có thể được đưa vào xem xét. Một ví dụ cho việc liệu trách nhiệm pháp lý sẽ được quy kết lên ai có thể được xem xét qua sự ứng dụng của máy bay không người lái Kargu-5 dựa trên cơ sở pháp luật quốc tế hiện nay.


Lần đầu tiên Liên hợp quốc sử dụng cụm “vũ khí sát thương tự động” áp dụng cho máy bay không người lái Kargu-2 được sản xuất tại Thổ Nhĩ Kỳ. Báo cáo của Liên hợp quốc đề cập rằng Kargu-2 được sử dụng trong hoàn cảnh của cuộc xung đột vũ trang phi quốc tế diễn ra ở Libya[28]. Trong báo cáo này, Liên hợp quốc đã miêu tả máy bay không người lái Kargu-2 như sau: “Các hệ thống LAWS được lập trình để tấn công mà không cần kết nối dữ liệu giữa người điều khiển và vũ khí: về cơ bản, một khả năng bắn, quên và tìm thực sự”.[29] Ở đây, Liên hợp quốc đã miêu tả rằng Kargu-2 đã được lập trình để ở trong trạng thái chủ động hoàn toàn và không cần người điều khiển. Báo cáo không hề đề cập đến việc Kargu-2 và những vũ khí sát thương tự động khác có gây thiệt hại về người hay không, mà chỉ để cập rằng đã có người và các đoàn xe bị tấn công bởi nhiều máy bay chiến đấu không người lái khác nhau, đạn tuần kích,[30] vũ khí tấn công tự động như Kargu-2.[31] Dù không có thương vong và thiệt hại được xác định, việc áp dụng LAWS như Kargu-2 trong xung đột vũ trang vẫn dấy lên vô số tranh cãi.


Điều 36 Nghị định thư bổ sung I của Công ước Geneva quy định: “Trong quá trình nghiên cứu, phát triển, thu nhận hoặc áp dụng một vũ khí, phương tiện hoặc phương pháp chiến tranh mới, Bên tham gia Công ước có nghĩa vụ phải xem xét liệu việc sử dụng nó, trong mọi trường hợp, có bị cấm theo Nghị định này hay bất kể quy tắc pháp luật quốc tế nào khác áp dụng cho Bên tham gia Công ước hay không.”[32] Mặc dù chưa có luật pháp cụ thể dành cho LAWS, Điều 36 cũng đã bao hàm rằng chúng nằm trong nhóm “vũ khí mới” cần được xem xét và trong trường hợp một quốc gia sử dụng LAWS trước khi xem xét một cách kỹ lưỡng rằng liệu vũ khí đó có khả năng gây thiệt hại hay không, quốc gia đấy có thể phải chịu trách nhiệm pháp lý dưới quy định của IHL. Bản thân Điều 36 cũng đã bao gồm các loại vũ khí sẽ được phát triển trong tương lai, bao gồm vũ khí tự động và vũ khí sát thương tự động,[33] ta có thể cho rằng bản thân Thổ Nhĩ Kỳ cũng có phần nào có trách nhiệm vì đã không lường trước được khả năng gây thương vong của Kargu-2, đồng nghĩa với việc không thực hiện trọn vẹn nghĩa vụ xem xét của mình, nếu loại vũ khí này gây ra bất kể tổn thất nào vi phạm phải quy định của IHL với tư cách là nước đã chế tạo ra LAWS này. Đồng thời, trách nhiệm pháp lý cũng có thể được áp dụng lên quốc gia lắp đặt và sử dụng vũ khí sát thương tự động này, do Điều 36 cũng ràng buộc trách nhiệm các quốc gia trong việc kiểm tra mọi vũ khí mà quốc gia đó mua bán và lắp đặt sử dụng.


Trách nhiệm chỉ huy cũng là một vấn đề để xem xét. Điều 28 Quy chế Rome quy định: “Một chỉ huy quân sự hay một người có vai trò thực tế như một chỉ huy quân sự sẽ phải chịu trách nhiệm hình sự đối với các tội phạm nằm trong thẩm quyền của Tòa án do các lực lượng dưới quyền chỉ huy và kiểm soát thực tế của họ, hoặc quyền hạn là kiểm soát thực tế, tùy từng trường hợp, nếu họ không thực hiện đúng quyền kiểm soát đối với các lực lượng đó…”[34]. Quy chế cũng xác định thêm rằng trường hợp chịu trách nhiệm hình sự cho việc xảy ra tội phạm dưới quyền hạn của chỉ huy quân sự đó là: người đó biết hoặc cần phải biết có khả năng xảy ra tội phạm; người đó thất bại trong việc ngăn chặn tội phạm xảy ra[35]. Trong trường hợp của Kargu-2, nếu xảy ra tội phạm vi phạm tới luật pháp quốc tế, có thể xem xét khả năng rằng người chỉ huy quân sự chiến dịch có trách nhiệm với người hoặc việc lắp đặt và sử dụng Kargu-2 phải chịu trách nhiệm nếu người đó không lường trước được hoặc đã thất bại trong việc lường trước, hoặc đã không ngăn cản được khả năng vi phạm luật pháp quốc tế của loại LAWS này, bất kể người đó có trực tiếp tham gia lắp đặt và điều khiển LAWS này hay không.

 

3.2. Vấn đề về bảo hộ mục tiêu dân sự và dân thường theo Luật Nhân đạo quốc tế đối với LAWS

Việc hạn chế vũ khí tự động để đảm bảo tính đạo đức là một điều cần thiết, và việc tạo một loại vũ khí tự động mà có thể “thất bại an toàn” (fail safely) là một mục tiêu khó hơn bao giờ hết.[36] Nhận diện mục tiêu dân sự và dân thường trong vùng chiến đấu, mất khả năng liên lạc, môi trường độc hại, tấn công mạng, mất khả năng vận hành,... là những bất lợi không thể dự tính trước mà bất cứ một hệ thống tự động nào cũng có thể gặp phải.[37] LAWS không có khả năng sử dụng trí tuệ ngữ cảnh giống như con người, vì thế mà kể cả khi sở hữu những thuật toán phức tạp được tạo ra bởi AI, LAWS vẫn có thể đối mặt với sự thất bại nếu chúng bị đưa vào những tình huống nằm ngoài ý định và hoàn cảnh được thiết kế sẵn.[38] Các vũ khí tự động nói chung sẽ không hoạt động theo cơ chế tự bảo vệ, tức là chúng có xu hướng hành động thận trọng và tự hy sinh bản thân trong những tình huống theo thuật toán của AI mà việc nhận diện mục tiêu trở nên khó khăn hoặc tự phòng thủ có thể gây tổn hại quá mức cho dân thường.[39] Mặt khác, chính sự phức tạp của hệ thống AI hiện đại đã khiến cho việc dự đoán các sự cố hoặc hành vi có thể xảy ra trong khi hệ thống vận hành trở nên khó khăn hơn.[40]


Cụ thể, việc đảm bảo LAWS có thể tự quyết định sử dụng vũ lực và vận hành hợp lý có thể tương tự như việc các bên dự đoán thiệt hại cho một cuộc xung đột vũ trang, nhằm đảm bảo các thiệt hại dân sự nằm trong sự cho phép của các nguyên tắc cơ bản của IHL. Điều 51(5)(b) về nguyên tắc tương xứng quy định cấm các cuộc tấn công có khả năng gây thương vong ngẫu nhiên cho dân thường, thiệt hại cho các mục tiêu dân sự vượt quá lợi thế quân sự trực tiếp đã được dự tính.[41] Khả năng dự tính đó thường dựa vào những ý tưởng phức tạp và mang tính chủ quan của con người.[42] Bất kể mức độ hiện đại của công nghệ, việc phụ thuộc vào “khả năng phán đoán hợp lý” của con người là cần thiết để giảm thiểu tối đa thiệt hại do LAWS gây ra.[43] Mặc dù đã có rất nhiều những thành tựu trong việc phát triển đột phá về AI, LAWS vẫn thiếu đi những phẩm chất đặc trưng của con người như lương tâm, đạo đức, lý trí và lòng từ bi,... những điều quan trọng để thực hiện những phán đoán có tính đạo đức và thận trọng trên chiến trường.[44]


Theo Điều 35(2), Nghị định thư bổ sung (I) quy định về việc cấm sử dụng các loại vũ khí, đạn dược hoặc các vật liệu, phương pháp chiến tranh có tính chất gây tổn thương dư thừa hoặc đau đớn không cần thiết.[45] Nếu không thể đảm bảo được việc LAWS có thể vận hành hợp lý trong những điều kiện bất lợi mà một chiến binh thật sự phải đối mặt thì sẽ không có một sự đảm bảo nào cho việc LAWS có thể phân biệt được giữa dân thường và chiến binh, hoặc giữa mục tiêu quân sự và dân sự theo nguyên tắc phân biệt tại Điều 48 của nghị định này[46], chưa kể trường hợp các mục tiêu quân sự được thiết kế như một mục tiêu dân sự hoặc ngược lại. Tuy điều 48 không chỉ ra vấn đề rằng mọi thiệt hại về dân thường và các đối tượng dân sự đều vi phạm IHL[47] nhưng các bên trong xung đột vẫn phải bảo vệ các mục tiêu này bằng mọi biện pháp khả thi theo Điều 57 về nghĩa vụ của các bên để làm giảm thiểu thiệt hại[48]. Hơn nữa, Điều 71 của Tập quán của Luật Nhân đạo Quốc tế cấm việc sử dụng vũ khí mà bản chất của nó không có tính phân biệt.[49] Dưới hoàn cảnh của một cuộc xung đột vũ trang, khi mà bản thân con người, cụ thể là binh lính còn gặp phải khó khăn trong việc phân biệt và quyết định sử dụng vũ lực lên các mục tiêu, thì liệu có căn cứ nào để có thể đảm bảo được vũ khí sát thương tự động có thể sử dụng vũ lực chính xác trong các cuộc tấn công và mà không gây những tổn thương hoặc tổn hại không đáng có?


Nhiều tranh luận cho rằng trong tương lai, AI trong các loại vũ khí tự động sẽ có khả năng vận hành phù hợp với Luật Nhân đạo quốc tế hơn so với con người nhờ vào khả năng tự học. Tuy nhiên, làm thế nào để LAWS có thể hoạt động hợp lý khi gặp những tình huống bất lợi mang tính khách quan và đưa ra những quyết định “lý tính”[50] trong một cuộc xung đột vũ trang để giảm thiểu tối đa thiệt hại dân sự và dân thường vẫn còn là một vấn đề nan giải.

 

4. Đánh giá và đề xuất hoàn thiện pháp luật quốc tế về LAWS

4.1. Đánh giá về giới hạn của IHL trước sự phát triển của LAWS

Nhìn chung, IHL hiện tại chưa có một quy phạm pháp luật cụ thể nào trong việc điều chỉnh trực tiếp LAWS nhưng nó vẫn đặt ra một giới hạn vô hình nhất định điều chỉnh việc sử dụng nó như một phương thức chiến tranh của xung đột vũ trang, nhưng giới hạn đó nằm ở mức độ nào thì vẫn còn tranh cãi. Nhiều ý kiến cho rằng các khung pháp lý hiện tại không ngăn cản con người khỏi việc phụ thuộc vào các loại hệ thống tự động nói chung trong việc thực hiện các nghĩa vụ pháp lý, miễn là khi trách nhiệm của con người được đảm bảo; nhưng cũng có một cách tiếp cận thuần lý thuyết khác, cho rằng việc thực hiện các nguyên tắc cơ bản của IHL vẫn luôn cần sự hiện diện của con người để đảm bảo rằng việc quyết định sử dụng vũ lực sẽ gây ra những thiệt hại ở mức cho phép.[51] Theo đó, sự hiện diện của con người là chìa khóa quan trọng cho việc đặt ra giới hạn phụ thuộc của con người vào LAWS hay các hệ thống tự động. ICRC đã kêu gọi các quốc gia đặt LAWS dưới sự kiểm soát của con người để đảm bảo việc phù hợp với IHL và tính đạo đức.[52] Những yếu tố cốt lõi của sự kiểm soát đó bao gồm: Khả năng dự đoán và độ tin cậy của hệ thống trong các tình huống được dự tính hoặc mong đợi khi vận hành; mức độ can thiệp của con người vào hệ thống vận hành trong quá trình phát triển, kích hoạt và vận hành; kiến thức về cách vận hành và môi trường sử dụng của nó; trách nhiệm đối với việc vận hành tối đa của hệ thống vũ khí đó.[53]

 

4.2. Đề xuất các cơ chế quản lý trong việc hoàn thiện khung pháp lý quốc tế điều chỉnh sử dụng LAWS

Nhóm tác giả tin rằng, để đảm bảo an toàn và hiệu quả trong việc sử dụng LAWS, cần thiết phải hoàn thiện một khung pháp lý điều chỉnh một cách trực tiếp và chặt chẽ, song song với việc tuân thủ nghiêm ngặt các nguyên tắc nhân đạo quốc tế. Việc thiết lập các quy định cụ thể về phạm vi và cách thức sử dụng, kết hợp với hệ thống giám sát hiện đại và cơ chế kiểm soát hỏa lực từ xa, sẽ giúp giảm thiểu rủi ro gây ra thương vong cho dân thường. Bên cạnh đó, việc xác định rõ trách nhiệm pháp lý của các cá nhân và tổ chức liên quan, cùng với sự hợp tác quốc tế, sẽ góp phần tạo ra một môi trường an toàn hơn trong việc sử dụng các công nghệ quân sự tiên tiến như LAWS. Nhìn lại trường hợp của Vũ khí sát thương hàng loạt (Weapons of Mass Destruction - WMD), một mối đe dọa tiềm tàng vào những năm 2000 khi được xem là ảnh hưởng sâu sắc đến các chiến lược an ninh quốc gia và an ninh nội địa của một số quốc gia, đặc biệt là Mỹ,[54] cũng đã làm dấy lên câu hỏi về vai trò của luật pháp quốc tế đối với loại vũ khí mới này. Hoạt động pháp lý quốc tế đương thời về WMD chủ yếu là đàm phán và thực hiện các hiệp ước kiểm soát vũ khí. Các nỗ lực và đề xuất pháp lý quốc tế mới có thể kể đến như (1) Nỗ lực của Hoa Kỳ để mở rộng quyền tự vệ chính đáng nhằm biện minh cho hành động quân sự “tự vệ với mối đe dọa trong tương lai” (preemptive self-defense) chống lại một chế độ thù địch có vũ trang hoặc sử dụng WMD; [55] (2) Các đề xuất biến việc phát triển, giữ lại, mua bán hoặc chuyển giao vũ khí sinh học và hóa học thành tội phạm theo luật quốc tế.[56]


Sự thiếu hụt một định nghĩa cụ thể và được đồng ý chung cho LAWS[57] đang là một vấn đề lớn trong tính hợp pháp của việc chế tạo và sử dụng chúng. Vậy nên, việc đàm phán, nghiên cứu và hợp tác để đặt ra một định nghĩa chung cho LAWS là cần thiết để chắc chắn rằng các quốc gia thành công xây dựng một khung pháp lý cụ thể trong việc phát triển và sử dụng LAWS. Đồng thời, việc đàm phán và soạn thảo một điều ước quốc tế mang tính bắt buộc thực thi bao gồm giới hạn cũng như trách nhiệm pháp lý cũng có thể được đưa vào xem xét, từ đó thực sự đặt ra một khung pháp lý hiệu quả cho việc sử dụng LAWS để điều chỉnh hành vi của các bên liên quan. Tuy nhiên cần lưu ý, việc xây dựng quy phạm pháp luật mới nên dựa trên các khung pháp lý nhân đạo quốc tế có sẵn và nên tập trung vào vấn đề trách nhiệm của con người thay vì phụ thuộc vào các giải pháp liên quan tới công nghệ, nhằm duy trì tính thực tiễn và khả năng thích ứng với các tiến bộ trong tương lai, do việc phát triển công nghệ LAWS không chỉ dừng lại ở hiện tại.[58]  Song song với việc đưa ra điều ước quốc tế, một ủy ban chuyên biệt để xem xét, giám sát và giải quyết các vi phạm trong việc sử dụng LAWS cũng sẽ góp phần thúc đẩy các quốc gia tuân thủ và thực thi pháp luật liên quan.


Tựu chung lại, việc xây dựng và thực thi kịp thời một khung pháp lý toàn diện, bao gồm cả luật quốc tế và luật quốc gia, là điều cấp thiết để quản lý và kiểm soát việc sử dụng LAWS. Chỉ khi có một hệ thống quy phạm pháp luật rõ ràng và được thực thi nghiêm minh, những công nghệ quân sự tiên tiến này mới được bảo đảm sử dụng một cách hợp lý, hiệu quả và tuân thủ các chuẩn mực nhân đạo quốc tế.


5. Kết luận

Nghiên cứu đã làm rõ các vấn đề pháp lý xoay quanh việc điều chỉnh sử dụng LAWS trong phạm vi xác định đối tượng chịu trách nhiệm và vấn đề bảo hộ dân thường. Pháp luật quốc tế hiện hành vẫn còn nhiều hạn chế, đặc biệt là trong việc xác định trách nhiệm pháp lý và áp dụng các nguyên tắc nhân đạo vào thực tiễn sử dụng LAWS. Để giải quyết những vấn đề này, cần thiết phải có sự hợp tác quốc tế để sửa đổi, bổ sung các điều ước quốc tế hiện hành hoặc xây dựng các điều ước mới, đồng thời tăng cường nhận thức của cộng đồng về vấn đề sử dụng LAWS. Nghiên cứu góp phần cung cấp cái nhìn tổng quan về khung pháp lý quốc tế về LAWS, từ đó thúc đẩy các quốc gia chung tay hành động để đảm bảo việc sử dụng công nghệ AI trong lĩnh vực quân sự một cách có trách nhiệm, an toàn và phù hợp hơn với các nguyên tắc nhân đạo.


DANH MỤC TÀI LIỆU THAM KHẢO

[1] Khoa Luật Quốc tế, Học viện Ngoại giao, 69 Phố Chùa Láng, Đống Đa, Hà Nội

[2] UNODA, ‘Lethal Autonomous Weapon Systems’ <https://disarmament.unoda.org/the-convention-on-certain-conventional-weapons/background-on-laws-in-the-ccw/> truy cập ngày 07/12/2024.

[3] UNIDIR, A. Spazian, A. Holland Michel, A. Anand, ‘UNIDIR on Lethal Autonomous Weapons: Mapping our Research to the Discussions of the GGE on LAWS’ (Geneva, Switzerland 2016) truy cập ngày 17/11/2024.

[4] ICRC, ‘Views of the ICRC on autonomous weapon systems’, paper submitted to the Convention on Certain Conventional Weapons Meeting of Experts on Lethal Autonomous Weapons Systems (LAWS), 11/4/2016.

Nguyên văn: “Any weapon system with autonomy in its critical functions—that is, a weapon system that can select (search for, detect, identify, track or select) and attack (use force against, neutralize, damage or destroy) targets without human intervention”.

[5] ICRC, ‘Submissions on Autonomous Weapon Systems to the United Nations Secretary-General’ (2024), tr.4.

[6] Department of Defense, Directive 3000.09, 21/11/2012, tr. 13–14.

[7] UN General Assembly doc., ‘Report of the Special Rapporteur on extrajudicial, summary or arbitrary executions, Christof Heyns’. A/HRC/23/47, đoạn 38.

[8] U.S Naval Institute Staff, ‘Report to Congress on Lethal Autonomous Weapon Systems’, USNI News (2021),

[9] ICRC, ‘Autonomy, Artificial Intelligence and Robotics: Technical Aspects of Human Control’ (8/2019) <https://www.icrc.org/sites/default/files/document/file_list/autonomy_artificial_intelligence_and_robotics.pdf> truy cập ngày 17/11/2024.

[10] UNIDIR, ‘The Weaponization of Increasingly Autonomous Technologies: Artificial Intelligence’ (UNIDIR, 28/3/2018) <https://unidir.org/publication/the-weaponization-of-increasingly-autonomous-technologies-artificial-intelligence/> truy cập ngày 19/11/2024.

[11] Paul Scharre, Michael C. Horowitz, ‘An Introduction to autonomy in weapon systems’, Center for a New American Security (CNAS), tr. 8.

[12] Tim McFarland, ‘Autonomous Weapon Systems and the Law of Armed Conflict - Compatibility with International Humanitarian Law’, (Cambridge University Press, Cambridge, 2020), truy cập ngày 18/11/2024.

[13] Tên lửa hành trình, bom định hướng laze,...

[14] Hệ thống phòng thủ tên lửa Iron Dome hay hệ thống phòng thủ công trình quân sự dưới nước Phalanx CIWS,...

[15] William H. Boothby, ‘Highly Automated and Autonomous Technologies”, (Cambridge University Press, Cambridge, 2019) 138, truy cập ngày 18/11/2024.

[16] Christopher P. Toscano, ‘Friends of Humans: An Argument for Developing Autonomous Weapons Systems’ (Journal of National Security, Law and Policy, 2019) 12-13, truy cập ngày 18/11/2024.

[17] Nghị định thư Bổ sung (I) của Công ước Geneva 1949 về Bảo vệ nạn nhân của các cuộc xung đột vũ trang 1977, Điều 48.

[18] Xem chú thích 17, Điều 51(5)(b).

[19] Xem chú thích 17, điều 57.

[20] ICRC, ‘A Guide to the Legal Review of New Weapons, Means and Methods of Warfare: Measures to Implement Article 36 of Additional Protocol I of 1977’ (01/ 2006), <www.icrc.org/eng/assets/files/ other/icrc_002_0902.pdf>, truy cập ngày 17/11/2024.

Theo đó việc nghiên cứu phải rà soát tất cả các điều ước quốc tế, tập quán quốc tế và các quy định liên quan của Luật nhân đạo quốc tế, cũng như đảm bảo được rằng vũ khí được vận hành với hiệu ứng đúng như đã dự đoán và có thể tin tưởng được, đọc thêm tại: chú thích số 15, tr. 10.

[21] Điều khoản Martens được đặt theo tên của Fyodor F. Martens - người đã đưa ra điều khoản này lần đầu tiên trong Lời nói đầu của Công ước Hague năm 1899.

[22] Nguyên tắc này bảo vệ các người tham chiến đã hạ vũ khí, bị loại khỏi cuộc chiến vì ốm đau, vết thương và dân thường bằng cách quy định rằng họ phải luôn được đối xử nhân đạo mà không bị phân biệt dựa trên chủng tộc, màu da, tôn giáo hoặc đức tin, giới tính, dòng dõi hoặc sự giàu có hoặc bất kỳ tiêu chí tương tự nào khác, xem thêm tại điều 3(1)  Nghị định thư bổ sung I liên quan đến việc bảo vệ các nạn nhân dân sự của chiến tranh quốc tế.

[23] ICRC, ‘Martens Clause’ (How does law protect in war) <https://casebook.icrc.org/a_to_z/glossary/martens-clause> truy cập ngày 07/12/2024.

[24] ICRC, ‘1980 Convention on Certain Conventional Weapons’ (Advisory Service on International Humanitarian Law), 3/2014.

[25] ICRC, ‘Views of the ICRC on Autonomous Weapon Systems (International Committee Of The Red Cross, 11/04/2017) <https://www.icrc.org/en/document/views-icrc-autonomous-weapon-system> truy cập ngày 17/11/2024.

[26] Xem chú thích 25.

[27] Mariarosaria Taddeo và Alexander Blanchard. ‘A Comparative Analysis of the Definitions of Autonomous Weapons Systems’ (2022). Sci Eng Ethics 28, 37 <https://doi.org/10.1007/s11948-022-00392-3> truy cập ngày 17/11/2024.

[28] Non-international armed conflict in Libya (RULAC) <https://www.rulac.org/browse/conflicts/non-international-armed-conflicts-in-libya> truy cập ngày 17/11/2024.

[29] UN, ‘Final report of the Panel of Experts on Libya’, established pursuant to Security Council resolution 1973 (United Nations reports, 2011) 17, truy cập ngày 20/11/2024.

[31] Xem chú thích 30.

[32] Nghị định thư Bổ sung (I) của Công ước Geneva 1949 về Bảo vệ nạn nhân của các cuộc xung đột vũ trang 1977, Điều 36.

[33] ICRC, ‘Protocol Additional to the Geneva Conventions of 12 August 1949, and relating to the Protection of Victims of International Armed Conflicts (Protocol I), 8 June 1977’ (International Committee of the Red Cross) <https://ihl-databases.icrc.org/en/ihl-treaties/api-1977/article-36/commentary/1987> truy cập ngày 08/12/2024.

[34] Quy chế Rome của Tòa án Hình sự Quốc Tế 1988, Điều 28.

[36] Asaro P, ‘On Banning Autonomous Weapon Systems: Human Rights, Automation, and the Dehumanization of Lethal Decision-Making’ (2013) 94 International Review of the Red Cross 687 <https://doi.org/10.1017/S1816383112000768> truy cập ngày 16/11/2024.

[37] Xem chú thích số 36.

[38] Xem chú thích số 36.

[39] Marchant, Gary E. and Allenby, Braden and Arkin, Ronald and Barrett, Edward T. and Borenstein, Jason and Gaudet, Lyn M. and Kittrie, Orde F. and Lin, Patrick and Lucas, George R. and O'Meara, Richard and Silberman, Jared, ‘International Governance of Autonomous Military Robots’ (2010) SSRN <https://ssrn.com/abstract=1778424> truy cập ngày 19/11/2024.

[40] Paul Scharre, 'Why Unmanned' (2021) Joint Force Quarterly 61 89-93 <https://ndupress.ndu.edu/portals/68/Documents/jfq/jfq-61.pdf> truy cập ngày 19/11/2024.

[41] Nghị định thư bổ sung (I) Công ước Geneva 1949 về Bảo vệ nạn nhân của các cuộc xung đột vũ trang 1977, Điều 51(5)(b).

[42] Rebecca Crootof, ‘The Varied Law of Autonomous Weapon Systems’ in NATO Allied Command Transformation, Autonomous Systems: Issues for Defence Policy Makers (2015) 104 <https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2569322> truy cập ngày 18/11/2024.

[43] Asaro P, ‘On Banning Autonomous Weapon Systems: Human Rights, Automation, and the Dehumanization of Lethal Decision-Making’ (2013) 94 International Review of the Red Cross 687 <https://doi.org/10.1017/S1816383112000768> truy cập ngày 16/11/2024.

[44] Yanitra Kumaraguru, 'A Pre-Emptive Ban on Lethal Autonomous Weapon Systems' in Petr Topychkanov (ed), The Impact of Artificial Intelligence on Strategic Stability and Nuclear Risk: Volume III South Asian Perspectives (Stockholm International Peace Research Institute 2020) <https://www.jstor.org/stable/resrep24515.14>, truy cập ngày 19/11/2024.

[45] Nghị định thư Bổ sung (I) của Công ước Geneva 1949 về Bảo vệ nạn nhân của các cuộc xung đột vũ trang 1977, Điều 35(2).

[46] Nghị định thư bổ sung (I) của Công ước Geneva 1949 về Bảo vệ nạn nhân của các cuộc xung đột vũ trang 1977, Điều 48.

[47] Roman Dremliuga, ‘General Legal Limits of the Application of the Lethal Autonomous Weapons Systems within the Purview of International Humanitarian Law’ (2020) 117 <https://doi.org/10.5539/jpl.v13n2p115> truy cập ngày 18/11/2024.

[48] Nghị định thư bổ sung (I) của Công ước Geneva 1949 về Bảo vệ nạn nhân của các cuộc xung đột vũ trang 1977, Điều 57.

[49] Tập quán của Luật Nhân đạo Quốc tế 2005 (Tập 1), Điều 71.

[50] Neil Davison, ‘A legal perspective: Autonomous weapon systems under international humanitarian law’ (UNODA Occasional Papers No. 30, 11/2017, 6) <https://doi.org/10.18356/6fce2bae-en> truy cập ngày 18/11/2024.

[51] SIPRI, ‘International Humanitarian Law and Autonomous Weapons Systems’ (03/2023) <https://www.sipri.org/sites/default/files/2023-03/ihl_and_aws.pdf> truy cập ngày 19/11/2024.

[52] Xem chú thích 50.

[53] Xem chú thích 50.

[54] David P. Fidler, ‘Weapons of Mass Destruction and International Law’, 11/02/ 2003, Volume 8, Issue 3, tr.1 <https://www.asil.org/insights/volume/8/issue/3/weapons-mass-destruction-and-international-law> truy cập ngày 21/11/2024.

[55] National Security Strategy of the United States, supra note 1, at 15; National Strategy to Combat Weapons of Mass Destruction (12/2002).

[56] Harvard/Sussex Program on CBW Disarmament and Arms Limitation, ‘Draft Convention on the Prevention and Punishment of the Crime of Developing, Producing, Acquiring, Stockpiling, Retaining, Transferring, or Using Biological or Chemical Weapons’, vol.28:1 (2004).

[57] UNODA, ‘Lethal Autonomous Weapon Systems’ <https://disarmament.unoda.org/the-convention-on-certain-conventional-weapons/background-on-laws-in-the-ccw/> truy cập ngày 07/12/2024.

[58] ICRC, Limits on Autonomy in Weapon Systems (International Committee of the Red Cross, 02/06/2020) <https://www.icrc.org/en/document/limits-autonomous-weapons> truy cập ngày 07/12/2024.



Bình luận


bottom of page