top of page
icj 1.jpeg

[67] THÁCH THỨC CỦA TRÍ TUỆ NHÂN TẠO TRONG CHIẾN TRANH HIỆN ĐẠI NHẰM BẢO VỆ DÂN THƯỜNG VÀ MỤC TIÊU DÂN SỰ

  • Vũ Nguyễn Lan Phương
  • 9 thg 8
  • 24 phút đọc

Bài viết này được đăng tại Kỷ yếu Hội thảo Khoa học cho Sinh viên về Luật quốc tế lần thứ ba với chủ đề "Trí tuệ Nhân tạo (AI) và những vấn đề pháp lý" của Khoa Luật Quốc tế - Học viện Ngoại giao năm 2024.


Tác giả: Vũ Nguyễn Lan Phương [1]


Tóm tắt: Lĩnh vực quân sự đang chứng kiến những thay đổi với sự xuất hiện của vũ khí chiến đấu kết hợp trí tuệ nhân tạo (AI). Vấn đề này được thế giới đặc biệt quan tâm kể từ khi công nghệ AI mang đến những kết quả bất ngờ tại xung đột Nga - Ukraine.[2] Bất chấp các hiểm họa và sự thiếu hụt các biện pháp kiểm soát, vũ khí quân sự tích hợp AI vẫn đang không ngừng phát triển với khả năng tấn công chính xác và nhanh chóng, làm thay đổi đáng kể cách thức tác chiến và ra quyết định trong chiến tranh hiện đại. Cho đến nay, vẫn chưa có bằng chứng rõ ràng cho thấy AI có thể đảm bảo tuân thủ các quy định của Luật Nhân đạo Quốc tế (LNĐQT). Điều này đặt ra yêu cầu cấp bách trong việc bảo vệ dân thường và các mục tiêu dân sự trong các cuộc xung đột vũ trang có sự tham gia của AI. Vì vậy, nghiên cứu này được thực hiện nhằm tìm hiểu và đánh giá một số thách thức của việc sử dụng AI trong chiến tranh hiện đại, đặc biệt trong vấn đề bảo vệ dân thường và mục tiêu dân sự, qua đó góp phần xác định những lỗ hổng pháp lý khi ứng dụng AI vào chiến tranh hiện đại.


Từ khóa: chiến tranh hiện đại, AI trong quân sự, UAV, bảo vệ dân thường và mục tiêu dân sự, Luật Nhân đạo Quốc tế.


1. Dẫn nhập

Với tốc độ phát triển nhanh chóng của công nghệ, AI đã được triển khai để tham gia hỗ trợ các quá trình tác chiến quân sự phức tạp như: “đánh giá tình hình, xử lý thông tin, chỉ huy điều hành, hỗ trợ quyết sách, tăng cường hệ thống tác chiến tự động”.[3] Mặc dù vũ khí trang bị AI được dự đoán có thể trở nên bão hòa trong tương lai, song những thách thức tiềm ẩn từ xu hướng này là không thể phủ nhận,[4] đặc biệt trong việc đảm bảo thực thi các nguyên tắc bảo vệ dân thường và mục tiêu dân sự của LNĐQT. Một khi AI tự động có khả năng lựa chọn và tấn công mục tiêu, tính nhân đạo khi ứng dụng vào lĩnh vực quân sự sẽ trở thành một vấn đề cần lưu ý, do sự xuất hiện của những loại vũ khí này sẽ làm gia tăng mối lo ngại về an ninh toàn cầu và cảnh báo “một hình thức chiến tranh mới sau súng, đạn, và bom nguyên tử”[5]- chiến tranh công nghệ cao. Dựa trên bối cảnh thực tiễn từ các cuộc xung đột gần đây như xung đột dải Gaza, chiến dịch quân sự đặc biệt Nga – Ukraine và một số cuộc tấn công khác, bài viết sẽ tập trung phân tích hai nội dung chính: thứ nhất, tìm hiểu các nguyên tắc cơ bản của LNĐQT về bảo vệ dân thường và các mục tiêu dân sự; thứ hai, đánh giá những thách thức mà AI sẽ gặp phải trong việc đảm bảo các nguyên tắc của LNĐQT luôn được thực thi.


2. Các nguyên tắc cơ bản của LNĐQT về bảo vệ dân thường và các mục tiêu dân sự

2.1. Nguyên tắc phân biệt: Bảo vệ dân thường và mục tiêu dân sự từ chiến tranh cổ đại đến chiến tranh hiện đại

Trước khi được pháp điển hóa, nguyên tắc phân biệt đã tồn tại từ hàng ngàn năm trước như một tập quán trong chiến tranh. Ví dụ, sử thi Mahabharata kể về chiến tranh Kurukshetra của Ấn Độ giáo thời cổ đại đã nêu: “Con trai của tộc Vishnu sẽ không giết chết một người phụ nữ, một cậu bé, hay một ông già (...)”.[6] Năm 632, Caliph Hồi giáo đầu tiên - Abu Bakr tuyên bố: “Một chiến thắng thanh sạch sẽ không nhuốm máu phụ nữ, người già, và trẻ em. Đừng hủy hoại những cây cọ, đốt cháy nhà cửa hay ruộng ngô. Chớ chặt phá cây trái, cũng như giết hại gia súc, bầy đàn (...)”.[7] Ngày nay, nguyên tắc phân biệt là một nguyên tắc cơ bản của LNĐQT, được ghi nhận theo Điều 48 Nghị định thư bổ sung về Bảo vệ Nạn nhân của các xung đột vũ trang (Nghị định thư bổ sung I),[8] trong đó quy định rằng các bên trong xung đột vũ trang phải “luôn phân biệt giữa dân thường và người tham chiến, giữa các mục tiêu dân sự và mục tiêu quân sự và theo đó sẽ chỉ đạo các hoạt động của họ chống lại các mục tiêu quân sự”.[9] Với mục đích lớn nhất là hướng đến con người trong mọi hoàn cảnh và xung đột,[10] việc đảm bảo nguyên tắc phân biệt nhằm bảo vệ dân thường và mục tiêu dân sự trước các hành động thù địch đóng một vai trò then chốt quan trọng trong luật quốc tế.


Hiện nay, với tần suất ngày càng gia tăng của các cuộc tấn công được tiến hành thông qua công nghệ AI tiên tiến, khả năng đảm bảo tuân thủ các quy định của LNĐQT trong chiến tranh và xung đột đang trở thành một vấn đề gây tranh cãi. Trong lĩnh vực quân sự, phương tiện bay không người lái - Unmanned Aerial Vehicle (UAV) có sử dụng AI là một ví dụ nổi bật của cuộc đua tích hợp công nghệ này vào vũ khí chiến đấu. Năm 2020, UAV “Kagu-2” của Thổ Nhĩ Kỳ sản xuất và sử dụng trong cuộc xung đột quân sự ở Libya được ghi nhận là lần đầu tiên vũ khí có thể tấn công mà không cần chỉ huy từ con người.[11] Nếu Nga và Ukraine đang nỗ lực sử dụng AI nhằm ngăn chặn UAV từ đối phương,[12] chiến lược quân sự của Mỹ và Trung Quốc đang hướng tới phát triển lực lượng UAV để dự phòng các cuộc xung đột trong tương lai. Có thể nói, cục diện chiến tranh sẽ thay đổi với sự tham gia của máy bay không người lái được điều khiển bởi AI.[13]


Mặc dù ngày càng được ứng dụng rộng rãi, song công nghệ AI vẫn đang phải đối diện với những khó khăn trong việc phân biệt chính xác giữa mục tiêu dân sự và quân sự. Hơn nữa, việc đảm bảo tuân thủ nguyên tắc phân biệt trên chiến trường còn gặp nhiều thách thức, đặc biệt nếu xảy ra các trường hợp dân thường tự nguyện tham gia hỗ trợ quá trình chiến đấu hoặc tự nguyện trở thành lá chắn người, gây khó khăn trong việc xác định mục tiêu hợp pháp, từ đó đặt ra vấn đề cấp thiết về tính chính xác trong việc triển khai AI vào các hoạt động quân sự.


1.2. Nguyên tắc tương xứng, nguyên tắc cẩn trọng, và sự phức tạp trong việc áp dụng hai nguyên tắc này nhằm bảo vệ dân thường và mục tiêu dân sự trong bối cảnh xung đột vũ trang

Về nguyên tắc tương xứng, Điều 51(5)(b) Nghị định thư bổ sung I cấm các cuộc tấn công “gây thiệt hại ngẫu nhiên đến tính mạng dân thường hoặc phá hủy tài sản dân sự vượt quá lợi thế quân sự cụ thể và trực tiếp mà cuộc tấn công đó dự kiến đạt được”.[14] Bắt nguồn từ các tư tưởng pháp quyền sơ khai[15] và được phản ánh trong các văn bản cổ đại như Bộ luật Hammurabi hay Phúc âm thánh Mátthêu qua nguyên tắc lex talionis (“mắt đền mắt, răng đền răng”).[16] nguyên tắc tương xứng dần được áp dụng như một tiêu chuẩn nhằm nhấn mạnh sự phân chia công lý theo mức độ xứng đáng của từng đối tượng.[17] Trong xung đột, để đảm bảo nguyên tắc này, cần xác định những yếu tố khách quan như cân nhắc mục tiêu, lựa chọn vũ khí, cùng với những yếu tố kỹ thuật khác. Các yếu tố chủ quan sẽ khó xác định hơn do liên quan đến lợi ích quân sự dự đoán từ cuộc tấn công.[18] LNĐQT không quy định rõ ràng về các tiêu chí định lượng giữa thiệt hại và lợi thế, do đó việc xác định tính tương xứng trên thực tế vẫn còn gặp nhiều thách thức khi “người tấn công phải đánh giá được tính tương xứng trước khi thực hiện tấn công, trong khi thiệt hại của tấn công chỉ được biết sau khi tấn công xảy ra”.[19]


Nguyên tắc tương xứng có mối liên hệ chặt chẽ với nguyên tắc cẩn trọng, do sự cẩn trọng để giảm thiểu thiệt hại cho dân thường và các mục tiêu dân sự là tiền đề để đảm bảo mức độ tấn công tương xứng với lợi thế quân sự dự kiến. Theo Điều 57 Nghị định thư bổ sung I, khi tiến hành các hoạt động quân sự, “kể cả khi một cuộc tấn công đã tuân thủ được nguyên tắc phân biệt và nguyên tắc tương xứng, các bên vẫn có nghĩa vụ cẩn trọng và phải thực hiện mọi biện pháp cần thiết để bảo vệ dân thường và mục tiêu dân sự”.[20] Tương tự như nguyên tắc tương xứng, một số phương pháp để đảm bảo tính cẩn trọng bao gồm: “lựa chọn vũ khí phù hợp và điều chỉnh các yếu tố tác chiến như chiến thuật, thời gian, góc độ, và độ cao tấn công nhằm giảm thiểu tác động lên khu vực chiến tranh”.[21] Ngoài ra, bên tấn công và bên bị tấn công đều phải phân tích và lựa chọn các mục tiêu khác nhau để giảm thiểu tối đa nguy cơ thiệt hại. Tuy nhiên trên thực tế, con người dù có thiện chí tuân thủ các nguyên tắc của LNĐQT, cũng khó đảm bảo cẩn trọng trong tấn công hoặc bị tấn công, điển hình như các lực lượng vũ trang phi nhà nước thiếu điều kiện thu thập, xác minh thông tin, và không có nhiều lựa chọn trong việc sử dụng vũ khí và phương tiện chiến tranh.[22]


Trong xung đột vũ trang có sử dụng AI, nhằm bảo vệ dân thường và mục tiêu dân sự, ưu tiên hàng đầu là giới hạn phạm vi hoạt động của vũ khí tự động để đảm bảo hai nguyên tắc này.[23] Cùng với đó, các quy định liên quan đến nguyên tắc tấn công tương xứng và cẩn trọng cần sớm được làm rõ nhằm hỗ trợ giảm thiểu thiệt hại cho dân thường và mục tiêu dân sự.


3. Thách thức của AI trong việc bảo vệ dân thường và các mục tiêu dân sự theo quy định của LNĐQT

3.1. Thách thức của AI trong khả năng phân biệt dân thường, chiến binh, mục tiêu dân sự và mục tiêu quân sự

Một trong những thách nhằm bảo vệ dân thường và mục tiêu dân sự đến từ những lỗ hổng trong khả năng phân biệt của trí tuệ nhân tạo (AI). Nguyên nhân dẫn đến sự cố tấn công sai mục tiêu bắt nguồn từ cơ chế tấn công của AI khi chỉ dựa trên dấu hiệu nhất định mà không có khả năng về mặt đạo đức hay nhân tính, dẫn đến hạn chế trong việc phân biệt chính xác giữa người tham chiến và người không tham chiến.


Theo các nhà sản xuất vũ khí quân sự, công nghệ AI kết hợp trong UAV sẽ giúp giảm thiểu thiệt hại dân sự do khả nhận diện mục tiêu vượt trội,[24] nhưng trái ngược với thông tin này, không ít nghiên cứu đã chỉ ra và phân tích những bằng chứng về mối đe dọa lớn mà vũ khí tích hợp AI mang lại. Khác với chiến tranh truyền thống, giờ đây AI sẽ thay thế con người thông qua quá trình được huấn luyện để nhận diện mục tiêu dựa trên dữ liệu và hình ảnh. Do đó, viễn cảnh về vấn nạn “máy móc giết người” và các hệ thống nhận dạng khuôn mặt gắn nhãn nhầm người dân vô tội là tội phạm hoặc khủng bố đang là mối quan tâm hàng đầu trong các cuộc tranh luận trên quốc tế về công nghệ này.[25] Những lỗi nhận diện của AI đặc biệt gia tăng khi khoảng cách đến mục tiêu càng lớn, khiến hình ảnh được ghi lại không rõ ràng, làm nhiễu mục tiêu nhận diện, dẫn tới tấn công sai đối tượng.[26] Ngay cả khi AI chưa được ứng dụng để điều khiển vũ khí, thế giới đã từng chứng kiến những thảm họa UAV tấn công vào dân thường và mục tiêu dân sự từ khu vực Tây Á, Trung Á, Trung Đông đến khu vực chiến sự Nga - Ukraine, ví dụ như các vụ tấn công nhầm vào nhóm nông dân Afghanistan,[27] tấn công vào một đám cưới tại Yemen mà tình báo Mỹ cho biết họ chỉ “nhắm mục tiêu theo điện thoại di động”,[28] hay vụ tấn công vào Điện Kremlin tại Nga – một mục tiêu được cho là “bất khả xâm phạm đối với vũ khí thông thường”.[29] Xét những trường hợp trên, hành vi vi phạm LNĐQT dù vô tình hay cố ý vẫn đã xảy ra ngay dưới tầm kiểm soát của con người. Như vậy, một khi AI được triển khai để hoàn toàn chi phối vũ khí, sẽ càng có nhiều hiểm họa đến từ cách thức tấn công theo các quy tắc nhận diện dấu hiệu hoặc tấn công liên tục vào khu vực mục tiêu.[30] Nếu UAV do con người điều khiển còn mắc phải những sai lầm gây hậu quả nặng nề, thì vũ khí kết hợp AI với khả năng phân biệt còn hạn chế, sẽ không chỉ gây thiệt hại nghiêm trọng cho dân thường mà còn làm trầm trọng thêm cuộc khủng hoảng nhân đạo trong các khu vực xung đột.


Thách thức trong khả năng phân biệt mục tiêu còn xuất phát từ những lỗ hổng của hệ thống AI khi nhận diện sai hoặc không thể nhận diện kịp thời các mối đe dọa. Trong xung đột Israel - Palestine, hệ thống AI “Lavender” đã được Israel sử dụng để hỗ trợ xác định danh tính các chiến binh Hamas trong cuộc tấn công tại dải Gaza.[31] Dù sở hữu thiết bị cảm biến tinh vi cùng mạng lưới tín hiệu tân tiến, tình báo Israel vẫn bỏ lỡ các dấu hiệu cảnh báo, dẫn tới sự cố ngày 7 tháng 10 năm 2023, khi hàng trăm chiến binh Hamas đã xâm nhập vào Israel từ Gaza để tấn công các mục tiêu dân sự và quân sự, khiến khoảng 1200 người Israel thiệt mạng, hơn 200 người bị bắt cóc.[32] Mạng lưới cơ sở hạ tầng và cư dân đông đúc cùng với khả năng che dấu giữ liệu tốt từ Hamas[33] đã khiến AI gặp khó khăn trong việc phát hiện, phân tích, cảnh báo trước, và ngăn chặn vụ tấn công bất ngờ, dẫn đến thiệt hại nặng nề. Ngoài ra, do chỉ hoạt động dựa trên dấu hiệu được cung cấp, rủi ro tấn công nhầm vào dân thường và các mục tiêu dân sự của vũ khí có sử dụng AI có thể trở nên nghiêm trọng hơn nếu các hệ thống AI bị tin tặc xâm nhập và tráo đổi dữ liệu mục tiêu, tín hiệu tình báo để phát động các cuộc tấn công giả mạo.[34]


Sự thất bại của AI trong việc đảm bảo nguyên tắc phân biệt sẽ dẫn đến những vi phạm nghiêm trọng đối với LNĐQT. Các bên sử dụng AI trong tình báo và tấn công vũ trang cần kiểm soát hệ thống để không nhắm vào những mục tiêu bất hợp pháp hay tấn công bừa bãi, và cần xem xét các biện pháp nhằm đảm bảo việc áp dụng công nghệ này không làm tổn hại đến quyền lợi và sự an toàn của các cá nhân không tham gia vào xung đột.


3.2. Thách thức của AI trong khả năng đảm bảo tính tương xứng và cẩn trọng trong các cuộc tấn công

Thứ nhất, khó khăn của AI trong việc phân biệt chính xác giữa các mục tiêu dân sự và quân sự như đã phân tích[35] không chỉ là một hạn chế trong việc thực thi nguyên tắc phân biệt, mà còn liên quan mật thiết đến nguyên tắc tương xứng và cẩn trọng. Các quyết định tấn công thiếu chính xác, gây ra thiệt hại ngoài ý muốn đồng nghĩa với việc không thể đảm bảo AI đã đánh giá đúng lợi thế quân sự hay đã thực hiện “mọi biện pháp cần thiết” để phân loại các mục tiêu hợp pháp và mục tiêu bất hợp pháp[36] nhằm giảm thiểu tối đa thiệt hại. Thứ hai, nếu ngay cả con người vẫn gặp khó khăn trong việc đánh giá thiệt hại và lợi ích, xác minh thông tin, giảm thiểu thiệt hại ngoài ý muốn, đặc biệt trong những tình huống không đủ phương tiện và dữ liệu, thì đối với các hệ thống AI, thách thức nhằm đạt được độ chính xác trong tấn công sẽ càng lớn, và rủi ro nguy cơ vi phạm quy tắc nhân đạo càng cao.


Ví dụ, trong Báo cáo của Ủy ban Điều tra về vụ tấn công vào Salah Shehadeh - chỉ huy quân sự của Hamas tại Gaza năm 2002, Israel đã bị chỉ trích vì cuộc tấn công gây ra thiệt hại lớn về tài sản dân sự và quá nhiều thương vong: 14 dân thường thiệt mạng, trong đó có con gái 15 tuổi của Shehadeh. Báo cáo kết luận lực lượng Israel đã vi phạm nguyên tắc tương xứng do không thu thập đủ thông tin để đánh giá chính xác các thiệt hại trước khi thực hiện cuộc tấn công.[37] Điều này đặt ra một tình huống tương tự đối với các hệ thống vũ khí hoàn toàn sử dụng AI, khi việc đảm bảo thu thập đầy đủ thông tin và ra quyết định chính xác để hạn chế thiệt hại ngoài ý muốn có thể vượt quá khả năng của AI hiện nay.


Ngoài ra, việc AI thiếu khả năng tự đưa ra những quyết định dựa trên yếu tố tình cảm và đạo đức sẽ tạo thêm nhiều thách thức trong việc đảm bảo các nguyên tắc tương xứng và cẩn trọng trong các tình huống xung đột phức tạp. Khi trực tiếp tham gia tấn công, binh lính có khả năng thay đổi quyết định hoặc dừng lại trong khoảng thời gian ngắn dựa trên hoàn cảnh thực tế để bảo vệ dân thường hoặc phát hiện mối nguy hại không dự tính trước. Ngược lại, nếu vũ khí được vận hành hoàn toàn bởi AI, quyết định tấn công có thể được đưa ra với tốc độ vượt trội nhưng lại thiếu linh hoạt do công nghệ này chỉ hoạt động dựa trên dữ liệu và thuật toán cố định, không kịp thích ứng với sự phức tạp khó lường của chiến tranh hoặc các mối đe dọa bất thường dẫn tới hậu quả nhân đạo thảm khốc.[38] Sự hiện diện của dân thường và tài sản dân sự ở các khu vực chiến đấu không thể loại trừ hoàn toàn, nên ngay cả khi vũ khí tấn công được trang bị công nghệ cảm biến với khả năng phân biệt vượt trội giúp giảm thiểu các sai sót, việc AI đạt tới mức độ quyết định có độ chính xác và đạo đức cao như con người vẫn là một thách thức trong ngành công nghệ quân sự ở hiện tại và tương lai.


3.3. Thách thức trong việc xác định trách nhiệm pháp lý đối với sai phạm của AI trong các cuộc tấn công và hệ quả của những lỗ hổng pháp lý liên quan đến bảo vệ dân thường và mục tiêu dân sự

Do những lỗ hổng pháp lý trong khung luật hiện hành, thách thức xác định trách nhiệm pháp lý đối với AI liên quan mật thiết đến việc bảo vệ dân thường và mục tiêu dân sự, và cũng là một trong những thách thức lớn nhất. Mặc dù LNĐQT đã đặt ra các nguyên tắc cơ bản như nguyên tắc phân biệt, nguyên tắc tương xứng và nguyên tắc cẩn trọng nhằm giảm thiểu tối đa thiệt hại cũng như căn cứ xác định mức độ vi phạm của các bên trong xung đột, câu hỏi về trách nhiệm khi có thiệt hại xảy ra nếu AI gây thương vong cho dân thường hoặc phá hủy tài sản dân sự dựa trên khả năng tự động ra quyết định của công nghệ này vẫn chưa có lời giải đáp, do thiếu các quy định rõ ràng về trách nhiệm đối với hệ thống vũ khí tự động trong luật quốc tế hiện hành.


Một hướng đi trong giải pháp nhằm xác định trách nhiệm pháp lý đối với sai phạm của AI đó là cấp tư cách pháp nhân cho trí tuệ nhân tạo. Khi thiệt hại xảy ra “không có sự tác động của con người mà do sự sai lệch bản năng thuật toán về công nghệ thì trên phương diện logic, lỗi và trách nhiệm sẽ thuộc về các thực thể AI”.[39] Tuy nhiên, việc cung cấp tư cách pháp nhân cho AI cũng không giải quyết được hoàn toàn việc giải trình trách nhiệm của các bên liên quan như nhà nước, lập trình viên, chỉ huy quân đội, và người điều khiển, vì mỗi bên đều có vai trò nhất định trong quyết định triển khai và vận hành AI trong chiến tranh. Hiện nay trên thế giới, điểm chung mà các nghiên cứu chỉ ra là AI không có trách nhiệm pháp lý, bất kể khả năng nhận thức của phần mềm công nghệ này tiên tiến đến đâu, do đó việc xác định trách nhiệm pháp lý trong các trường hợp sử dụng hệ thống vũ khí tự động có sử dụng công nghệ AI đặt ra nhiều khó khăn.


Một số tài liệu cho rằng thay vì đổ lỗi cho máy móc và công nghệ, cần chú ý tới trách nhiệm của các công ty, tập đoàn sản xuất vũ khí có sử dụng AI.[40] Nhưng câu hỏi đặt ra là kể cả khi đã được lập trình chi tiết, liệu AI có thực sự đảm bảo được khả năng phân biệt, tính tương xứng và cẩn trọng khi thay con người ra quyết định về các cuộc tấn công quân sự? Đối với lập trình viên, việc yêu cầu phải thiết lập AI tuân thủ chặt chẽ các nguyên tắc của LNĐQT, tránh tấn công vào dân thường và các mục tiêu dân sự là điều khó thực hiện, do đôi khi tình huống thực tế quá phức tạp để AI tự đưa ra quyết định phù hợp. Đáng lưu ý là đến nay công nghệ này chưa có khả năng nhận thức đạo đức và luôn phụ thuộc vào thuật toán, do đó hoạt động của AI có thể hoàn toàn trái ngược hoặc thậm chí tách rời khỏi chủ ý của con người,[41] đặc biệt là binh lính – những người trực tiếp tham gia tấn công trên chiến trường cùng vũ khí tích hợp AI. Giả sử, một binh lính được giao nhiệm vụ kích hoạt vũ khí tự động, nhưng dữ liệu cảm biến xác định nhầm cử động của một nhóm dân thường là mục tiêu và tấn công ngay sau khi phân tích. Nếu AI đảm nhiệm toàn bộ quá trình tấn công, thì việc gán trách nhiệm pháp lý cho duy nhất binh lính là không hợp lý, vì vận hành vũ khí còn liên quan đến sự chỉ đạo và cho phép tấn công từ chỉ huy quân đội và quốc gia, nên nhiều nghiên cứu cho rằng việc xác định trách nhiệm cũng phải được quy cho các chủ thể này,[42] và đây cũng là quan điểm được đề cập nhiều nhất từ các bài nghiên cứu đi trước. Liên quan đến xác định trách nhiệm đối với hành vi trái pháp luật của nhà nước, năm 2001, Uỷ ban Luật Quốc tế (ILC) đã dự thảo và thông qua văn bản Các điều khoản về trách nhiệm quốc tế của quốc gia cho hành vi sai phạm quốc tế năm 2001 (Articles on International Responsibility of States for Internationally Wrongful Acts - ARSIWA), đính kèm theo một nghị quyết của Đại hội đồng Liên hợp quốc.[43] Điều 1 ARSIWA quy định: “Mọi hành vi sai trái quốc tế của một quốc gia đều kéo theo trách nhiệm quốc tế của quốc gia đó”.[44] Thực tiễn đã ghi nhận các vụ việc tranh chấp quốc tế dẫn chiếu và sử dụng các điều khoản của ARSIWA,[45] do đó việc quy trách nhiệm pháp lý cho nhà nước khi hành vi tấn công bằng vũ khí công nghệ cao của quốc gia đó vi phạm LNĐQT là hoàn toàn khả thi. Tuy nhiên, việc giải trình trách nhiệm của các bên trong chiến tranh hiện đại vẫn chưa đạt được sự thống nhất, nên nếu luật quốc tế không sớm có những quy định cụ thể để thắt chặt việc ứng dụng và xác định trách nhiệm pháp lý liên quan đến vũ khí công nghệ cao, tương lai dân thường và mục tiêu dân sự sẽ bị tổn hại bởi những hành vi sai trái mà không một tổ chức hay cá nhân nào phải chịu trách nhiệm.


Nếu xảy ra tình huống impunity - những trường hợp “không có biện pháp thực sự nào được áp dụng để xử phạt các hành vi vi phạm, hoặc khi các biện pháp đó không được thi hành”[46]- các hành vi vi phạm nhân đạo sẽ có điều kiện tiếp diễn mà không có sự kiểm soát. Một khi để xảy ra các sai phạm thường xuyên đồng nghĩa rằng khả năng bảo vệ dân thường và các mục tiêu dân sự của LNĐQT đang trở nên suy yếu, dẫn đến những mối lo ngại về hiệu quả của luật quốc tế. Sự bất an này không chỉ dẫn đến những hậu quả về tâm lý đối với người dân sống trong khu vực xung đột, mà còn tác động mạnh mẽ đến tâm trạng và cảm xúc của các binh lính tham gia vào các cuộc chiến sử dụng vũ khí AI - những đối tượng được cho là có thể “giảm cảm giác tội lỗi” nhờ vũ khí công nghệ cao khi “buộc phải có những hành động giết chóc và tàn phá trên chiến trường”.[47] Tách biệt về mặt vật lý giữa binh lính và các hành động tấn công được thực hiện qua vũ khí công nghệ không làm mất kết nối giữa tinh thần của binh lính và hậu quả tàn khốc mà họ phải đối diện. Vì vậy, việc xác định trách nhiệm không chỉ nên dừng lại ở những thiệt hại vật chất mà còn cần xem xét những tổn thương tinh thần mà các nạn nhân phải gánh chịu do những sai lầm của hệ thống vũ khí trang bị AI. Cuối cùng, việc thiếu hụt các quy định nhằm xác định trách nhiệm pháp lý đối với việc sử dụng vũ khí tích hợp AI còn ảnh hưởng đến vấn đề an ninh trên phạm vi toàn cầu, vì hậu quả của những cuộc khủng hoảng nhân đạo là những làn sóng di cư và các vấn đề về tị nạn, buộc các quốc gia trên thế giới đều phải đối diện với những nguy cơ, thách thức mới về an ninh và ổn định.


4. Kết luận và kiến nghị

Trong quá trình phát triển công nghệ, AI có tiềm năng mang lại những lợi ích to lớn, nhưng việc ứng dụng AI vào các hệ thống vũ khí tự động và các quyết định trong chiến tranh đã làm dấy lên những lo ngại nghiêm trọng về nhân đạo, đặc biệt trong việc bảo vệ dân thường và mục tiêu dân sự. Một khi AI được tích hợp, tất cả các bước trong quy trình tác chiến có thể diễn ra đồng thời mà không cần sự can thiệp của con người. Mặc dù công nghệ có thể tiến xa trong tương lai, hiện tại AI vẫn không có khả năng phát triển tình cảm hay đạo đức. Nếu không có sự giám sát chặt chẽ từ con người, có thể dẫn đến những tổn thất không mong muốn cho dân thường và các mục tiêu dân sự, làm suy yếu quyền con người và có nguy cơ vi phạm nghiêm trọng các nguyên tắc cơ bản của LNĐQT. Trước tình hình đó, thế giới cần đặt ra các quy định và tiêu chuẩn quốc tế rõ ràng để điều chỉnh AI trong lĩnh vực quân sự, đảm bảo rằng AI được sử dụng một cách có trách nhiệm và phù hợp với các nguyên tắc nhân đạo. Đặc biệt, cần nhấn mạnh rằng, cho đến hiện tại, con người vẫn là đối tượng duy nhất phải chịu trách nhiệm cho những hành động của mình.


Để đảm bảo việc sử dụng AI trong chiến tranh tuân thủ các nguyên tắc nhân đạo, cần có một số kiến nghị cấp thiết. Trước hết, các quy định hiện hành của LNĐQT chưa đủ chi tiết để bao quát các AI trong xung đột vũ trang, do đó luật quốc tế cần nhanh chóng có các quy định cụ thể để điều chỉnh hành vi của AI trong các hoạt động quân sự, với những yêu cầu cụ thể về chỉ số kỹ thuật của AI và xác định trách nhiệm của con người trong toàn bộ quy trình tác chiến. Thứ hai, do khả năng phân biệt của AI hiện nay chỉ dựa trên dữ liệu, việc nghiên cứu và phát triển các công nghệ AI cần được đẩy mạnh nhằm sớm có những giải pháp hiệu quả giúp giảm thiểu các thách thức cũng như những tác động tiềm tàng của công nghệ này đối với an ninh quốc tế. Cùng với đó, cần tăng cường hợp tác quốc tế để kiểm soát AI trong quân sự nhằm đảm bảo vũ khí AI được phù hợp với luật quốc tế, hướng tới an ninh toàn cầu. Trước tốc độ phát triển không ngừng của công nghệ, việc làm này không chỉ góp phần bảo vệ tính mạng và quyền lợi của dân thường mà còn giúp xây dựng một khuôn khổ pháp lý vững chắc, tạo điều kiện cho AI được triển khai trong chiến tranh một cách có trách nhiệm và an toàn.


DANH MỤC TÀI LIỆU THAM KHẢO

[1] Vũ Nguyễn Lan Phương – Khoa Luật Quốc tế, Học viện Ngoại giao.

[2] Duy Hưng. ‘Cuộc đua tích hợp công nghệ AI cho UAV giữa Nga và phương Tây’ Nghiên cứu chiến lược (29/01/2024).

[3] Huỳnh Minh Chiến. ‘Chiến tranh trí tuệ nhân tạo - những vấn đề cần quan tâm nghiên cứu’ Tạp chí Quốc phòng Toàn dân (22/01/2022).

[4] Peter Svenmarck và Linus Luotsinen, Mattias Nilsson, và Johan Schubert, ‘Possibilities and challenges for artificial intelligence in military applications’ (Proceedings of the NATO Big Data and Artificial Intelligence for Military Decision Making Specialists’ Meeting Vol 1, Sweden, 2018).

[5] Hùng Mạnh, ‘Cảnh báo về phát triển AI trong quân sự’, Báo Nhân dân Điện tử (28/08/2019). <https://nhandan.vn/canh-bao-ve-phat-trien-ai-trong-quan-su-post369068.html> truy cập ngày 03/10/2024.

[6] Kisari Mohan Ganguli, The Complete Mahabharata in English (biên tập bởi Juliet Sutherland và J. B. Hare 2003), trang 308.

[7] Christopher Greenwood, ‘Historical Development and Legal Basis’ trong The Handbook Of Humanitarian Law In Armed Conflicts (biên tập bởi Dieter Fleck, tái bản lần thứ 2, nhà xuất bản Đại học Oxford 1995), trang 14.

[8] Phạm Lan Dung (Chủ biên), Giáo trình Công pháp Quốc tế, Tập 1 (Nhà xuất bản Thế giới 2022), trang 340.

[9] Nghị định thư bổ sung I, Điều 48; Luật Tập quán Nhân đạo Quốc tế, Quy tắc 1,7; ‘Distinction’ How Does Law Protect in War? Ủy ban Chữ thập đỏ Quốc tế (ICRC). <https://casebook.icrc.org/a_to_z/glossary/distinction> truy cập ngày 24/10/2024.

[10] ‘International norms and standards relating to disability’, United Nations. <https://www.un.org/esa/socdev/enable/comp210.htm> truy cập ngày 28/10/2024.

[11] Tường Vy, ‘Trí tuệ nhân tạo và quá trình tự chủ vũ khí trên thế giới’, Báo Quân đội nhân dân (22/9/2024). <https://www.qdnd.vn/quan-su-the-gioi/vu-khi-trang-bi/tri-tue-nhan-tao-va-qua-trinh-tu-chu-vu-khi-tren-the-gioi -795497> truy cập ngày 16/11/2024.

[12] Đức Hoàng, ‘Nga tuyên bố có vũ khí diệt UAV bằng trí tuệ nhân tạo’, Báo Dân trí (01/5/2024). <https://dantri.com.vn/the-gioi/nga-tuyen-bo-co-vu-khi-diet-uav-bang-tri-tue-nhan-tao-20240501055832805.htm > truy cập ngày 16/11/2024.

[13] Michael J. Boyle, The Drone Age: How Drone Technology Will Change War and Peace (Nhà xuất bản Đại học Oxford 2020), trang 10.

[14] Luật Tập quán Nhân đạo Quốc tế, Quy tắc 14 <https://ihl-databases.icrc.org/en/customary-ihl> truy cập ngày 28/10/2024.

[15] Eric Engle, ‘The history of the general priciple of proportionality: an overview’ (2009), Dartmouth Law Journal 1-11 (2012), 2-4 < https://papers.ssrn.com/sol3/papers.cfm?abstract_id=1431179> truy cập ngày 08/12/2024.

[16] Xem thêm: Nguyễn Anh Tuấn, Khảo lược Bộ luật Hammurabi của nhà nước Lưỡng Hà cổ đại, (Nhà xuất bản Chính trị quốc gia 2008)

[17] Đậu Công Hiệp, ‘Nguyên tắc tương xứng trong hạn chế quyền con người và vận dụng trong tình trạng khẩn cấp’ (Đại học Quốc gia Hà Nội, 2020) p. 162-170 < https://repository.vnu.edu.vn/handle/VNU_123/142044> truy cập ngày 07/12/2024.

[18] Edvin Andersson, ‘The protection of civilians in war - assessing the proportionality principle in armed conflict’ (LLB thesis, Örebro University 2022).

[19] Phạm Lan Dung, xem chú thích số 8, trang 341; Marco Sassòli, International Humanitarian Law: Rules, controversies, and solutions to problem arising in warfare (Edward Elgar Publishing Limited 2019), trang 362. 20 Nghị định thư bổ sung I, Điều 57(2)(a)(i).

[21] JS Thurnher, Feasible Precautions in Attack and Autonomous Weapons trong Dehumanization of Warfare: Legal Implications of New Weapon Technologies’ (biên tập bởi R Frau and T Singer, W Heintschel von Heinegg 2018), trang 108.

[22] Marco Sassòli, xem chú thích số 19, trang 343.

[23] Eliot Winter, ‘The Compatibility of the Use of Autonomous Weapons with the Principle of Precaution in the Law of Armed Conflict’ (2020), The Military Law and the Law of War Review <https://www.elgaronline.com/view/journals/mllwr/58-2/mllwr.2020.02.18.xml?tab_body=fulltext#ref_fn_063> truy cập ngày 3/11/2024.

[24] Amos Chapple, ‘Swarm Wars: The Shaky Rise Of AI Drones In Ukraine’, FRE/RL (14/8/2024) <https://www.rferl.org/a/drone-ai-technology-russia-ukraine-war/33078798.html> truy cập ngày 16/11/2024.

[25] Forrest E. Morgan, Benjamin Boudreaux, Andrew J. Lohn, Mark Ashby, Christian Curriden, Kelly Klima, và Derek Grossman, ‘Military Applications of Artificial Intelligence: Ethical Concerns in an Uncertain World’ (2020), RAND Corporation. <https://www.rand.org/pubs/research_reports/RR3139-1.html> truy cập ngày 25/10/2024.

[26] Aleksandar Petrovski, Marko Radovanović, và Aner Behlic, ‘Application Of Drones With Artificial Intelligence For Military Purposes’(10th International Scientific Conference on Defensive Technologies, Belgrade, Serbia, 13-14 October 2022).

<https://www.researchgate.net/profile/Marko-Radovanovic-2/publication/364324778_APPLICATION_OF_DR ONES_WITH_ARTIFICIAL_INTELLIGENCE_FOR_MILITARY_PURPOSES/links/649cab9a8de7ed28ba618 890/APPLICATION-OF-DRONES-WITH-ARTIFICIAL-INTELLIGENCE-FOR-MILITARY-PURPOSES.pdf> truy cập ngày 10/9/2024.

[27] Nguyễn Hoàng (Theo Reuters), ‘Mỹ không kích nhầm 30 dân thường’ VnExpress (20/9/2019). < https://vnexpress.net/my-khong-kich-nham-30-dan-thuong-3984766.html> truy cập ngày 31/10/2024.

[28] ‘Vì sao UAV của Mỹ chuyên không kích nhầm đám cưới, đám ma?’, Báo điện tử Tiền phong (10/11/2015). <https://tienphong.vn/vi-sao-uav-cua-my-chuyen-khong-kich-nham-dam-cuoi-dam-ma-post825105.tpo> truy cập ngày 25/10/2024.

[29] Thế giới & Việt Nam/ Australia Financial Review, ‘Trí tuệ nhân tạo và mối nguy chiến tranh hiện đại’ Báo Pháp luật Việt Nam Điện tử (13/5/2023).

[30] Minh Trí, ‘Mặt trái của chương trình UAV Mỹ’ Báo Quân đội nhân dân (10/02/2020). <https://www.qdnd.vn/quan-su-the-gioi/vu-khi-trang-bi/mat-trai-cua-chuong-trinh-uav-my-609741> truy cập ngày 25/10/2024.

[31] Tường Vy, xem chú thích số 11.

[32] Anthony King, ‘Digital Targeting: Artificial Intelligence, Data, and Military Intelligence’ (2024), Journal of Global Security Studies, 9(2) ogae009, <https://doi.org/10.1093/jogss/ogae009> truy cập ngày 24/9/2024. 33 Hoàng Bách, ‘Cuộc tấn công bất ngờ của Hamas đả kích niềm kiêu hãnh về trí tuệ nhân tạo của Israel’ Báo Nghệ An điện tử (10/10/2023).

[34] Michael J. Boyle, xem chú thích số 13.

[35] Xem phần 3.1.

[36] Eliot Winter, xem chú thích số 23.

[37] Amichai Cohen, David Zlotogorski, Proportionality in International Humanitarian Law: Consequences, Precautions and Procedures (Nhà xuất bản Đại học Oxford, 2021) trang 96.

[38] Forrest E. Morgan, Benjamin Boudreaux, Andrew J. Lohn, Mark Ashby, Christian Curriden, Kelly Klima, và Derek Grossman, xem chú thích số 25.

[39] Đặng Lê Phương Uyên, ‘Vấn đề về xác định trí tuệ nhân tạo là chủ thể mới của quan hệ pháp luật’, Tạp chí điện tử Kiểm Sát (30/8/2023). <https://kiemsat.vn/van-de-ve-xac-dinh-tri-tue-nhan-tao-la-chu-the-moi-cua-quan-he-phap-luat-66017.html> truy cập ngày 03/11/2024.

[40] Robin Geiß, State Control Over the Use of Autonomous Weapon Systems: Risk Management and State Responsibility’ trong Military Operations and the Notion of Control under International Law (biên tập bởi Rogier Bartels và nhóm biên tập, TMC Asser Press 2021) trang 439, 448.

[41] Paulius Čerka, Jurgita Grigienė, và Gintarė Sirbikytė, ‘Is it possible to grant legal personality to artificial intelligence software systems?’ (2017) ISSN: 0267-3649, Computer Law & Security Review, 33(5), 685-699 <https://www.sciencedirect.com/science/article/abs/pii/S0267364916301777#preview-section-abstract> truy cập ngày 03/11/2024.

[42] Rebecca Crootof, ‘War Torts: Accountability for Autonomous Weapons’ (2016) 164 University of Pennsylvania Law Review, Google Scholar < https://heinonline.org/HOL/LandingPage?handle=hein.journals/pnlr164&div=40&id=&page=> truy cập ngày 20/11/2024, trang 1347, 1389–93; JM Beard, ‘Autonomous Weapons and Human Responsibilities’ (2014) 45 Georgetown Journal of International Law, Google Scholar < https://core.ac.uk/download/pdf/77934296.pdf> truy cập ngày 20/11/2024, trang 617, 663-78; Robin Geiß, xem chú thích số 40, trang 448; ‘Future Unmanned System Technologies: Legal and Ethical Implications of Increasing Automation’ NATO JAPCC (2016). < https://www.japcc.org/wp-content/uploads/Future_Unmanned_System_Technologies_Web.pdf>, truy cập ngày 20/11/2024, trang 30.

[43] Trần Hữu Duy Minh. ‘Trách nhiệm pháp lý quốc tế của Quốc gia’ iuscogens. <https://iuscogens-vie.org/2018/03/18/66/> truy cập ngày 08/12/2024.

[44] ARSIWA, Điều 1.

[45] Trần Anh Tuấn, ‘Các yếu tố cấu thành hành vi trái pháp luật quốc tế của nhà nước’, Cổng thông tin điện tử Bộ Tư pháp. < https://moj.gov.vn/tttp/tintuc/Lists/NghienCuuTraoDoi/Attachments/58/C%C3%A1c%20y%E1%BA%BFu%20t %E1%BB%91%20c%E1%BA%A5u%20th%C3%A0nh%20h%C3%A0nh%20vi%20tr%C3%A1i%20ph%C3%

A1p%20lu%E1%BA%ADt%20qu%E1%BB%91c%20t%E1%BA%BF%20c%E1%BB%A7a%20Nh%C3%A0 %20n%C6%B0%E1%BB%9Bc.docx> truy cập ngày 20/11/2024.

[46] Cherif Bassiouni (biên tập), ‘The Practical Guide to Humanitarian Law’ (Post Conflict Justice 2002), trang 3.

[47] Vũ Công Giao, Nguyễn Anh Đức, ‘Sự phát triển và những vấn đề đang đặt ra với Luật Nhân đạo Quốc tế’ (Hội thảo quốc tế Những đóng góp của Việt Nam trong lĩnh vực luật nhân đạo quốc tế, Đại học Quốc gia Hà Nội, 2022) 9 <https://repository.vnu.edu.vn/handle/VNU_123/167942> truy cập ngày 28/10/2024.



 
 
 

Bình luận


bottom of page