top of page
icj 1.jpeg

[64] VẤN ĐỀ THỰC THI QUYỀN ĐƯỢC BẢO VỆ CỦA TRẺ EM VÀ TRUY CỨU TRÁCH NHIỆM PHÁP LÝ ĐỐI VỚI HÀNH VI SỬ DỤNG DEEPFAKE TẠO DỰNG NỘI DUNG LẠM DỤNG TÌNH DỤC TRẺ EM

  • Vũ Phạm Phương Nhi, Phạm Thị Quỳnh Anh, Lưu Ngọc Minh Châu
  • 6 thg 8
  • 26 phút đọc

Bài viết này được đăng tại Kỷ yếu Hội thảo Khoa học cho Sinh viên về Luật quốc tế lần thứ ba với chủ đề "Trí tuệ Nhân tạo (AI) và những vấn đề pháp lý" của Khoa Luật Quốc tế - Học viện Ngoại giao năm 2024.


Tác giả: Vũ Phạm Phương Nhi, Phạm Thị Quỳnh Anh, Lưu Ngọc Minh Châu[1]


Tóm tắt: Trong kỷ nguyên số hóa, Deepfake đã nhanh chóng trở thành một trong những tiến bộ công nghệ gây tranh cãi nhất, đặc biệt khi công nghệ này được áp dụng vào việc tạo lập và lan truyền nội dung lạm dụng tình dục trẻ em (children sexual abuse material - CSAM). Hành vi này không chỉ xâm hại đến quyền lợi của nạn nhân mà còn thách thức các hệ thống pháp lý trong việc truy cứu trách nhiệm và bảo vệ quyền lợi trẻ em. Bài nghiên cứu phân tích các khía cạnh pháp lý liên quan đến quyền được bảo vệ của trẻ em trước các hành vi lạm dụng tình dục bằng công nghệ Deepfake, đồng thời chỉ ra những thách thức pháp lý trong việc phát hiện và truy tố hành vi này, qua đó đề xuất các giải pháp pháp lý nhằm tăng cường bảo vệ quyền lợi cho trẻ em tại Việt Nam.


Từ khoá: Deepfake, CSAM, quyền được bảo vệ của trẻ em, truy cứu trách nhiệm pháp lý


Dẫn nhập

Với phương pháp sử dụng trí tuệ nhân tạo để tạo dựng nội dung giả lập có độ chân thực cao, công nghệ Deepfake làm dấy lên những quan ngại trong cộng đồng quốc tế về một công cụ tiện ích nhưng đầy rủi ro, đặc biệt khi tội phạm đã nhắm tới nhóm đối tượng yếu thế là trẻ em để tạo dựng CSAM. Đây là hành vi phạm pháp phổ biến tại các quốc gia phát triển về công nghệ, tiêu biểu như Hoa Kỳ, khi chỉ riêng trong năm 2023, đường dây nóng của Trung tâm Quốc gia về Trẻ em Mất tích và Bị bóc lột (“NCMEC”) tại nước này đã nhận được 35,9 triệu báo cáo về các trường hợp nghi ngờ lạm dụng tình dục trẻ em trực tuyến liên quan đến việc sở hữu, tạo dựng hoặc phân phối CSAM.[2]


Để giải quyết vấn đề này, nhiều quốc gia đã xây dựng và ban hành những quy định pháp luật xoay quanh quyền được bảo vệ của trẻ em trước hình thức lạm dụng tình dục mới và truy cứu trách nhiệm với tội phạm sử dụng Deepfake, song vẫn tồn tại một số bất cập. Bài nghiên cứu sẽ tập trung trả lời những câu hỏi pháp lý liên quan tới vấn đề thực thi pháp luật để bảo vệ trẻ em trước công nghệ Deepfake, và thách thức của pháp luật hiện hành trong việc truy cứu trách nhiệm pháp lý đối với hành vi sử dụng Deepfake để tạo dựng CSAM. Qua đó, bài nghiên cứu đưa ra một số đề xuất cho Việt Nam trong việc áp dụng và ban hành các điều luật bảo vệ quyền trẻ em trong bối cảnh công nghệ Deepfake được ứng dụng ngày một rộng rãi.


1. Định nghĩa và quy định pháp lý hiện hành trong quản lý công nghệ Deepfake

1.1. Định nghĩa về công nghệ Deepfake

Trong thập kỷ qua, mạng Internet đã trở nên phổ biến trên toàn thế giới. Sự phát triển của công nghệ dù mang đến nhiều lợi ích, song cũng gây ra những mối nguy hiểm cho con người trên nhiều phương diện bởi tính tự do và nhanh chóng. Trong một khảo sát từ năm 2009, đã có khoảng 02 tỷ hình ảnh và video[3] được đăng tải trên mạng xã hội dẫn đến sự phát triển của các ứng dụng cho phép con người tạo lập, chỉnh sửa hình ảnh, từ đó có thể chuyển đổi những hình ảnh hay thông tin trên ảnh từ thật thành giả chỉ qua một số thao tác cơ bản.


Đến năm 2017, thuật ngữ Deepfake bắt đầu được sử dụng rộng rãi, bắt nguồn từ một tài khoản Reddit có tên “DeepFakes” đã đăng những video khiêu dâm giả mạo với độ chân thực cao, được tạo ra bởi công nghệ trí tuệ nhân tạo (artificial intelligence - AI) để chèn khuôn mặt của những người nổi tiếng vào video khiêu dâm sẵn có. Về cơ bản, Deepfake là công nghệ sử dụng AI, xuất phát từ “deep learning” và “fake”, được tạo ra bằng các kỹ thuật chồng ghép hình ảnh khuôn mặt của một người vào video của một người khác để tạo ra video mới, trong đó người đó đang thực hiện hoặc nói những điều mà người trong video gốc làm.[4] Hai công nghệ chính làm nền tảng cho công nghệ Deepfake là Học sâu Generative Adversarial Networks (“GAN”). Thứ nhất, Học sâu là một nhánh của học máy, sử dụng mạng nơ-ron để bắt chước cách bộ não con người hoạt động nhằm nhận diện và tìm ra các mẫu trong dữ liệu.[5] Hệ thống Deepfake dựa vào các tập dữ liệu lớn để phát hiện các đặc điểm quan trọng, từ đó tạo ra hình ảnh hoặc video giả mạo giống thực.[6] Thứ hai, GAN là một lớp thuật toán học máy có nhiệm vụ cải thiện chất lượng Deepfake với hai thành phần cốt lõi đối nghịch: mô hình tạo sinh và mô hình phân biệt.[7] Mô hình tạo sinh tạo ra các mẫu giả bằng cách lấy một vectơ đầu vào ngẫu nhiên - một tập hợp các giá trị bất kỳ và sử dụng thông tin này để tạo dữ liệu đầu vào giả, sau đó mô hình phân biệt sẽ kiểm tra kết quả bằng cách lấy một mẫu làm đầu vào và xác định xem nó là thật hay do mô hình tạo sinh tạo ra.[8] Các mô hình liên tục cải thiện cho đến khi nội dung được tạo ra có khả năng đến từ mô hình tạo sinh giống như dữ liệu đào tạo.[9] Thông qua cơ chế hoạt động tinh vi này, công nghệ Deepfake cho phép người dùng thực hiện đa dạng các chức năng, từ hoạt động vô hại như tạo hiệu ứng hình ảnh, sao chép trong hài kịch và lồng tiếng; cho tới các hành vi phạm pháp là hoán đổi khuôn mặt, nhân bản giọng nói và giả mạo danh tính.[10]


1.2. Định nghĩa về CSAM và hành vi sử dụng Deepfake để tạo lập CSAM

1.2.1. Định nghĩa CSAM

CSAM hay nội dung lạm dụng tình dục trẻ em đề cập đến nội dung khiêu dâm sử dụng hình ảnh, video hoặc hình ảnh do công nghệ máy tính tạo ra với trẻ vị thành niên. Luật Liên bang Hoa Kỳ định nghĩa hành vi khiêu dâm trẻ em là bất cứ hình ảnh mô tả hành vi khiêu dâm đến trẻ dưới 18 tuổi.[11] Tuy nhiên, NCMEC đã lựa chọn thuật ngữ CSAM để chỉ những hình ảnh đó một cách chính xác nhất bởi ngoài hành vi lạm dụng, bóc lột tình dục đối với nạn nhân, những tài liệu này còn được trao đổi trên không gian mạng khiến nạn nhân sẽ phải chịu cảnh tái lạm dụng với mỗi một lần hình ảnh đó tiếp cận đến người khác.[12] Thuật ngữ này cũng được sử dụng rộng rãi trong lĩnh vực nghiên cứu và điều tra pháp lý. CSAM bắt buộc phải được xem xét dựa trên các yếu tố: (1) có dữ liệu hình ảnh, video; (2) bất kì ai cũng có thể truy cập và mỗi khi được lan truyền trên không gian mạng chính là khi tội ác với trẻ em đang được hình thành; và (3) trẻ em đang gặp nguy hiểm trong thời đại công nghệ phát triển.[13]


1.2.2. Sử dụng công nghệ Deepfake để tạo lập CSAM

Theo Thorn - Tổ chức phi lợi nhuận xây dựng công nghệ để bảo vệ trẻ em khỏi lạm dụng tình dục, một trong những hình thức mới để sản xuất CSAM là do AI tạo ra (“AIG-CSAM”).[14] Kể từ đầu năm 2023, những loại mô hình tạo sinh[15] miễn phí như DALL-E đã được cải tiến nhằm tăng khả năng kiểm soát chất lượng hình ảnh được tạo ra sao cho chỉ những người có chuyên môn về nhiếp ảnh mới có thể phân biệt với hình ảnh thực tế.[16] Việc áp dụng công nghệ AI nhanh chóng trở thành một cơ chế lạm dụng tình dục trẻ em mới có độ chân thực cao, khiến con người không thể phân biệt đó là hình ảnh thật hay do công nghệ AI tạo ra.[17]


Sự phát triển của công nghệ máy tính, trong đó có AIG-CSAM đã gây ra rất nhiều hậu quả, đặc biệt là nguy cơ đe dọa đến an toàn trẻ em. Có hai hình thức chính của AIG-CSAM, một là nội dung được tạo ra và xử lý toàn bộ bằng AI, hai là nội dung chỉnh sửa từ hình ảnh hoặc video có thật nhưng đã bị thay đổi bằng công nghệ AI (hay cũng được hiểu là CSAM sử dụng Deepfake). Trẻ em có thể đối mặt với nguy cơ liên tục trở thành nạn nhân xuất hiện trong CSAM bởi mỗi một lần tạo lập ra hình ảnh, công nghệ Deepfake sẽ theo cơ chế học thuộc lệnh và từ đó sử dụng tiếp hình ảnh đó tạo lập thêm CSAM với những hành vi tình dục khác nhau. Theo báo cáo vào tháng 07/2024 của Internet Watch Foundation (“IWF”)[18] về việc sử dụng và tạo lập CSAM bằng Deepfake, từ tháng 04/2023 đến tháng 03/2024 ghi nhận 375 báo cáo chứa nội dung do AI tạo ra (hầu như đều chỉ ra nội dung được lưu trữ trên các website công khai), trong đó 70 báo cáo liên quan đến AIG-CSAM có tính chất phạm tội.[19] Báo cáo cũng ghi nhận hai loại dịch vụ khiêu dâm trực tuyến liên quan đến AI phổ biến là dịch vụ tạo hình ảnh khiêu dâm tổng hợp và dịch vụ “làm khỏa thân” (nudified) từ hình ảnh có sẵn. IWF ghi nhận 17 trường hợp tự trình báo từ các nạn nhân có hình ảnh khiêu dâm Deepfake giả mạo và trong số đó có nhiều hình ảnh trẻ em bị chỉnh sửa thành nội dung khoả thân, sau đó phát tán rộng rãi trên mạng chủ yếu nhằm mục đích tống tiền.[20]


1.3. Những quy định pháp lý hiện hành trong việc quản lý công nghệ Deepfake

Hiện nay chưa có quy định nào trong luật quốc tế nhằm điều chỉnh hành vi sử dụng công nghệ Deepfake để tạo lập, phát tán CSAM. Những hành vi này chỉ được quy định cụ thể và điều chỉnh bởi khung pháp lý của một số quốc gia nhất định. Ở Anh, hành vi sử dụng Deepfake với mục đích lạm dụng tình dục trẻ em bị nghiêm cấm, cụ thể, Đạo luật Bảo vệ Trẻ em năm 1978 quy định hình sự hóa việc tạo, phát tán và sở hữu các bức ảnh khiêu dâm hoặc “giả ảnh” của trẻ em.[21] Luật này áp dụng cho cả hình ảnh được tạo bởi AI giống như ảnh chụp thực tế. Đạo luật Điều tra Nguyên nhân Tử vong và Tư pháp năm 2009 hình sự hóa việc sở hữu “hình ảnh bị cấm của trẻ em”, bao gồm cả những mô tả không phải ảnh, chẳng hạn như tranh vẽ hoặc hoạt hình.[22] Vì vậy, AIG-CSAM ở bất kì độ chân thực nào đều nằm trong khung pháp lý này. Luật Liên bang Hoa Kỳ cũng quy định hình ảnh khiêu dâm trẻ em là bất hợp pháp, bao gồm cả ảnh, video, hình ảnh số không thể phân biệt với hình ảnh trẻ em thật, và các hình ảnh chỉnh sửa để giống như miêu tả một trẻ cụ thể.[23] Luật Liên bang cấm sản xuất, phân phối, nhận và sở hữu nội dung CSAM thông qua các phương tiện thương mại hoặc xuyên quốc gia.[24] Các vi phạm sẽ bị trừng phạt nghiêm khắc, bao gồm tối thiểu 15-30 năm tù cho lần phạm tội đầu tiên liên quan đến sản xuất nội dung khiêu dâm trẻ em[25] và tối thiểu 5-20 năm tù cho tội lan truyền nội dung này.[26]


Dĩ nhiên, những điều luật trên chỉ có khả năng điều chỉnh hành vi phạm tội trong chính quốc gia đó. Dù đã xác định hình ảnh CSAM Deepfake là bất hợp pháp, công nghệ được sử dụng để tạo ra hình ảnh “làm khỏa thân” vẫn chưa được liệt kê và bị cấm một cách cụ thể. Đồng thời, những hành vi tạo lập, sản xuất và phân phối CSAM bằng Deepfake trên phạm vi xuyên quốc gia cũng cần được quy định bởi các quy phạm pháp lý quốc tế mang tính ràng buộc các quốc gia, nhằm mang lại sự bảo vệ toàn diện nhất cho trẻ em trên toàn thế giới.


2. Thực tiễn áp dụng và thách thức pháp lý trong việc giải quyết Deepfake CSAM

2.1. Vấn đề thực thi quyền được bảo vệ của trẻ em trước hình thức lạm dụng tình dục sử dụng Deepfake

2.1.1. Cơ sở pháp lý về quyền được bảo vệ của trẻ em

Theo từ điển luật học, thuật ngữ “quyền” dùng để chỉ những điều mà pháp luật công nhận và bảo đảm thực hiện đối với cá nhân, tổ chức;[27] như vậy có thể hiểu, quyền trẻ em là những quyền lợi về kinh tế, xã hội và văn hóa mà trẻ em được hưởng để bảo đảm một cuộc sống phát triển lành mạnh, an toàn. Trong phạm vi luật quốc tế, thuật ngữ “quyền trẻ em” được đề cập tới lần đầu tiên trong Tuyên ngôn Geneva về Quyền Trẻ em năm 1924, tuy nhiên tới năm 1989 khi Công ước Liên Hợp Quốc về Quyền Trẻ em (“UNCRC”) được thông qua, pháp luật quốc tế mới có một văn kiện quy định chi tiết và toàn diện về quyền này, mang tính ràng buộc và tạo ra khung pháp lý nhằm đảm bảo cho trẻ em không chỉ được hưởng các quyền lợi hợp pháp mà còn trở thành chủ thể của các quyền đó.[28] Theo UNCRC, quyền trẻ em gồm bốn nhóm quyền chính là quyền được sống, quyền được bảo vệ, quyền được phát triển và quyền được tham gia.[29] Xét thấy hành vi sử dụng công nghệ Deepfake để tạo dựng CSAM tác động chủ yếu vào nhóm quyền được bảo vệ của trẻ em, cụ thể là quyền được bảo vệ khỏi các hình thức lạm dụng tình dục trực tuyến, bài nghiên cứu sẽ tập trung phân tích các vấn đề xung quanh việc thực thi quyền này dựa trên các văn bản luật liên quan.


Mặc dù không trực tiếp đề cập tới phương thức phạm tội sử dụng công nghệ Deepfake, nhưng một số văn kiện pháp lý có thể được áp dụng để thực hiện quyền được bảo vệ của trẻ em trước hành vi lạm dụng tình dục trực tuyến bằng công cụ này. Ở phạm vi quốc tế, UNCRC là hiệp ước quốc tế toàn diện đầu tiên thiết lập khuôn khổ pháp lý để bảo vệ trẻ em khỏi mọi hình thức lạm dụng và bóc lột tình dục. Điều 9 của Công ước quy định trẻ em có quyền được bảo vệ khỏi mọi hình thức bạo lực, bóc lột, lạm dụng và bỏ bê, bao gồm cả lạm dụng tình dục; trong khi Điều 34 quy định cụ thể hơn về việc bảo vệ trẻ em khỏi mọi hình thức bóc lột và lạm dụng tình dục, bao gồm việc sử dụng trẻ em cho mục đích bóc lột trong các buổi biểu diễn và tài liệu khiêu dâm. Các Nghị định thư tùy chọn của UNCRC, đặc biệt là Nghị định thư về Buôn bán trẻ em, mại dâm trẻ em và khiêu dâm trẻ em (2000), cung cấp thêm hướng dẫn quan trọng để hiện thực hóa các quyền của trẻ em liên quan đến bóc lột và lạm dụng tình dục trực tuyến. Ở phạm vi khu vực và quốc gia, Liên Minh Châu Âu (“EU”) tiên phong trong việc ban hành những chính sách bảo đảm an toàn cho trẻ em trên không gian mạng, ví dụ như điều khoản về sự đồng thuận của trẻ em đối với các dịch vụ trực tuyến[30] trong Quy định Bảo vệ Dữ liệu Chung năm 2016. Ngoài ra, một số văn bản pháp luật quốc gia cũng có thể được xem xét là cơ sở pháp lý cho quyền được bảo vệ khỏi các hình thức lạm dụng tình dục trực tuyến của trẻ em ở quốc gia đó, có thể kể đến Đạo luật PROTECT năm 2003 của Hoa Kỳ với những điều khoản quy định hướng giải quyết cho CSAM, bao gồm cả nội dung được tạo ra bằng cách mô phỏng hoặc sử dụng công nghệ máy tính.[31]


2.1.2. Hạn chế trong việc áp dụng và ban hành luật để bảo vệ trẻ em khỏi các hình thức lạm dụng tình dục sử dụng Deepfake

Mặc dù đã có những văn kiện làm cơ sở pháp lý cho quyền được bảo vệ của trẻ em khỏi các hình thức lạm dụng tình dục trực tuyến, nhưng vẫn tồn tại một số bất cập trong việc ban hành và áp dụng những văn bản pháp luật có quy định về quyền này. Đầu tiên là việc những đạo luật hay chiến lược về AI nói chung ở các quốc gia hầu hết đều hạn chế hoặc không đề cập cụ thể tới quy định về quyền được bảo vệ khỏi các hình thức lạm dụng tình dục trực tuyến của trẻ em nói chung và công nghệ Deepfake nói riêng. Theo một báo cáo của UNICEF, 20 chiến lược quốc gia về AI được tổ chức này nghiên cứu đa phần tập trung vào các lĩnh vực như giáo dục, y tế hoặc quyền riêng tư,[32] nhưng thiếu chú trọng vào những quyền cơ bản như quyền được bảo vệ của trẻ em khỏi sự phân biệt đối xử, lạm dụng và khai thác. Lấy ví dụ về Đạo luật Trí tuệ nhân tạo của EU, mặc dù đạo luật này đã công nhận trẻ em là nhóm dễ bị tổn thương và cần nhận được sự bảo vệ đặc biệt,[33] nhưng việc thiếu quy định liên quan tới tác động của công nghệ Deepfake tới trẻ em có thể gián tiếp giúp tội phạm mạng tiếp tục thực hiện hành vi tạo dựng CSAM và xâm phạm quyền được bảo vệ của trẻ em mà không bị truy tố trách nhiệm.


Tuy nhiên, để ban hành một khung pháp lý toàn diện quy định về công nghệ Deepfake, các nhà lập pháp trước hết cần cân nhắc tới những quy định về CSAM. Điều này dẫn tới vấn đề thứ hai, đó là sự thiếu toàn diện của các quy định pháp luật về nội dung lạm dụng tình dục trẻ em được tạo lập hoàn toàn bởi AI tại một số quốc gia. Trên thực tế, CSAM có thể chia thành hai loại chính, tạm gọi là CSAM thật (sử dụng hình ảnh thật của trẻ em có hành động khiêu dâm) và CSAM ảo (không cần thiết phải sử dụng hình ảnh thật mà có thể là những hình ảnh giả lập hoàn toàn mới).[34] Vấn đề pháp lý được đặt ra với CSAM ảo rằng liệu hành vi tạo dựng loại nội dung này có vi phạm quyền lợi của trẻ em không khi những tài liệu này không có sự xuất hiện của trẻ em thật sự. Việc những quy định pháp luật hiện hành tại các quốc gia về AI nói chung, mặc dù có đề cập tới CSAM, nhưng thiếu sự liên hệ với CSAM ảo và hệ quả của nội dung ảo tới trẻ em khiến việc giải quyết vấn đề này còn nhiều khó khăn. Phân tích trường hợp của EU, các văn bản pháp lý quan trọng trong khu vực bao gồm Công ước về Tội phạm Mạng, Công ước Lanzarote, và Chỉ thị EU 2011/93/EU đều định nghĩa CSAM là hình ảnh hoặc tài liệu mô tả hành vi lạm dụng tình dục đối với trẻ em, chủ yếu được hiểu là hình ảnh hoặc video thật được ghi lại từ các hành vi lạm dụng tình dục trẻ em.[35] Điều này có thể tạo ra lỗ hổng trong việc xử lý CSAM ảo do Deepfake tạo ra bởi các tài liệu này không liên quan đến việc lạm dụng thực tế trẻ em mà chỉ là sự mô phỏng hoặc giả lập. Vì vậy, mặc dù các văn bản pháp lý của EU đã đưa ra cơ sở để xử lý CSAM thực tế và CSAM do công nghệ tạo ra, nhưng định nghĩa chỉ tập trung vào trẻ em thật có thể cản trở quy trình xử lý hành vi liên quan đến CSAM ảo. Đối với UNCRC là văn kiện pháp lý quốc tế toàn diện nhất về quyền trẻ em hiện nay, nội dung khiêu dâm trẻ em trong Công ước này được xác định là “các buổi trình diễn và tài liệu khiêu dâm” (pornographic performances and materials)[36] - một khái niệm bao quát và có thể gián tiếp gây ra khó khăn trong việc xác minh hành vi xâm hại nếu tội phạm tạo dựng CSAM ảo.


Trong một số trường hợp, hành vi tạo dựng CSAM ảo còn liên quan tới quyền tự do ngôn luận, gây ra sự mâu thuẫn trực tiếp giữa quyền được bảo vệ của trẻ em và các quyền con người khác. Vấn đề này đã được đề cập trong vụ kiện liên quan tới các điều khoản cấm nội dung “khiêu dâm trẻ em ảo” được tạo ra bằng cách sử dụng các phương pháp giả lập trên máy tính trong Đạo luật Phòng chống Khiêu dâm Trẻ em của Hoa Kỳ (“CPPA”) năm 1966.[37] Tòa án Tối cao Hoa Kỳ nhận định các điều khoản này quá rộng, dẫn đến việc hình sự hóa các nội dung hợp pháp bao gồm các tác phẩm nghệ thuật, phim ảnh hoặc văn học, từ đó kết luận rằng các điều khoản này vi phạm quyền tự do ngôn luận được bảo vệ bởi Tu chính án thứ nhất của Hiến pháp Hoa Kỳ.[38] Tòa cũng nhấn mạnh rằng nội dung giả lập hoặc hoạt hình không làm tổn hại trực tiếp đến bất kỳ đứa trẻ nào, do đó không cần phải bị cấm theo cách thức tương tự như CSAM sử dụng hình ảnh trẻ em thật, vì vậy các điều khoản này cần bị vô hiệu trừ khi nó liên quan đến người thật hoặc có mục đích khai thác bất hợp pháp.[39] Sau khi các điều khoản cấm trong CPPA bị loại bỏ, Đạo luật PROTECT và các quy định pháp lý khác đã phần nào thay thế và tạo cơ sở để xử lý một số trường hợp nội dung giả lập được tạo bằng công nghệ mới, nhưng không triệt để giải quyết các thách thức về CSAM ảo.[40] Điều này khiến quyền được bảo vệ của trẻ em không những không được thực thi mà còn gây bất lợi cho những quyền con người khác, ví dụ như quyền tự do ngôn luận.


2.2. Hạn chế về chế tài truy cứu trách nhiệm pháp lý đối với tội phạm Deepfake CSAM

2.2.1. Thách thức trong việc xác định thủ phạm

Những thách thức trong việc xác định đối tượng chịu trách nhiệm pháp lý cho các hành vi sử dụng Deepfake tạo lập CSAM đang trở nên phức tạp do các luật hiện hành đối với công nghệ Deepfake không rõ ràng, một số tập trung vào việc buộc cá nhân tạo ra và đăng tải Deepfake CSAM chịu trách nhiệm, một số khác khởi kiện các nền tảng Internet nơi đăng tải nội dung này. Việc tìm hoặc xác định thủ phạm Deepfake CSAM là thách thức lớn với hai lý do: (1) nhiều trang web như Reddit, Twitter và Pornhub cho phép người dùng sử dụng chế độ ẩn danh - một trong những nguyên nhân lý giải cho việc Deepfake đã phát triển mạnh trên các nền tảng này; và (2) những người tạo Deepfake có thể sử dụng phần mềm như Tor[41] để làm cho địa chỉ giao thức Internet (Internet Protocol - IP) liên quan đến các thủ phạm đăng tải loại nội dung này không thể bị truy tìm.[42]


Trong trường hợp gặp khó khăn với việc tìm kiếm thủ phạm, nạn nhân có thể cân nhắc việc khởi kiện đối với nền tảng Internet nơi video được đăng tải. Tuy nhiên, việc loại bỏ các video sau khi chúng được đăng tải lên Internet gặp nhiều khó khăn: (1) các nhà lập pháp không thể kiểm soát được những trang web mà thủ phạm dùng để đăng tải các nội dung Deepfake CSAM; (2) việc loại bỏ chúng một cách nhanh chóng rất khó khăn, và thiệt hại về danh tiếng và cảm xúc có thể xảy ra đối với nạn nhân, đặc biệt với đối tượng dễ bị tổn thương như trẻ em. Bên cạnh đó, nạn nhân có thể đối mặt với một số quy định liên quan đến cơ chế bảo vệ các trang web khỏi trách nhiệm dân sự và hình sự đối với nội dung của bên thứ ba. Cách khắc phục này có thể lấy dẫn chứng liên quan đến Mục 230 của đạo luật về Chuẩn mực Truyền thông. Theo Mục 230: “Không nhà cung cấp hoặc người dùng dịch vụ máy tính tương tác nào bị coi là nhà xuất bản hoặc người phát ngôn của bất kỳ thông tin nào do một nhà cung cấp nội dung thông tin khác cung cấp.”[43] Về lý thuyết, Quốc hội Hoa Kỳ ban hành đạo luật này để phát triển ngành công nghiệp mới, đồng thời khuyến khích các nền tảng trực tuyến xóa bỏ nội dung có hại cho trẻ em. Tuy nhiên, sự thay đổi về công nghệ và cách giải thích mở rộng mà tòa án đưa ra cho Mục 230 đã khiến các nền tảng này được miễn trừ với việc kiểm duyệt nội dung Deepfake CSAM trên dịch vụ của họ.[44]


2.2.2. Hạn chế của pháp luật hiện hành trong việc truy cứu trách nhiệm pháp lý

Thứ nhất, các đạo luật hiện tại các quốc gia phần lớn dừng lại ở việc truy cứu trách nhiệm hình sự với người chia sẻ chứ không phải người tạo ra những nội dung bất hợp pháp. Ví dụ, năm 2020, Hàn Quốc đã thông qua một dự luật hình sự hóa tội mua bán, lưu trữ hoặc xem hình ảnh, video Deepfake khiêu dâm với mức án cao nhất là 03 năm tù và nộp phạt 30 triệu won.[45] Dự luật Tư pháp Hình sự của Anh, bao gồm đề xuất tạo ra tội danh mới liên quan đến việc tạo dựng hình ảnh Deepfake có nội dung khiêu dâm sẽ không tiếp tục được thông qua trong quá trình lập pháp. Tội danh hiện có về việc chia sẻ các hình ảnh Deepfake như vậy đã được đưa vào Đạo luật An toàn Trực tuyến 2023[46] và vẫn tiếp tục được áp dụng.[47]


Thứ hai, chưa có một văn bản pháp luật quốc tế chống lại Deepfake CSAM. Bản chất của Deepfake CSAM, giống như các tội phạm trên Internet khác, là một hành vi vượt ra ngoài giới hạn pháp lý của bất kỳ khu vực cụ thể nào.[48] Người tạo nội dung bằng Deepfake có thể sống ở một nơi, trong khi nạn nhân sống ở nơi khác, và nội dung Deepfake vẫn có thể được phát tán rộng rãi trên toàn cầu thông qua Internet.


Thứ ba, các cơ quan pháp lý có thể truy tố trách nhiệm tới các tội danh liên quan khác, ví dụ như giả mạo danh tính. Tuy nhiên, mỗi nạn nhân của Deepfake đều đối mặt với các trở ngại như khó khăn trong việc phân biệt những chi tiết cơ thể thuộc về họ với những chi tiết cơ thể tạo bởi CSAM ảo. Ngoài ra, việc trẻ em là nạn nhân có thể dẫn đến trường hợp nạn nhân không muốn thông tin cá nhân của mình bị tiết lộ rộng rãi, những yếu tố này có thể gây khó khăn cho các nhà lập pháp trong việc ban hành và áp dụng pháp luật. Bên cạnh đó, các hình thức tội phạm mạng bao gồm hành vi truy cập trái phép chỉ áp dụng trong những trường hợp khi hình ảnh được sử dụng trong việc tạo ra Deepfake CSAM được lấy từ việc truy cập trái phép vào máy tính hoặc hộp thư trực tuyến của nạn nhân. Những tội danh trên có thể là lựa chọn để truy tố Deepfake CSAM, nhưng hiện vẫn chưa phải là giải pháp lý tưởng vì chúng không tập trung vào tác hại thực sự của việc tạo nội dung Deepfake CSAM và cũng không có phạm vi áp dụng rộng.


Ngay cả khi các cơ quan có thể chứng minh mức độ tổn hại, xác định danh tính nạn nhân và tìm ra thủ phạm tạo Deepfake CSAM, việc thi hành biện pháp khắc phục có thể gặp nhiều thách thức. Các nạn nhân và học giả luật đã nhanh chóng chỉ ra rằng luật hình sự hiện tại là không đủ để trừng phạt hay khắc phục những tổn hại mà nạn nhân phải chịu.[49] Việc chịu trách nhiệm dân sự của tội phạm cũng có thể bị hạn chế trong trường hợp những người này không đủ khả năng tài chính để bồi thường hoặc chịu án, do đó không đủ mức răn đe đối với hành vi trái pháp luật của họ. Thứ hai, những vụ điều tra và kiện tụng thường yêu cầu mức chi phí cao, phần nào hạn chế số người sử dụng biện pháp khởi kiện và yêu cầu bồi thường nếu không đủ nguồn lực tài chính.[50]


3. Đề xuất giải pháp cho hệ thống pháp luật liên quan đến Deepfake CSAM

3.1. Đề xuất sửa đổi, bổ sung khung pháp lý Việt Nam và luật quốc tế

Trước hết, các nhà lập pháp và cơ quan liên quan cần sửa đổi pháp luật để định nghĩa rõ ràng hơn về nội dung Deepfake CSAM và hình sự hóa hành vi liên quan một cách cụ thể với mức hình phạt tương xứng với tội danh. Mặc dù Bộ luật Hình sự có quy định hình sự hóa tội danh liên quan đến nội dung khiêu dâm nói chung,[51] nhưng vẫn chưa có định nghĩa về văn hóa phẩm có nội dung Deepfake CSAM. Bên cạnh đó, không có quy định bảo vệ đặc biệt nào đối với trẻ em và hình phạt chưa tương xứng với tội danh liên quan đến văn hóa phẩm có nội dung này.


Bên cạnh đó, việc thông qua một văn bản pháp luật quốc tế có quy định cụ thể về Deepfake CSAM sẽ là biện pháp ngăn chặn mạnh mẽ hơn đối với việc tạo và chia sẻ nội dung này. Những nỗ lực chậm chạp và không đồng đều trong việc ban hành luật cấm Deepfake ở cấp độ quốc gia hay khu vực trong thập kỷ qua cho thấy nhiều khó khăn trong bối cảnh công nghệ ngày càng tinh vi và dễ tiếp cận hơn. Hình sự hóa Deepfake CSAM ở cấp quốc tế cho thấy đây là vấn đề mang tính quan tâm quốc gia và báo hiệu mức độ thiệt hại đối với nạn nhân, góp phần khuyến khích các nhà cung cấp dịch vụ Internet trong việc loại bỏ nội dung khiêu dâm trẻ em. 


3.2. Các giải pháp ngoài luật

Ngoài việc ban hành các đạo luật, các cơ quan liên quan cần phát triển các giải pháp hỗ trợ để chống lại Deepfake CSAM. Theo Báo cáo của Dự án Ngăn chặn hành vi gây tổn hại Việt Nam, việc chưa có thống kê cụ thể về số lượng các tội liên quan đến xâm hại tình dục trẻ em qua mạng có thể ảnh hưởng đến đánh giá tổng quan để xây dựng các chính sách bảo vệ trẻ em hiệu quả.[52] Từ hướng dẫn của Liên Hợp Quốc về quyền trẻ em liên quan đến môi trường kỹ thuật số,[53] Việt Nam cần thiết lập và hoàn thiện chương trình cơ sở dữ liệu về Deepfake CSAM để các cơ quan chức năng tham gia cập nhật thông tin nhằm ngăn ngừa việc đăng tải, chia sẻ các nội dung này.


Vấn đề quan trọng không kém đó là nâng cao kiến thức về Deepfake CSAM một cách đầy đủ cho tất cả các đối tượng, đặc biệt là trẻ em. Đây cũng là lời kêu gọi của Liên hợp quốc tới các quốc gia trong việc trang bị kiến thức kỹ thuật số và nhận thức về các rủi ro, nhằm hỗ trợ trẻ em thực hiện các quyền của mình, bao gồm quyền được bảo vệ, liên quan đến môi trường kỹ thuật số.[54]


Kết luận

Tóm lại, từ việc nghiên cứu những quy định về quyền được bảo vệ của trẻ em và truy cứu trách nhiệm pháp lý đối với hành vi sử dụng Deepfake tạo dựng CSAM, nhóm tác giả nhận thấy việc xây dựng và thực thi những điều khoản này còn tồn tại một số hạn chế. Điều này nhấn mạnh tầm quan trọng của việc cập nhật và hoàn thiện khung pháp lý hiện hành trong phạm vi quốc tế và quốc gia, đồng thời đề xuất hướng đi phù hợp cho Việt Nam trong việc cải thiện các chế tài pháp lý hiện có nhằm đảm bảo một khung pháp luật toàn diện cho trẻ em.


DANH MỤC TÀI LIỆU THAM KHẢO

[1] Vũ Phạm Phương Nhi - Sinh viên Khoa Luật Quốc tế - Học viện Ngoại giao; Phạm Thị Quỳnh Anh - Sinh viên Khoa Luật Quốc tế - Học viện Ngoại giao; Lưu Ngọc Minh Châu - Sinh viên Khoa Luật Quốc tế - Học viện Ngoại giao.

[2] National Centre for Missing & Exploited Children (NCMEC), ‘CyberTipline 2023 Report’ <https://www.missingkids.org/content/dam/missingkids/pdfs/2023-CyberTipline-Report.pdf> truy cập ngày 10/11/2024.

[3] Farid Harry, ‘A survey of image forgery detection’ (2009) 26(2) IEEE Signal Process Mag.

[4] NYIT, ‘Deepfakes: How Do They Work and What Are the Risks?’ The Cyber Corner (06/12/2023) <https://blogs.nyit.edu/the_cyber_corner/deepfakes_how_do_they_work_and_what_are_the_risks> truy cập ngày 13/11/2024.

[5] Trịnh Thị Thu Vân, ‘Thách thức của Deepfake và vấn đề thực thi pháp luật’ Tạp chí An toàn thông tin, <https://antoanthongtin.vn/chinh-sach---chien-luoc/thach-thuc-cua-deepfake-va-van-de-thuc-thi-phap-luat-108352> truy cập ngày 13/11/2024.

[6] Trịnh Thị Thu Vân, ‘Thách thức của Deepfake và vấn đề thực thi pháp luật’ Tạp chí An toàn thông tin, <https://antoanthongtin.vn/chinh-sach---chien-luoc/thach-thuc-cua-deepfake-va-van-de-thuc-thi-phap-luat-108352> truy cập ngày 13/11/2024.

[7] Như trên.

[8] Như trên.

[9] Như trên.

[10] ‘Deepfakes: How Do They Work and What Are the Risks?’ (2023) New York Tech Blogs <https://blogs.nyit.edu/the_cyber_corner/deepfakes_how_do_they_work_and_what_are_the_risks> truy cập ngày 16/11/2024.

[11] Bộ luật Hoa Kỳ, Tiêu đề 18, § 2256.

[12] National Center for Missing and Exploited Children, 'Child Sexual Abuse Material (CSAM)' (2024) <https://www.missingkids.org/theissues/csam#overview> truy cập ngày 17/11/2024.

[13] Thorn, ‘Child sexual abuse material (CSAM)’ (2024) <https://www.thorn.org/research/child-sexual-abuse-material-csam/> truy cập ngày 17/11/2024.

[14] Như trên.

[15] Mô hình tạo sinh là loại mô hình có khả năng tạo ra dữ liệu mới, chẳng hạn như hình ảnh hoặc âm thanh, bằng cách bắt chước dữ liệu mà chúng đã được nhận.

[16] David Thiel, Melissa Stroebel và Rebecca Portnoff, ‘Generative ML and CSAM: Implications and Mitigations’ (2023), trang 2.

[17] Như trên.

[18] IWF (Internet Watch Foundation) là tổ chức phi lợi nhuận tại Anh, chuyên phát hiện và xử lý nội dung bất hợp pháp trên không gian mạng, đặc biệt là CSAM; hợp tác với chính phủ, nhà cung cấp dịch vụ Internet và công ty công nghệ để gỡ bỏ nội dung độc hại, tạo môi trường mạng an toàn hơn, đặc biệt cho trẻ em.

[19] Internet Watch Foundation (IWF), AI and CSAM Report Update: Public, July 2024 (IWF, 2024) <https://www.iwf.org.uk/media/nadlcb1z/iwf-ai-csam-report_update-public-jul24v13.pdf> truy cập ngày 17/11/2024.

[20] Internet Watch Foundation (IWF), AI and CSAM Report Update: Public, July 2024 (IWF, 2024) <https://www.iwf.org.uk/media/nadlcb1z/iwf-ai-csam-report_update-public-jul24v13.pdf> truy cập ngày 17/11/2024.

[21] Đạo luật Bảo vệ Trẻ em 1978, Điều 1.

[22] Đạo luật Điều tra Nguyên nhân Tử vong và Tư pháp 2009, Điều 62.

[23] Bộ luật Hoa Kỳ 2018, Tiêu đề 18.

[24] Bộ luật Hoa Kỳ 2018, Tiêu đề 18, §§ 2251, 2252, 2252A.

[25] Bộ luật Hoa Kỳ 2018, Tiêu đề 18, §§ 2251.

[26] Bộ luật Hoa Kỳ 2018, Tiêu đề 18, §§ 2252.

[27] Dương Đăng Huệ, ‘Bộ luật Dân sự năm 2015 và vấn đề bảo đảm quyền dân sự của doanh nghiệp’ <https://htpldn.moj.gov.vn/SMPT_Publishing_UC/TinTuc/PrintTL.aspx?idb=2&ItemID=1839&l=/noidung/tintuc/Lists/Nghiencuutraodoi>.

[28] ‘History of child rights’ (UNICEF) <https://www.unicef.org/child-rights-convention/history-child-rights> truy cập ngày 12/11/2024.

[29] ‘What is the Convention on the Rights of the Child?’ (UNICEF) <https://www.unicef.org/thailand/what-is-crc> truy cập ngày 12/11/2024.

[30] Quy định Bảo vệ Dữ liệu Chung, Điều 8.

[31] Jennifer Lynn Williston, ‘Congress, Ashcroft continue on their quests to craft First Amendment-friendly laws limiting online porn’ (Reporters Committee for Freedom of the Press) <https://www.rcfp.org/journals/the-news-media-and-the-law-summer-2002/congress-ashcroft-continue> truy cập ngày 14/11/2024.

[32] UNICEF’s Office of Global Insight and Policy, ‘Policy guidance on AI for children’ (2021) 11 <https://www.unicef.org/innocenti/reports/policy-guidance-ai-children> truy cập ngày 14/11/2024.

[33] Đạo luật Trí tuệ nhân tạo của Liên minh Châu Âu, Điều 5(1)(b).

[34] Judit Szabó và Katalin Parti, ‘The Legal Challenges of Realistic and AI-Driven Child Sexual Abuse Material: Regulatory and Enforcement Perspectives in Europe’ (2024) 13(6) MDPI 1 <https://www.mdpi.com/2075-471X/13/6/67> truy cập ngày 16/11/2024.

[35] Judit Szabó và Katalin Parti, ‘The Legal Challenges of Realistic and AI-Driven Child Sexual Abuse Material: Regulatory and Enforcement Perspectives in Europe’ (2024) 13(6) MDPI 13 <https://www.mdpi.com/2075-471X/13/6/67> truy cập ngày 16/11/2024.

[36] Công ước Liên Hợp Quốc về Quyền Trẻ em, Điều 34(c).

[37] Harshita K. Ganesh, ‘Protecting Children Through Deepfake Child Pornography: A Moral, Legal, and Philosophical Discussion on the Intersection of the Evolution in Law and Technology’ (2022) 60 Georgetown Law 3 <https://www.law.georgetown.edu/american-criminal-law-review/aclr-online/volume-60/protecting-children-through-deepfake-child-pornography> truy cập ngày 16/11/2024.

[38] Ashcroft v. Free Speech Coalition, 535 U.S. 234 (2002), p.248.

[39] Ashcroft v. Free Speech Coalition, 535 U.S. 234 (2002), p.236.

[40] Eryn Yuen, ‘Child Pornography and Revenge Pornography Laws Stand No Chance Against Deepfakes’ (2021) 3 Johns Hopkins Undergraduate Law Review 128 <https://issuu.com/jhulawreview/docs/spring_21_journal/121> truy cập ngày 16/11/2024.

[41] Tor là phần mềm máy tính có chức năng xóa dấu vết, ẩn địa chỉ giao thức Internet xuất xứ của máy truy cập Internet khi gửi hay nhận thông tin qua mạng Internet.

[42] Rebecca A. Delfino, ‘Pornographic Deepfakes: The Case for Federal Criminalization of Revenge Porn’, (2019) <https://ir.lawnet.fordham.edu/cgi/viewcontent.cgi?article=5640&context=flr> truy cập ngày 14/11/2024.

[43] Đạo luật về Chuẩn mực Truyền thông, Mục 230.

[44] U.S. Department of Justice, ‘Department of Justice's review of Section 230 of the Communications Decency Act of 1996’ ( 2020) <https://www.justice.gov/archives/ag/department-justice-s-review-section-230-communications-decency-act-1996>.

[45] Vũ Hoàng, ‘Người xem deepfake khiêu dâm ở Hàn Quốc có thể bị phạt 3 năm tù’, 2024, https://vnexpress.net/nguoi-xem-deepfake-khieu-dam-o-han-quoc-co-the-bi-phat-3-nam-tu-4797445.html truy cập ngày 15/11/2024.

[46] Đạo luật An toàn Trực tuyến 2023, Mục 188.

[47] Herbert Smith Freehills, ‘Criminalising deepfakes – the UK's new offences following the Online Safety Act’, https://www.herbertsmithfreehills.com/notes/tmt/2024-05/criminalising-deepfakes-the-uks-new-offences-following-the-online-safety-act truy cập ngày 15/11/2024.

[48] Rebecca A. Delfino, ‘Pornographic Deepfakes: The Case for Federal Criminalization of Revenge Porn’, (2019) <https://ir.lawnet.fordham.edu/cgi/viewcontent.cgi?article=5640&context=flr> truy cập ngày 14/11/2024.

[49] Rebecca A. Delfino, ‘Pornographic Deepfakes: The Case for Federal Criminalization of Revenge Porn’, (2019) <https://ir.lawnet.fordham.edu/cgi/viewcontent.cgi?article=5640&context=flr> truy cập ngày 14/11/2024.

[50] Rebecca A. Delfino, ‘Pornographic Deepfakes: The Case for Federal Criminalization of Revenge Porn’, (2019) <https://ir.lawnet.fordham.edu/cgi/viewcontent.cgi?article=5640&context=flr> truy cập ngày 14/11/2024.

[51] Bộ luật Hình sự Việt Nam, Điều 326.

[52] ECPAT, INTERPOL và UNICEF, ‘Báo cáo tổng quan nghiên cứu Ngăn chặn hành vi gây tổn hại tại Việt Nam: Bằng chứng về bóc lột và xâm hại tình dục trẻ em qua mạng’ (2022) <https://ecpat.org/wp-content/uploads/2022/08/DH_Viet-Nam_Viet_ONLINE.pdf> truy cập ngày 17/11/2024.

[53] Bình luận chung số 25 về quyền trẻ em liên quan đến môi trường kỹ thuật số, Đoạn 30: “Dữ liệu và nghiên cứu được cập nhật thường xuyên đóng vai trò quan trọng trong việc hiểu rõ những tác động của môi trường kỹ thuật số đối với cuộc sống của trẻ em, đánh giá ảnh hưởng đến các quyền của trẻ em và xem xét hiệu quả của các can thiệp từ phía nhà nước. Các quốc gia thành viên cần đảm bảo thu thập dữ liệu toàn diện, đáng tin cậy, được cung cấp đủ nguồn lực và dữ liệu được phân tách theo độ tuổi, giới tính, khuyết tật, vị trí địa lý, nguồn gốc dân tộc và quốc gia, cũng như hoàn cảnh kinh tế xã hội”.

[54] Bình luận chung số 25 về quyền trẻ em liên quan đến môi trường kỹ thuật số, Đoạn 21: “Các quốc gia nên hỗ trợ cha mẹ và người chăm sóc trong việc trang bị kiến thức kỹ thuật số và nhận thức về các rủi ro đối với trẻ em, nhằm giúp họ hỗ trợ trẻ em thực hiện các quyền của mình, bao gồm quyền được bảo vệ, liên quan đến môi trường kỹ thuật số”.


 
 
 

Bình luận


bottom of page