top of page
icj 1.jpeg

[70] TỔNG QUAN VỀ CÔNG NGHỆ DEEPFAKE TRONG MÔI TRƯỜNG SỐ: KINH NGHIỆM QUỐC TẾ VÀ ĐỀ XUẤT CHO VIỆT NAM

  • Nguyễn Thị Phương Anh, Phạm Thị Ngân, Hoàng Khánh Ly
  • 18 thg 8
  • 59 phút đọc

Bài viết này được đăng tại Kỷ yếu Hội thảo Khoa học cho Sinh viên về Luật quốc tế lần thứ ba với chủ đề "Trí tuệ Nhân tạo (AI) và những vấn đề pháp lý" của Khoa Luật Quốc tế - Học viện Ngoại giao năm 2024.


Tác giả: Nguyễn Thị Phương Anh, Phạm Thị Ngân, Hoàng Khánh Ly[1]


Tóm tắt: Trong những năm gần đây, với sự phát triển mang tính đột phá của công nghệ trí tuệ nhân tạo (Artificial Intelligence - AI), công nghệ Deepfake đã ra đời, mang lại những ảnh hưởng nhất định trong nhiều lĩnh vực khác nhau của đời sống, tiêu biểu là trong môi trường số. Hình ảnh nam diễn viên Paul Walker được “tái tạo” lại trong bộ phim “Fast & Furious 7” hay kỹ thuật trẻ hoá các diễn viên trong một số bộ phim của Marvel là minh chứng cho thành tựu mà công nghệ này đem lại. Tuy nhiên, bên cạnh lợi ích, thành tựu là những rủi ro, thách thức do Deepfake gây ra. Kể từ khi Deepfake ra đời đã xuất hiện nhiều trường hợp lừa đảo sử dụng công nghệ này để trục lợi trên môi trường số gây ra sự hoang mang cho dư luận, tiến đến chia rẽ nội bộ chính trị, hủy hoại niềm tin công chúng. Nhận thấy vấn đề này là nghiêm trọng và cấp thiết, nhóm tác giả bằng phương pháp so sánh các Đạo luật, Dự luật của các quốc gia trên thế giới, phân loại và hệ thống những mặt thiếu sót trong khung pháp lý tại Việt Nam để từ đó đưa ra khuyến nghị và bài học xây dựng một môi trường số lành mạnh.

 

Từ khoá: Deepfake, giả mạo, môi trường số, kinh nghiệm quốc tế

 

Mở đầu

Trong thế kỷ 21, Deepfake đã ra đời và nổi lên như một thách thức đáng lo ngại với các quốc gia trên toàn thế giới, công nghệ này thường bị lạm dụng với mục đích lừa đảo, chiếm đoạt tài sản, giả mạo danh tính,...Điều này không chỉ gây ảnh hưởng đến quyền riêng tư và danh dự cá nhân mà còn đe dọa tới an ninh quốc gia, hoang mang dư luận và làm xói mòn đến niềm tin xã hội.[2] Trong bối cảnh đó, việc xem xét các vấn đề pháp lý liên quan đến Deepfake để kịp thời đưa ra một số khắc phục, phòng tránh là quan trọng và cấp thiết. Trên phạm vi quốc tế, nhiều quốc gia trên thế giới đã kịp thời đưa ra các chính sách, biện pháp đối phó nhằm nhận diện, kiểm soát và ngăn chặn hậu quả mà Deepfake mang lại. Tại Việt Nam hiện nay, dù chưa bị ảnh hưởng nặng nề bởi Deepfake nhưng trong thời kỳ hội nhập toàn cầu, các thông tin giả mạo do Deepfake gây ra có thể tác động sâu rộng đến nhiều mặt của xã hội.[3] Do đó, việc xây dựng một khung pháp lý cho những công nghệ mới được áp dụng trong đời sống nói chung, và quy định về sử dụng Deepfake nói riêng là cần thiết. Nhận thấy tính cấp thiết của đề tài, trong 3 phần của bài viết, nhóm tác giả sẽ đưa ra cái nhìn tổng quan về Deepfake, phân tích các đạo luật, dự luật về Deepfake của EU và Hoa Kỳ, đưa ra một số đề xuất trong việc quản lý công nghệ Deepfake tại Việt Nam và cuối cùng là kết luận.


1. Tổng quan về công nghệ Deepfake trong môi trường số

1.1. Định nghĩa về Deepfake trong môi trường số

1.1.1. Định nghĩa chung về Deepfake

Thuật ngữ Deepfake đã xuất hiện từ đầu những năm 2017, khi một nhà phát triển phần mềm có biệt danh là “Deepfakes” đã đăng tải các đoạn phim hoán đổi khuôn mặt của những người nổi tiếng Hollywood thành khuôn mặt của các diễn viên khiêu dâm lên nền tảng Reddit.[4] Sau đó, Deepfake trở thành một xu hướng mới và được lan truyền nhanh chóng trên các nền tảng mạng xã hội.


Deepfake là sự kết hợp của hai từ “deep learning” “fake content”. Trong đó, deep learning là một lĩnh vực trong AI, tập trung vào việc tạo ra một mạng lưới thần kinh nhân tạo, có khả năng phân tích và đưa ra các quyết định dựa trên dữ liệu đầu vào.[5] Còn fake content chỉ đơn giản mang nghĩa là làm giả nội dung. Như vậy, Deepfake là một công nghệ mới sử dụng trí tuệ nhân tạo để giả mạo chân dung, giọng nói của người này bằng chân dung, giọng nói của người khác.


1.1.2. Nguyên lý hoạt động hoạt động của công nghệ Deepfake

Như đã đề cập phía trên, Deepfake là công nghệ làm giả khuôn mặt và tạo ra nội dung hoàn toàn giả lập bằng cách bắt chước một sự vật, sự việc có thật, thông qua hai bước chính:


Bước thứ nhất, giai đoạn đào tạo.[6] Ban đầu, khi nhập vào hệ thống nguồn dữ liệu hình ảnh về một người A, ngay lập tức, công cụ này sẽ phân tích các đường nét, biểu cảm và chuyển động trên gương mặt. Tiếp theo, hệ thống tạo ra một bản sao mô phỏng[7] của A, sao chép chi tiết hơn các vùng của khuôn mặt trong mô hình thị giác máy tính.[8] Sau đó, bản mô phỏng này sẽ tạo ra hình ảnh động có chuyển động tương tự dữ liệu gốc, tuy nhiên ở thời điểm ban đầu, hình ảnh này có thể bị mờ, méo mó hoặc hành động cứng nhắc.[9]


Bước thứ hai, giai đoạn thử nghiệm.[10] Tại giai đoạn này, hệ thống sẽ áp lớp mô phỏng của A lên khuôn mặt B và so sánh với ảnh gốc của A để tính độ tương đồng. Trong trường hợp chưa đạt yêu cầu, hệ thống sẽ quay lại giai đoạn đào tạo để bổ sung đặc điểm nhận dạng của A. Quá trình này lặp lại cho đến khi đạt con số đã quy chuẩn. Khi đó, kết quả nhận được là hình ảnh của B với giao diện của người A.[11]


Quy trình trên cũng được áp dụng khi sử dụng Deepfake để giả mạo giọng nói của một người khác.


1.2. Thực trạng ứng dụng công nghệ Deepfake hiện nay

1.2.1. Những lợi ích khi ứng dụng công nghệ Deepfake

Theo thống kê của Deeptrace,[12] có tới 96% video sử dụng Deepfake có nội dung đồi truỵ, gây cho người dùng ấn tượng xấu. Tuy nhiên, Deepfake là một công cụ hữu hiệu với một số các ngành đặc thù, bao gồm:


a. Ngành công nghiệp tiếp thị

Deepfake được coi là “cứu tinh” của các đơn vị tiếp thị có ngân sách eo hẹp mà muốn tối ưu hoá thời gian, công sức. Thay vì thuê diễn viên, họ chỉ cần mua giấy phép hình ảnh và chỉnh sửa video với lời thoại phù hợp. Nhờ vào Deepfake, chuỗi siêu thị Omega đã tái hiện lại hình ảnh của huyền thoại ca sĩ nhạc đồng quê - Willie Nelson trong một video quảng cáo, tạo ra cảm xúc hoài niệm cho người xem.[13]


b. Ngành nghệ thuật

Tương tự ngành tiếp thị, công nghệ Deepfake giúp các ngành nghệ thuật (đặc biệt là phim ảnh) tiết kiệm chi phí và đảm bảo an toàn cho diễn viên thông qua việc hỗ trợ công tác hậu kỳ, giúp cắt ghép diễn viên vào các phân cảnh mạo hiểm hoặc viễn tưởng.[14]


Deepfake còn được coi là “điểm giao” giữa công nghệ và nghệ thuật khi đây là công cụ làm chuyển động hóa các tác phẩm nghệ thuật tĩnh. Năm 2019, các nhà nghiên cứu tại trung tâm AI Samsung tại Moscow đã chụp bức chân dung “Mona Lisa” của Leonardo da Vinci sau đó khiến nàng Mona Lisa nói và di chuyển như người thật, thông qua thuật toán Deepfake.[15] Bên cạnh các bức họa nổi tiếng, hình ảnh của các nghệ sĩ quá cố như Marilyn Monroe, Salvador Dali,... cũng được làm tái hiện lại bằng phương pháp tương tự.[16] 


1.2.2. Những thách thức trong quá trình sử dụng công nghệ Deepfake hiện nay

a. Vấn nạn phim khiêu dâm

Tính tới tháng 9/2019, tổng số video có sử dụng công nghệ Deepfake mang nội dung khiêu dâm được đăng tải trên các nền tảng trực tuyến là khoảng 14.091 (trên tổng số 14.678 video). Con số này đã tăng vọt lên hơn 85.000 vào tháng 12/2020.[17]


Ai cũng có thể trở thành nạn nhân của các video khiêu dâm do Deepfake tạo ra, đặc biệt là những người phụ nữ có sức ảnh hưởng, chủ yếu tới từ Anh, Mỹ và Hàn Quốc [18] (bao gồm các ca sĩ, diễn viên và nhóm nhạc nổi tiếng). Cơ sở pháp lý chưa được hoàn thiện khiến các nạn nhân cảm thấy suy sụp và phải “tự bơi” giữa các quy định chắp vá.[19] Ngoài ra, việc tìm kiếm bằng chứng, điều tra và khởi tố trên không gian mạng rất khó khăn và kéo dài, khiến nạn nhân khó đòi lại công bằng, danh dự và nhân phẩm cho bản thân.


b. Thao túng chính trị

Các chính trị gia và nhà cầm quyền cũng là những nạn nhân thường xuyên của công nghệ “shallowfake”, một nhánh của Deepfake. Công nghệ này được sử dụng với mục đích tạo ra giọng nói giả nhằm thêm các nội dung sai lệch vào trong các bài diễn văn và phát ngôn của họ.


Năm 2024 được gọi là năm "siêu bầu cử" khi có tới hơn 50 quốc gia và vùng lãnh thổ sẽ chứng kiến các cuộc bầu cử quyết định các vị trí quan trọng trong hệ thống quản lý Nhà nước như tại Mỹ, Ấn Độ, Nga,...[20] Đây là tiền đề cho sự phát triển công nghệ Deepfake với mục đích can dự vào tình hình chính trị. Điển hình là trong chiến dịch kêu gọi bầu cử Tổng thống Mỹ, một cuộc gọi tự động do AI tạo ra bắt chước giọng nói của Tổng thống Joe Biden đã được sử dụng để ngăn cản những người theo đảng Dân chủ ở New Hampshire bỏ phiếu trong cuộc bầu cử sơ bộ vào tháng 01/2024. Cố vấn chính trị cho phép cuộc gọi này diễn ra sẽ phải chịu phí phạt 6 triệu đô-la vì sai sót này.[21]


c. An ninh mạng bị đe dọa, tỉ lệ tội phạm mạng gia tăng

Các thống kê cho thấy công cụ AI nói chung và công nghệ Deepfake nói riêng đang trở nên thông minh hơn. Các vụ lừa đảo và gian lận liên quan đến Deepfake, do đó, đã tăng lên mức đáng báo động khi số liệu vào năm 2023 gấp 31 lần năm 2022.[22] Trong đó, 88% các kỹ thuật lừa đảo bằng AI hoặc Deepfake nhắm vào lĩnh vực tiền điện tử.[23]


Tại Việt Nam, ngày càng nhiều thủ đoạn lừa đảo sử dụng Deepfake ra đời, có thể kể tới như: (i) Giả giọng/hình ảnh của người thân để vay tiền nạn nhân qua cuộc gọi thoại/cuộc gọi video; (ii) Giả mạo giọng nhân viên ngân hàng để lấy thông tin cá nhân và mã OTP từ nạn nhân; (iii) Giả mạo người có quyền hạn, chức vụ trong các tổ chức, doanh nghiệp để yêu cầu nạn nhân chuyển tiền; (iv) Sử dụng Deepfake giả mạo hình ảnh nhằm chiếm đoạt các phúc lợi của người mất.[24] Nhìn chung, các mô hình lừa đảo này đều lợi dụng sự thiếu cẩn trọng và khó khăn trong khả năng phán đoán thật, giả của người dân khi liên lạc, giao dịch trên môi trường số.

 

2. Quy định của Liên minh châu Âu và Hoa Kỳ về công nghệ Deepfake

2.1. Các đạo luật của Liên minh châu Âu

2.1.1. Đạo luật Trí tuệ nhân tạo của Liên minh châu Âu

Đạo luật Trí tuệ nhân tạo của Liên minh châu Âu[25] là khung pháp lý toàn diện đầu tiên trên thế giới dành riêng cho AI.[26] Đạo luật ra đời nhằm cân bằng giữa việc thúc đẩy đổi mới tạo ra những bước đột phá về khoa học kỹ thuật và đảm bảo quyền, lợi ích hợp pháp của các chủ thể khác nhau trong xã hội. Về phạm vi điều chỉnh bao gồm các nhà cung cấp, triển khai, nhập khẩu, phân phối và sản xuất các sản phẩm, hệ thống AI có liên quan đến thị trường EU.[27]  Mặt khác, Đạo luật cũng đặt ra một số ngoại lệ nhất định như Đạo luật này không áp dụng cho những hệ thống AI có mã nguồn mở trừ khi những hệ thống này bị cấm hoặc được phân loại vào nhóm có rủi ro cao hoặc một số trường hợp khác.[28]


Đầu tiên, Đạo luật AI đưa ra định nghĩa về hệ thống AI “là hệ thống máy hoạt động tự chủ, có thể tự thích ứng sau khi được triển khai để đạt mục tiêu từ các dữ liệu đầu vào, suy luận ra phương thức và tạo các kết quả đầu ra như dự đoán, đề xuất, hoặc các quyết định có thể ảnh hưởng tới môi trường thực và ảo.”[29] Tiếp theo Đạo luật cũng đưa ra các định nghĩa về nhà cung cấp cũng như nhà phân phối, trong đó, nhà cung cấp là các cá nhân, pháp nhân, cơ quan hay tổ chức phát triển, đưa ra thị trường, hoặc sử dụng hệ thống/mô hình AI dưới tên hoặc nhãn hiệu riêng, dù thu phí hay miễn phí[30] và nhà phân phối là một cá nhân hoặc pháp nhân trong chuỗi cung ứng, ngoài nhà cung cấp hoặc nhà nhập khẩu, cung cấp hệ thống AI trên thị trường Liên minh.[31] Cuối cùng Đạo luật định nghĩa về Deepfake là nội dung hình ảnh, âm thanh hoặc video do AI tạo ra hoặc chỉnh sửa, giống với người, vật, hay sự kiện có thật có thể khiến người xem nhầm lẫn rằng đó là sự thật.[32]


Nhằm hạn chế những nguy hiểm do Deepfake gây ra, Đạo luật AI  đã thúc đẩy các nhà cung cấp, người sáng tạo nội dung xác minh tính minh bạch của các sản phẩm có chứa công nghệ này.


Theo Điều 50 (2), các nhà cung cấp các công cụ AI đa dụng[33] (bao gồm Deepfake) phải gắn nhãn các nội dung do AI tạo ra, việc gắn nhãn có thể thông qua các kỹ thuật như hình mờ, nhận dạng, mã hoá,...[34] Tuy nhiên, điều này không áp dụng khi được uỷ quyền cho các hoạt động thực thi pháp luật như phát hiện tội phạm hoặc truy tố.


Điều 50 (4) quy định rằng với những nhà sáng tạo sử dụng AI để tạo Deepfake thì cần phải tiết lộ điều này với công chúng, thông qua việc gắn nhãn và nêu rõ nguồn gốc AI.[35] Tuy nhiên có hai miễn trừ chính cho điều này là dùng Deepfake khi điều tra, truy tố tội phạm và khi nội dung do AI tạo ra đã trải qua quá trình kiểm duyệt và biên tập của con người. Ngoài ra, đạo luật cũng cho phép các tác phẩm Deepfake hư cấu, châm biếm hoặc nghệ thuật có nghĩa vụ tiết lộ hạn chế.[36] Tại đây, việc tiết lộ nguồn gốc AI phải tinh tế, đảm bảo tính minh bạch mà không làm ảnh hưởng đến việc biểu đạt nghệ thuật, bảo vệ quyền tự do ngôn luận và sáng tạo nghệ thuật.[37]


Theo Đạo luật AI, các hệ thống AI (gồm Deepfake) được đánh giá và phân loại dựa trên mức độ rủi ro: Rủi ro không thể chấp nhận được,[38] rủi ro cao,[39] rủi ro có thể kiểm soát,[40] rủi ro không đáng kể.[41] Trong phần này sẽ chỉ đề cập đến rủi ro không kiểm soát do những hệ quả của Deepfake hiện nay thường ở mức độ này. Đối với mức độ này thì những rủi ro đến từ việc thiếu minh bạch trong việc sử dụng AI.[42] Theo đó, Đạo luật đề ra một số nghĩa vụ cụ thể để đảm bảo sự minh bạch và tăng cường lòng tin của con người đối với AI, thông qua quy định về nghĩa vụ thông báo trong trường hợp cần thiết. Một trong những trường hợp điển hình đó là nội dung được tạo ra bởi AI tạo sinh,[43] nếu sử dụng Deepfake trong nội dung thì phải bảo đảm có thể nhận ra được, đặc biệt là với những thông tin được quan tâm bởi công chúng thì phải được dán nhãn là được tạo ra bởi yếu tố nhân tạo.[44]


2.1.2. Quy định Bảo vệ dữ liệu chung[45]

Theo quy định của GDPR, chỉ khi có sự đồng ý của cá nhân hay nhằm thực hiện các mục đích hợp pháp thì việc sử dụng các dữ liệu cá nhân cho Deepfake mới được chấp nhận.[46] Do đó, việc đánh giá liệu người sáng tạo và nhà phân phối Deepfake có thể dựa vào "lợi ích hợp pháp" làm cơ sở pháp lý[47] hay không đòi hỏi phải cân nhắc kỹ lưỡng giữa lợi ích của việc sử dụng dữ liệu cá nhân để tạo Deepfake và những tác hại có thể gây ra cho cá nhân đó.

Ngoài ra, GDPR còn cung cấp cho các nạn nhân của Deepfake các biện pháp để bảo vệ bản thân bao gồm quyền phản đối các quyết định tự động[48] tác động đáng kể đến cuộc sống của họ dựa trên hình ảnh giống họ trong các nội dung Deepfake độc ​​hại.[49] Chủ thể của dữ liệu cũng có quyền yêu cầu bên tạo ra các sản phẩm Deepfake sửa chữa, hoàn thiện[50] hay xóa bỏ dữ liệu cá nhân liên quan đến mình và bên sáng tạo có nghĩa vụ xoá bỏ dữ liệu đó trong khoảng thời gian đã được quy định.[51]


Cả hai đạo luật đều đưa ra các phương pháp nhằm ngăn chặn những tác hại của Deepfake và bảo vệ người dùng nhưng các biện pháp này chưa thực sự hiệu quả trong việc bảo vệ toàn diện quyền của cá nhân. Hơn nữa, tác động của Deepfake vẫn chưa được xác định một rõ ràng dẫn đến nhiều thách thức trong việc vừa phát triển những công nghệ mới và kiểm soát các hệ quả tiêu cực mà nó có thể gây ra.

 

2.2. Quy định của Mỹ về công nghệ Deepfake

2.2.1. Ở cấp tiểu bang

Bắt nguồn từ năm 2014, bang Virginia đã ra lệnh cấm phát tán những hình ảnh hoặc video khoả thân với mục đích “ép buộc, quấy rối hay đe dọa” đến bất kỳ cá nhân nào.[52] Phải đến tháng 3 năm 2019, bản sửa đổi đã làm rõ quy định này bao gồm “Các hình ảnh tĩnh hoặc video độc hại được tạo ra bởi các phần mềm Photoshop với mục đích mô tả một người thực tế và người đó có thể nhận diện được là người thật qua các đặc điểm như khuôn mặt, hình dáng, các bộ phận khác…”.[53] Không đề cập trực tiếp đến Deepfake hay phương tiện truyền thông tổng hợp[54] tuy nhiên với những nội dung ám chỉ đã ghi nhận đây là bang đầu tiên tại Mỹ ban hành luật pháp liên quan đến Deepfake.


Tình trạng này tiếp tục xuất hiện tại các điều luật được ban hành tại một số bang như New York,[55] Georgia,[56]  và Wyoming.[57] Và Deepfake chỉ được nêu bật cụ thể lần đầu tiên vào tháng 9/2019 thông qua dự luật “S.B. No. 751” của bang Texas, quy định các hành vi sử dụng kỹ thuật Deepfake để tạo video nhằm can thiệp hoạt động bầu cử là hành vi phạm tội hình sự.[58] Tuy nhiên cũng cần xem xét đến một số điểm lưu ý của luật này: (i) Đạo luật chỉ rõ giới hạn Deepfake đối với các video nhưng không ngoại trừ các phương thức khác; (ii) Không đề cập đến sự góp mặt của AI - công cụ tạo ra phần lớn các nội dung độc hại; (iii) Mặc dù đã không phù hợp với tình hình hiện tại, song đạo luật này được coi là tiến bộ tại năm 2019 - thời điểm mà nó ra đời.[59]


 Sau hai năm, cụ thể vào ngày 23 tháng 6 năm 2021, bang Hawaii đã thông qua đạo luật SB 309 sau khuyến nghị của lực lượng đặc nhiệm về việc bảo vệ quyền riêng tư hình ảnh cá nhân và cấm sử dụng Deepfake khi công có sự cho phép.[60] Tại đây đánh dấu lần đầu tiên Deepfake được định nghĩa như một loại tội phạm. 


Theo sự phát triển của nhận thức xã hội về những mối nguy hại mà Deepfake mang lại thì các bang tại Mỹ đã dần dần ban hành các đạo luật quy định về vấn đề này. Dù vẫn còn nhiều hạn chế song những luật này phản ánh được sự tiến bộ của ngành lập pháp Hoa Kỳ.


2.2.2. Ở cấp quốc gia

Tính đến thời điểm hiện nay, Hoa Kỳ vẫn chưa có luật liên bang quy định cụ thể và toàn diện các vấn đề liên quan đến Deepfake, tất cả chỉ dừng lại ở những nỗ lực hoàn thiện, được kể đến như:


Thứ nhất, Đạo luật cấm các Deepfake độc hại:[61] Được đề xuất bởi Quốc hội Hoa Kỳ, dù chưa được thông qua để trở thành luật tuy nhiên tại đó, nó quy định mức phạt tiền hoặc giam giữ đến 2 năm đối với hành vi phát tán hình ảnh/video giả mạo gây tổn hại danh dự. Nếu nội dung gây rối loạn chính trị, bạo lực hoặc gây ra hậu quả nghiêm trọng, thời gian giam giữ có thể lên đến 10 năm.[62]


Thứ hai, Luật Trách nhiệm Deepfake:[63] Tạo ra một quy chuẩn cho người sử dụng công nghệ Deepfake khi họ phải áp dụng kỹ thuật “thủy vân số”[64] để chỉ rõ liệu đó là hình ảnh/video bản gốc hay bản đã qua chỉnh sửa. Nếu không tuân thủ theo biện pháp này, hành vi tạo ra Deepfake sẽ bị coi là phạm tội.


Thứ ba, Luật DEFIANCE Act:[65] Cho phép các nạn nhân được khởi kiện và nhận bồi thường khi bị Deepfake giả mạo mà không có sự đồng ý. Nếu được thông qua, nó sẽ tạo ra khuôn khổ pháp lý mạnh mẽ ngăn chặn lạm dụng AI và khuyến khích phát triển công nghệ nhận dạng Deepfake.[66]


Tóm lại, Hoa Kỳ đang xảy ra sự thiếu đồng bộ giữa quy định của pháp luật liên bang và các tiểu bang về Deepfake. Một số vấn đề vẫn còn bỏ ngỏ chưa được giải quyết được như mối quan hệ giữa Deepfake và AI, xác định ranh giới giữa tự do ngôn luận và bảo vệ quyền lợi cá nhân.[67] Dù đã có những bước tiến trong quá trình lập pháp, tuy nhiên, trong tương lai vẫn cần sự hợp tác sâu rộng của các cấp chính quyền, ngành công nghệ và cộng đồng nghiên cứu để hoàn thiện hệ thống pháp lý.

 

3. Một số đề xuất trong việc quản lý công nghệ Deepfake tại Việt Nam

3.1. Thực trạng quy định về công nghệ Deepfake tại Việt Nam

Xét trên khía cạnh bảo về các cá nhân khi bị xâm hại bởi Deepfake, nếu hình ảnh, danh dự, nhân phẩm hay uy tín của một cá nhân bị xâm phạm thì pháp luật đã có những chế định chung quy định tại Hiến pháp 2013 và BLDS 2015. Căn cứ vào Điều 21 khoản 1 Hiến pháp 2013, Điều 32, Điều 34 BLDS 2015, việc sử dụng hình ảnh của cá nhân phải được người đó đồng ý và danh dự, nhân phẩm, uy tín của cá nhân là bất khả xâm phạm và được pháp luật bảo vệ. Trong trường hợp có những hành vi xâm phạm, cá nhân có quyền yêu cầu Tòa án ra quyết định buộc đối tượng vi phạm phải thu hồi, tiêu huỷ, chấm dứt việc sử dụng hình ảnh, bồi thường thiệt hại và áp dụng các biện pháp xử lý theo quy định của pháp luật.[68] Tương tự, cá nhân bị thông tin làm ảnh hưởng xấu đến danh dự, nhân phẩm, uy tín thì ngoài quyền yêu cầu bác bỏ thông tin còn có quyền yêu cầu đối tượng xin lỗi, cải chính công khai và bồi thường thiệt hại.[69] Cụ thể, trong trường hợp sử dụng Deepfake để ghép mặt người khác vào các đoạn phim khiêu dâm, đối tượng vi phạm có thể bị truy tố về tội vu khống[70] và tội truyền bá văn hoá phẩm đồi truỵ.[71]


Ngoài ra, việc đối tượng sử dụng Deepfake để thực hiện các hành vi giả mạo để lừa đảo, trộm cắp, mua bán, thu thập, trao đổi trái phép thông tin thẻ tín dụng, tài khoản ngân hàng của người khác là vi phạm pháp luật về an toàn xã hội[72] và nếu gây ra thiệt hại nặng nề về tài sản có thể bị truy tố tội lừa đảo chiếm đoạt tài sản.[73] 


Hiện nay, Việt Nam chưa ghi nhận các trường hợp thao túng chính trị có sự hỗ trợ của Deepfake. Tuy vậy, các cá nhân phải đảm bảo tự do ngôn luận mà không gây tổn hại đến lợi ích quốc gia, trật tự xã hội theo Điều 3 khoản 2 Luật an ninh mạng 2018 và điều 331 BLHS 2015. Đồng thời Điều 116 BLHS 2015 cũng quy định các mức hình phạt cụ thể với tội phá hoại chính sách đoàn kết dân tộc, gây chia rẽ, mất đoàn kết trong mối quan hệ giữa nhân dân và chính quyền.


Song song với những quy định trong luật hiện hành để giải quyết các vấn đề của Deepfake, tại hội thảo "Pháp luật về trí tuệ nhân tạo: Kinh nghiệm quốc tế và khuyến nghị chính sách cho Việt Nam",[74] trên góc độ học tập kinh nghiệm quốc tế, Bộ Tư Pháp xác định sẽ tiếp tục nghiên cứu các khuôn khổ chính sách, pháp luật đối với trí tuệ nhân tạo. Đây cũng là bước tiến quan trọng trong quá trình hoàn thiện khung pháp lý về AI tại Việt Nam.

 

3.2. Một số đề xuất trong việc quản lý công nghệ Deepfake tại Việt Nam

Deepfake vừa là một công cụ hữu hiệu cho con người trong thời đại số, song cũng kèm theo đó là những hiểm họa khôn lường. Vì vậy, nhóm tác giả cho rằng việc sử dụng công nghệ này không nên bị cấm hoàn toàn nhưng cần có những giới hạn nhất định. Thông qua đó, nhóm tác giả đưa ra một số kiến nghị như sau:


Một là, trong tương lai gần, nhằm nhanh chóng đáp ứng sự phát triển thần tốc của Deepfake nói riêng và AI nói chung, Nhà nước nên cân nhắc sửa đổi, bổ sung một số quy định pháp luật hiện hành. Thứ nhất, đối với các hành vi sai phạm có sử dụng Deepfake, công nghệ này có thể được coi là công cụ gây án, vì vậy, cần luật định rõ đó là một tình tiết tăng nặng trách nhiệm hình sự[75] riêng biệt, do có sự can thiệp của trí tuệ nhân tạo. Thứ hai, trong mục Tội phạm trong lĩnh vực công nghệ thông tin, mạng viễn thông,[76] BLHS 2015, chưa có bất kỳ quy định cụ thể nào liên quan tới tội phạm mạng, tội phạm sử dụng công nghệ cao. Vì vậy, cần bổ sung tại mục này các khung pháp lý liên quan tới tội sử dụng Deepfake làm giả thông tin hoặc giả mạo người khác gây mất uy tín, ảnh hưởng thanh danh, thất thoát tài sản hoặc để lại hậu quả nghiêm trọng.


Hai là, tiếp tục xây dựng và hoàn thiện một khung hành lang pháp lý riêng đối với công nghệ AI, trong đó có Deepfake. Đối với thực trạng công nghệ hiện nay, Việt Nam có thể tham khảo, nghiên cứu các kinh nghiệm quốc tế về khuôn khổ chính sách, pháp luật đối với trí tuệ nhân tạo để  xây dựng một bộ luật cụ thể dành riêng cho AI. Ví dụ, tham khảo các chế tài của Liên minh châu Âu và Hoa Kỳ thì Việt Nam có thể quy định các nhà cung cấp, sáng tạo tại Việt Nam khi sản xuất ra một nội dung dưới bất kỳ hình thức nào, đặc biệt là được phân phối trên các nền tảng trực tuyến phải gắn nhãn hoặc thông báo rõ với người tiếp cận về sự hiện diện của công nghệ Deepfake trong các sản phẩm của họ. 


Ba là, nhà nước cũng cần tăng cường công tác tuyên truyền, giáo dục nâng cao nhận thức của người dân về Deepfake, giúp người dân nhận thức được về những lợi và hại khi sử dụng công nghệ mới này. Công tác tuyên truyền, giáo dục này cần được thực hiện rộng rãi, đa dạng trong cả nhà trường, cơ quan nhà nước, doanh nghiệp. Cùng với đó, mỗi cá nhân cũng cần tự bảo vệ mình, cẩn thận khi công khai các thông tin trên môi trường số và chủ động trong việc đòi lại công bằng cho bản thân khi hình ảnh, nhân phẩm hay danh dự bị xâm phạm. Từ đó xây dựng ý thức, trách nhiệm trong việc đấu tranh phòng chống tội phạm lợi dụng Deepfake trên môi trường mạng.

 

Kết luận

Sự ra đời của Deepfake, từ một bước tiến công nghệ đầy hứa hẹn, đã trở thành con dao hai lưỡi, gây ra những hệ lụy nghiêm trọng đối với đời sống cá nhân, xã hội và quốc gia. Không chỉ làm mờ đi ranh giới giữa thật và giả, Deepfake còn tạo nên những lỗ hổng lớn về niềm tin trong thời đại số hoá. Trong bối cảnh đầy phức tạp đó, bài viết đã tập trung vào bản chất của Deepfake đồng thời phân tích kinh nghiệm từ một số các quốc gia tiên phong tại Liên minh châu Âu và Hoa Kỳ trong việc xây dựng hành lang pháp lý để kiểm soát và ứng phó với công nghệ này. Tại Việt Nam, dù chưa phải tâm điểm của các nguy cơ xảy đến từ Deepfake, nhưng đứng trước ngưỡng cửa của hội nhập, của thời đại công nghệ, nước ta cần chủ động hơn trong việc xây dựng khung pháp lý dành cho Deepfake, không chỉ để đối phó mà còn để phòng ngừa những nguy cơ tiềm tàng mà Deepfake có thể đem đến. Tương lai của Deepfake phụ thuộc vào cách con người sử dụng nó: để Deepfake trở thành động lực phát triển hay là một thách thức làm suy thoái cộng đồng. Và câu trả lời nằm ở những bước đi pháp lý mạnh mẽ, linh hoạt và sáng tạo ngay từ bây giờ.


DANH MỤC TÀI LIỆU THAM KHẢO 

[1] Nguyễn Thị Phương Anh - Sinh viên Khoa Luật Quốc tế - Học viện Ngoại giao; Phạm Thị Ngân - Sinh viên Khoa Luật Quốc tế - Học viện Ngoại giao; Hoàng Khánh Ly - Sinh viên Khoa Luật Quốc tế - Học viện Ngoại giao.

[2]Trần Linh Huân, Đặng Trần Hạ Vy (2024) ‘Nhận diện thủ đoạn lừa đảo qua công nghệ Deepfake - Một số giải pháp phòng, tránh’ Tạp chí Ngân hàng, (25/7/2024) <https://tapchinganhang.gov.vn/nhan-dien-thu-doan-lua-dao-qua-cong-nghe-Deepfake-mot-so-giai-phap-phong-tranh.htm> truy cập ngày 07/10/2024.

[3] Trần Văn Liệu, ‘Tình hình lập pháp của các nước liên quan đến công nghệ Deepfake’ Tạp chí An toàn Thông tin (2021) <https://m.antoanthongtin.gov.vn/chinh-sach---chien-luoc/tinh-hinh-lap-phap-cua-cac-nuoc-lien-quan-den-cong-nghe-Deepfake-106742?fbclid=IwZXh0bgNhZW0CMTEAAR2rN2sMFtBH9XlRrhOw6G_au0cAfSJUIbj4FOk1SdRgck6rL51OK5Feez8_aem_nS_l61Rg-G4d1cOuR35C6g> truy cập ngày 06/10/2024

[4] Ian Sample, ‘What are Deepfakes – and how can you spot them?’ (The Guardian, 2020) <https://www.theguardian.com/technology/2020/jan/13/what-are-Deepfakes-and-how-can-you-spot-them> truy cập ngày 06/10/2024

[5] Kelleher, J. D. (2019). Deep learning. MIT press, tr 1.

[6] Nguyên văn: Training phase

[7] Nguyên văn: Segmentation mask

[8] Nguyên văn: computer vision model

[9] Jay Lowe (2022) What is a Segmentation Mask? An Introduction. Roboflow, <https://blog.roboflow.com/how-to-create-segmentation-masks-with-roboflow/> truy cập ngày 10/11/2024.

[10] Nguyên văn: Test phase

[11] Như mục 4.

[12] Deeptrace là công ty tạo ra những công cụ nhận diện nội dung số được chỉnh sửa bởi con người hoặc công cụ AI.

[13] Tim Nudd, ‘W+K and Deepfake Willie Nelson Hype Omega Mart, a Mind-Bending Las Vegas Attraction’, (CLIOS, 2021) <https://musebyclios.com/art/wk-and-Deepfake-willie-nelson-hype-omega-mart-mind-bending-las-vegas-attraction/> truy cập ngày 17/10/2024.

[14] Như mục 13.

[15] Devin Coldewey, ‘This technology can make the Mona Lisa talk’ (2019) World Economic Forum

[16] Isobel Asher Hamilton, ‘The Mona Lisa was brought to life in vivid detail by Deepfake AI researchers at Samsung’  (Business Insider, 2019),

[17] ‘Deepfake Statistics and Trends About Cyber Threats 2024’, (Keepnet, 2024) <https://keepnetlabs.com/blog/Deepfake-statistics-and-trends-about-cyber-threats-2024> truy cập ngày 03/11/2024.

[18] Henry Ajder, Giorgio Patrini, Francesco Cavalli, và Laurence Cullen, ‘The State of Deepfakes: Landscape, Threats, and Impact’ [2019] Deeptrace tr 7.

[19] Du Lam, ‘Ai cũng có thể là nạn nhân của Deepfake khiêu dâm trong kỷ nguyên AI’ (Vietnamnet, 2024) <https://vietnamnet.vn/ai-cung-co-the-la-nan-nhan-cua-Deepfake-khieu-dam-trong-ky-nguyen-ai-2342245.html> truy cập ngày 19/11/2024.

[20] Quốc Đạt, ‘2024 - năm “siêu bầu cử” định hình tương lai’  Báo Đại biểu Nhân dân (07/02/2024)

[21] Sasha Pezenik và Brittany, ‘ABC News Fake Biden robocall urges New Hampshire voters to skip their primary’ ABC News (23/01/2024) <https://abcnews.go.com/Politics/fake-biden-robocall-urges-new-hampshire-voters-skip/story?id=106580926> truy cập ngày 12/11/2024.

[22] Lubna Takruri, ‘The role of AI in detecting Deepfake fraud’  (Onfido, 16/11/2023) <https://onfido.com/blog/ai-detecting-Deepfake-fraud/> truy cập ngày 15/11/2024.

[23] Như mục 17.

[24] ThS. Trần Linh Huân và Đặng Trần Hạ Vy, ‘Nhận diện thủ đoạn lừa đảo qua công nghệ Deepfake - Một số giải pháp phòng, tránh (2024) Tạp chí Ngân Hàng <https://tapchinganhang.gov.vn/nhan-dien-thu-doan-lua-dao-qua-cong-nghe-Deepfake-mot-so-giai-phap-phong-tranh.htm> truy cập ngày 18/11/2024.

[25] Đạo luật Trí tuệ nhân tạo của Liên minh châu Âu có hiệu lực từ ngày 01 tháng 8 năm 2024.

[26[ Phạm Minh Hạnh, ‘ĐẠO LUẬT TRÍ TUỆ NHÂN TẠO CỦA LIÊN MINH CHÂU ÂU - MỘT SỐ NỘI DUNG VÀ VẤN ĐỀ PHÁP LÝ’ (2024) Kỳ 2 (413) Pháp luật quốc tế <https://danchuphapluat.vn/uploads//files/2024/10/10-pham-minh-hanh-413.pdf> truy cập ngày 10/11/2024.

[27] Đạo luật Trí tuệ nhân tạo 2024, Chương I, Điều 2.

[28] Đạo luật Trí tuệ nhân tạo 2024, Chương I, Điều 2, khoản 3, khoản 4, khoản 6, khoản 8, khoản 10 và khoản 12.

[29] Đạo luật Trí tuệ nhân tạo 2024, Chương I, Điều 3, khoản 1.

[30] Đạo luật Trí tuệ nhân tạo 2024, Chương I, Điều 3, khoản 3.

[31] Đạo luật Trí tuệ nhân tạo 2024, Chương I, Điều 3, khoản 7.

[32] Đạo luật Trí tuệ nhân tạo 2024, Chương I, Điều 3, khoản 60.

[33] AI đa dụng là một hệ thống AI có khả năng thực hiện một loạt các nhiệm vụ khác nhau với mức độ thông minh và hiệu quả tương đương hoặc thậm chí vượt qua con người, AI đa dụng có thể học hỏi và thích nghi với nhiều lĩnh vực và nhiệm vụ khác nhau (P.A.T (NASATI), ‘Trí tuệ nhân tạo đa dụng là gì?’, (Bộ Khoa học và Công nghệ - Cục thông tin khoa học và công nghệ quốc gia, 2024) <https://www.vista.gov.vn/vi/news/khoa-hoc-doi-song/tri-tue-nhan-tao-da-dung-la-gi-8643.html> truy cập ngày: 15/11/2024.

[34] Đạo luật Trí tuệ nhân tạo 2024, Đoạn trích 133.

[35] Đạo luật Trí tuệ nhân tạo 2024, Đoạn trích 134.

[36] Đạo luật Trí tuệ nhân tạo 2024, Đoạn trích 134; Felipe Romero Moreno, ‘Generative AI and Deepfakes: a human rights approach to tackling harmful content’ (2024) 38 (3) International Review of Law, Computers & Technology tr297 - 326 <https://www.tandfonline.com/doi/full/10.1080/13600869.2024.2324540#d1e109> truy cập ngày: 10/11/2024.

[37] Hiến chương của Liên minh châu Âu, Điều 11 và Điều 13.

[38] Nguyên văn: Unacceptable risk.

[39] Nguyên văn: High risk.

[40] Nguyên văn: Limited risk.

[41] Nguyên văn: Minimal risk.

[42] Đạo luật Trí tuệ nhân tạo 2024, Chương 4.

[43] Nguyên văn:  Generative AI

[44] Phạm Minh Hạnh, ‘ĐẠO LUẬT TRÍ TUỆ NHÂN TẠO CỦA LIÊN MINH CHÂU ÂU - MỘT SỐ NỘI DUNG VÀ VẤN ĐỀ PHÁP LÝ’ (2024) Kỳ 2 (413) Pháp luật quốc tế <https://danchuphapluat.vn/uploads//files/2024/10/10-pham-minh-hanh-413.pdf> truy cập ngày: 10/11/2024.

[45] Quy định Bảo vệ dữ liệu chung  đã được Nghị viện Châu Âu thông qua vào ngày 14/4/2016.

[46] Quy định Bảo vệ dữ liệu chung 2016, Điều 6.

[47] Quy định Bảo vệ dữ liệu chung 2016, Điểm f  Khoản 1 Điều 6.

[48] Nguyên văn: Automated individual decision-making.

[49] Quy định Bảo vệ dữ liệu chung 2016, Điều 22.

[50] Đạo luật Trí tuệ nhân tạo 2024, Chương III, Mục 3, Điều 16.

[51] Đạo luật Trí tuệ nhân tạo 2024, Chương III, Mục 3, Điều 17.

[52] Adi Robertson, ‘Virginia’s ‘revenge porn’ laws now officially cover Deepfakes’ (2019), The Verge <https://www.theverge.com/2019/7/1/20677800/virginia-revenge-porn-Deepfakes-nonconsensual-photos-videos-ban-goes-into-effect> truy cập ngày: 08/11/2024.

[53] HB 2678: Unlawful dissemination or sale of images of another (2019), Virginia Law Portal

<https://legiscan.com/VA/bill/HB2678/2019> truy cập ngày: 18/11/2024.

[54] Nguyên văn: Synthetic media.

[55] SB 5959, 2020.

[56] SB 78, 2021.

[57] HB 0085, 2021.

[58] Trần Văn Liệu, ‘Tình hình lập pháp của các nước liên quan đến công nghệ Deepfake’ (2021), Tạp chí an toàn thông tin

[59] Meneses, J. P, Seeking to define deepfakes from U.S. state laws. Communication & Society (2024), 37(3), 219-235.

[60] SB 309 HD2 CD1. (2021). ‘Privacy in the First Degree; Deep Fakes’.

[61] Nguyên văn: Malicious Deep Fake Accountability Act of 2018.

[62] Trần Văn Liệu, ‘Tình hình lập pháp của các nước liên quan đến công nghệ Deepfake’ Tạp chí an toàn thông tin (2021)

[63] Deepfakes Accountability Act, được đề xuất bởi Hạ viện, tháng 6/2019.

[64] Nguyên văn: Digital watermarking.

[65] Digital Evidence and Fake Information Accountability and Countermeasures Enforcement Act (Tạm dịch:Đạo luật thực thi trách nhiệm và biện pháp đối phó về bằng chứng kỹ thuật số và thông tin giả mạo), được thông qua bởi Thượng viện, tháng 7/2024.

[66] Lauren, ‘The Senate passed a bill cracking down on sexually explicit Deepfakes’ The Verge (2024) <https://www.theverge.com/2024/7/24/24205275/senate-passes-defiance-act-non-consensual-intimate-ai-Deepfakes> truy cập ngày: 09/11/2024.

[67] Robert Chesney and Danielle Keats Citron, ‘Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security’ (2018) <https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3213954> truy cập ngày: 08/11/2024.

[68] Bộ Luật Dân sự 2015, Khoản 3 Điều 32.

[69] Bộ Luật Dân sự 2015, Khoản 5 Điều 34.

[70] Bộ Luật Hình sự 2015, được sửa đổi, bổ sung 2017, Điểm e Khoản 2 Điều 2.

[71] Bộ Luật Hình sự 2015, Điều 326,  sửa đổi 2017, Khoản 124 Điều 1.

[72] Luật An ninh mạng 2018, Điều 18.

[73] Bộ Luật Hình sự 2015, Điều 174.

[74] Hội thảo được tổ chức ngày 10/5/2024 tại Hà Nội

[75] Bộ Luật Hình sự 2015, được sửa đổi, bổ sung 2017, Điều 52.

[76] Bộ Luật Hình sự 2015, được sửa đổi, bổ sung 2017, Mục 2, Chương XXI.

[1] Nguyễn Thị Phương Anh - Sinh viên Khoa Luật Quốc tế - Học viện Ngoại giao; Phạm Thị Ngân - Sinh viên Khoa Luật Quốc tế - Học viện Ngoại giao; Hoàng Khánh Ly - Sinh viên Khoa Luật Quốc tế - Học viện Ngoại giao.

[2]Trần Linh Huân, Đặng Trần Hạ Vy (2024) ‘Nhận diện thủ đoạn lừa đảo qua công nghệ Deepfake - Một số giải pháp phòng, tránh’ Tạp chí Ngân hàng, (25/7/2024) <https://tapchinganhang.gov.vn/nhan-dien-thu-doan-lua-dao-qua-cong-nghe-Deepfake-mot-so-giai-phap-phong-tranh.htm> truy cập ngày 07/10/2024.

[3] Trần Văn Liệu, ‘Tình hình lập pháp của các nước liên quan đến công nghệ Deepfake’ Tạp chí An toàn Thông tin (2021) <https://m.antoanthongtin.gov.vn/chinh-sach---chien-luoc/tinh-hinh-lap-phap-cua-cac-nuoc-lien-quan-den-cong-nghe-Deepfake-106742?fbclid=IwZXh0bgNhZW0CMTEAAR2rN2sMFtBH9XlRrhOw6G_au0cAfSJUIbj4FOk1SdRgck6rL51OK5Feez8_aem_nS_l61Rg-G4d1cOuR35C6g> truy cập ngày 06/10/2024

[4] Ian Sample, ‘What are Deepfakes – and how can you spot them?’ (The Guardian, 2020) <https://www.theguardian.com/technology/2020/jan/13/what-are-Deepfakes-and-how-can-you-spot-them> truy cập ngày 06/10/2024

[5] Kelleher, J. D. (2019). Deep learning. MIT press, tr 1.

[6] Nguyên văn: Training phase

[7] Nguyên văn: Segmentation mask

[8] Nguyên văn: computer vision model

[9] Jay Lowe (2022) What is a Segmentation Mask? An Introduction. Roboflow, <https://blog.roboflow.com/how-to-create-segmentation-masks-with-roboflow/> truy cập ngày 10/11/2024.

[10] Nguyên văn: Test phase

[11] Như mục 4.

[12] Deeptrace là công ty tạo ra những công cụ nhận diện nội dung số được chỉnh sửa bởi con người hoặc công cụ AI.

[13] Tim Nudd, ‘W+K and Deepfake Willie Nelson Hype Omega Mart, a Mind-Bending Las Vegas Attraction’, (CLIOS, 2021) <https://musebyclios.com/art/wk-and-Deepfake-willie-nelson-hype-omega-mart-mind-bending-las-vegas-attraction/> truy cập ngày 17/10/2024.

[14] Như mục 13.

[15] Devin Coldewey, ‘This technology can make the Mona Lisa talk’ (2019) World Economic Forum

[16] Isobel Asher Hamilton, ‘The Mona Lisa was brought to life in vivid detail by Deepfake AI researchers at Samsung’  (Business Insider, 2019),

[17] ‘Deepfake Statistics and Trends About Cyber Threats 2024’, (Keepnet, 2024) <https://keepnetlabs.com/blog/Deepfake-statistics-and-trends-about-cyber-threats-2024> truy cập ngày 03/11/2024.

[18] Henry Ajder, Giorgio Patrini, Francesco Cavalli, và Laurence Cullen, ‘The State of Deepfakes: Landscape, Threats, and Impact’ [2019] Deeptrace tr 7.

[19] Du Lam, ‘Ai cũng có thể là nạn nhân của Deepfake khiêu dâm trong kỷ nguyên AI’ (Vietnamnet, 2024) <https://vietnamnet.vn/ai-cung-co-the-la-nan-nhan-cua-Deepfake-khieu-dam-trong-ky-nguyen-ai-2342245.html> truy cập ngày 19/11/2024.

[20] Quốc Đạt, ‘2024 - năm “siêu bầu cử” định hình tương lai’  Báo Đại biểu Nhân dân (07/02/2024)

[21] Sasha Pezenik và Brittany, ‘ABC News Fake Biden robocall urges New Hampshire voters to skip their primary’ ABC News (23/01/2024) <https://abcnews.go.com/Politics/fake-biden-robocall-urges-new-hampshire-voters-skip/story?id=106580926> truy cập ngày 12/11/2024.

[22] Lubna Takruri, ‘The role of AI in detecting Deepfake fraud’  (Onfido, 16/11/2023) <https://onfido.com/blog/ai-detecting-Deepfake-fraud/> truy cập ngày 15/11/2024.

[23] Như mục 17.

[24] ThS. Trần Linh Huân và Đặng Trần Hạ Vy, ‘Nhận diện thủ đoạn lừa đảo qua công nghệ Deepfake - Một số giải pháp phòng, tránh (2024) Tạp chí Ngân Hàng <https://tapchinganhang.gov.vn/nhan-dien-thu-doan-lua-dao-qua-cong-nghe-Deepfake-mot-so-giai-phap-phong-tranh.htm> truy cập ngày 18/11/2024.

[25] Đạo luật Trí tuệ nhân tạo của Liên minh châu Âu có hiệu lực từ ngày 01 tháng 8 năm 2024.

[26[ Phạm Minh Hạnh, ‘ĐẠO LUẬT TRÍ TUỆ NHÂN TẠO CỦA LIÊN MINH CHÂU ÂU - MỘT SỐ NỘI DUNG VÀ VẤN ĐỀ PHÁP LÝ’ (2024) Kỳ 2 (413) Pháp luật quốc tế <https://danchuphapluat.vn/uploads//files/2024/10/10-pham-minh-hanh-413.pdf> truy cập ngày 10/11/2024.

[27] Đạo luật Trí tuệ nhân tạo 2024, Chương I, Điều 2.

[28] Đạo luật Trí tuệ nhân tạo 2024, Chương I, Điều 2, khoản 3, khoản 4, khoản 6, khoản 8, khoản 10 và khoản 12.

[29] Đạo luật Trí tuệ nhân tạo 2024, Chương I, Điều 3, khoản 1.

[30] Đạo luật Trí tuệ nhân tạo 2024, Chương I, Điều 3, khoản 3.

[31] Đạo luật Trí tuệ nhân tạo 2024, Chương I, Điều 3, khoản 7.

[32] Đạo luật Trí tuệ nhân tạo 2024, Chương I, Điều 3, khoản 60.

[33] AI đa dụng là một hệ thống AI có khả năng thực hiện một loạt các nhiệm vụ khác nhau với mức độ thông minh và hiệu quả tương đương hoặc thậm chí vượt qua con người, AI đa dụng có thể học hỏi và thích nghi với nhiều lĩnh vực và nhiệm vụ khác nhau (P.A.T (NASATI), ‘Trí tuệ nhân tạo đa dụng là gì?’, (Bộ Khoa học và Công nghệ - Cục thông tin khoa học và công nghệ quốc gia, 2024) <https://www.vista.gov.vn/vi/news/khoa-hoc-doi-song/tri-tue-nhan-tao-da-dung-la-gi-8643.html> truy cập ngày: 15/11/2024.

[34] Đạo luật Trí tuệ nhân tạo 2024, Đoạn trích 133.

[35] Đạo luật Trí tuệ nhân tạo 2024, Đoạn trích 134.

[36] Đạo luật Trí tuệ nhân tạo 2024, Đoạn trích 134; Felipe Romero Moreno, ‘Generative AI and Deepfakes: a human rights approach to tackling harmful content’ (2024) 38 (3) International Review of Law, Computers & Technology tr297 - 326 <https://www.tandfonline.com/doi/full/10.1080/13600869.2024.2324540#d1e109> truy cập ngày: 10/11/2024.

[37] Hiến chương của Liên minh châu Âu, Điều 11 và Điều 13.

[38] Nguyên văn: Unacceptable risk.

[39] Nguyên văn: High risk.

[40] Nguyên văn: Limited risk.

[41] Nguyên văn: Minimal risk.

[42] Đạo luật Trí tuệ nhân tạo 2024, Chương 4.

[43] Nguyên văn:  Generative AI

[44] Phạm Minh Hạnh, ‘ĐẠO LUẬT TRÍ TUỆ NHÂN TẠO CỦA LIÊN MINH CHÂU ÂU - MỘT SỐ NỘI DUNG VÀ VẤN ĐỀ PHÁP LÝ’ (2024) Kỳ 2 (413) Pháp luật quốc tế <https://danchuphapluat.vn/uploads//files/2024/10/10-pham-minh-hanh-413.pdf> truy cập ngày: 10/11/2024.

[45] Quy định Bảo vệ dữ liệu chung  đã được Nghị viện Châu Âu thông qua vào ngày 14/4/2016.

[46] Quy định Bảo vệ dữ liệu chung 2016, Điều 6.

[47] Quy định Bảo vệ dữ liệu chung 2016, Điểm f  Khoản 1 Điều 6.

[48] Nguyên văn: Automated individual decision-making.

[49] Quy định Bảo vệ dữ liệu chung 2016, Điều 22.

[50] Đạo luật Trí tuệ nhân tạo 2024, Chương III, Mục 3, Điều 16.

[51] Đạo luật Trí tuệ nhân tạo 2024, Chương III, Mục 3, Điều 17.

[52] Adi Robertson, ‘Virginia’s ‘revenge porn’ laws now officially cover Deepfakes’ (2019), The Verge <https://www.theverge.com/2019/7/1/20677800/virginia-revenge-porn-Deepfakes-nonconsensual-photos-videos-ban-goes-into-effect> truy cập ngày: 08/11/2024.

[53] HB 2678: Unlawful dissemination or sale of images of another (2019), Virginia Law Portal

<https://legiscan.com/VA/bill/HB2678/2019> truy cập ngày: 18/11/2024.

[54] Nguyên văn: Synthetic media.

[55] SB 5959, 2020.

[56] SB 78, 2021.

[57] HB 0085, 2021.

[58] Trần Văn Liệu, ‘Tình hình lập pháp của các nước liên quan đến công nghệ Deepfake’ (2021), Tạp chí an toàn thông tin

[59] Meneses, J. P, Seeking to define deepfakes from U.S. state laws. Communication & Society (2024), 37(3), 219-235.

[60] SB 309 HD2 CD1. (2021). ‘Privacy in the First Degree; Deep Fakes’.

[61] Nguyên văn: Malicious Deep Fake Accountability Act of 2018.

[62] Trần Văn Liệu, ‘Tình hình lập pháp của các nước liên quan đến công nghệ Deepfake’ Tạp chí an toàn thông tin (2021)

[63] Deepfakes Accountability Act, được đề xuất bởi Hạ viện, tháng 6/2019.

[64] Nguyên văn: Digital watermarking.

[65] Digital Evidence and Fake Information Accountability and Countermeasures Enforcement Act (Tạm dịch:Đạo luật thực thi trách nhiệm và biện pháp đối phó về bằng chứng kỹ thuật số và thông tin giả mạo), được thông qua bởi Thượng viện, tháng 7/2024.

[66] Lauren, ‘The Senate passed a bill cracking down on sexually explicit Deepfakes’ The Verge (2024) <https://www.theverge.com/2024/7/24/24205275/senate-passes-defiance-act-non-consensual-intimate-ai-Deepfakes> truy cập ngày: 09/11/2024.

[67] Robert Chesney and Danielle Keats Citron, ‘Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security’ (2018) <https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3213954> truy cập ngày: 08/11/2024.

[68] Bộ Luật Dân sự 2015, Khoản 3 Điều 32.

[69] Bộ Luật Dân sự 2015, Khoản 5 Điều 34.

[70] Bộ Luật Hình sự 2015, được sửa đổi, bổ sung 2017, Điểm e Khoản 2 Điều 2.

[71] Bộ Luật Hình sự 2015, Điều 326,  sửa đổi 2017, Khoản 124 Điều 1.

[72] Luật An ninh mạng 2018, Điều 18.

[73] Bộ Luật Hình sự 2015, Điều 174.

[74] Hội thảo được tổ chức ngày 10/5/2024 tại Hà Nội

[75] Bộ Luật Hình sự 2015, được sửa đổi, bổ sung 2017, Điều 52.

[76] Bộ Luật Hình sự 2015, được sửa đổi, bổ sung 2017, Mục 2, Chương XXI.

[1]


Tóm tắt: Trong những năm gần đây, với sự phát triển mang tính đột phá của công nghệ trí tuệ nhân tạo (Artificial Intelligence - AI), công nghệ Deepfake đã ra đời, mang lại những ảnh hưởng nhất định trong nhiều lĩnh vực khác nhau của đời sống, tiêu biểu là trong môi trường số. Hình ảnh nam diễn viên Paul Walker được “tái tạo” lại trong bộ phim “Fast & Furious 7” hay kỹ thuật trẻ hoá các diễn viên trong một số bộ phim của Marvel là minh chứng cho thành tựu mà công nghệ này đem lại. Tuy nhiên, bên cạnh lợi ích, thành tựu là những rủi ro, thách thức do Deepfake gây ra. Kể từ khi Deepfake ra đời đã xuất hiện nhiều trường hợp lừa đảo sử dụng công nghệ này để trục lợi trên môi trường số gây ra sự hoang mang cho dư luận, tiến đến chia rẽ nội bộ chính trị, hủy hoại niềm tin công chúng. Nhận thấy vấn đề này là nghiêm trọng và cấp thiết, nhóm tác giả bằng phương pháp so sánh các Đạo luật, Dự luật của các quốc gia trên thế giới, phân loại và hệ thống những mặt thiếu sót trong khung pháp lý tại Việt Nam để từ đó đưa ra khuyến nghị và bài học xây dựng một môi trường số lành mạnh.

 

Từ khoá: Deepfake, giả mạo, môi trường số, kinh nghiệm quốc tế

 

Mở đầu

Trong thế kỷ 21, Deepfake đã ra đời và nổi lên như một thách thức đáng lo ngại với các quốc gia trên toàn thế giới, công nghệ này thường bị lạm dụng với mục đích lừa đảo, chiếm đoạt tài sản, giả mạo danh tính,...Điều này không chỉ gây ảnh hưởng đến quyền riêng tư và danh dự cá nhân mà còn đe dọa tới an ninh quốc gia, hoang mang dư luận và làm xói mòn đến niềm tin xã hội.[2] Trong bối cảnh đó, việc xem xét các vấn đề pháp lý liên quan đến Deepfake để kịp thời đưa ra một số khắc phục, phòng tránh là quan trọng và cấp thiết. Trên phạm vi quốc tế, nhiều quốc gia trên thế giới đã kịp thời đưa ra các chính sách, biện pháp đối phó nhằm nhận diện, kiểm soát và ngăn chặn hậu quả mà Deepfake mang lại. Tại Việt Nam hiện nay, dù chưa bị ảnh hưởng nặng nề bởi Deepfake nhưng trong thời kỳ hội nhập toàn cầu, các thông tin giả mạo do Deepfake gây ra có thể tác động sâu rộng đến nhiều mặt của xã hội.[3] Do đó, việc xây dựng một khung pháp lý cho những công nghệ mới được áp dụng trong đời sống nói chung, và quy định về sử dụng Deepfake nói riêng là cần thiết. Nhận thấy tính cấp thiết của đề tài, trong 3 phần của bài viết, nhóm tác giả sẽ đưa ra cái nhìn tổng quan về Deepfake, phân tích các đạo luật, dự luật về Deepfake của EU và Hoa Kỳ, đưa ra một số đề xuất trong việc quản lý công nghệ Deepfake tại Việt Nam và cuối cùng là kết luận.


1. Tổng quan về công nghệ Deepfake trong môi trường số

1.1. Định nghĩa về Deepfake trong môi trường số

1.1.1. Định nghĩa chung về Deepfake

Thuật ngữ Deepfake đã xuất hiện từ đầu những năm 2017, khi một nhà phát triển phần mềm có biệt danh là “Deepfakes” đã đăng tải các đoạn phim hoán đổi khuôn mặt của những người nổi tiếng Hollywood thành khuôn mặt của các diễn viên khiêu dâm lên nền tảng Reddit.[4] Sau đó, Deepfake trở thành một xu hướng mới và được lan truyền nhanh chóng trên các nền tảng mạng xã hội.


Deepfake là sự kết hợp của hai từ “deep learning” “fake content”. Trong đó, deep learning là một lĩnh vực trong AI, tập trung vào việc tạo ra một mạng lưới thần kinh nhân tạo, có khả năng phân tích và đưa ra các quyết định dựa trên dữ liệu đầu vào.[5] Còn fake content chỉ đơn giản mang nghĩa là làm giả nội dung. Như vậy, Deepfake là một công nghệ mới sử dụng trí tuệ nhân tạo để giả mạo chân dung, giọng nói của người này bằng chân dung, giọng nói của người khác.


1.1.2. Nguyên lý hoạt động hoạt động của công nghệ Deepfake

Như đã đề cập phía trên, Deepfake là công nghệ làm giả khuôn mặt và tạo ra nội dung hoàn toàn giả lập bằng cách bắt chước một sự vật, sự việc có thật, thông qua hai bước chính:


Bước thứ nhất, giai đoạn đào tạo.[6] Ban đầu, khi nhập vào hệ thống nguồn dữ liệu hình ảnh về một người A, ngay lập tức, công cụ này sẽ phân tích các đường nét, biểu cảm và chuyển động trên gương mặt. Tiếp theo, hệ thống tạo ra một bản sao mô phỏng[7] của A, sao chép chi tiết hơn các vùng của khuôn mặt trong mô hình thị giác máy tính.[8] Sau đó, bản mô phỏng này sẽ tạo ra hình ảnh động có chuyển động tương tự dữ liệu gốc, tuy nhiên ở thời điểm ban đầu, hình ảnh này có thể bị mờ, méo mó hoặc hành động cứng nhắc.[9]


Bước thứ hai, giai đoạn thử nghiệm.[10] Tại giai đoạn này, hệ thống sẽ áp lớp mô phỏng của A lên khuôn mặt B và so sánh với ảnh gốc của A để tính độ tương đồng. Trong trường hợp chưa đạt yêu cầu, hệ thống sẽ quay lại giai đoạn đào tạo để bổ sung đặc điểm nhận dạng của A. Quá trình này lặp lại cho đến khi đạt con số đã quy chuẩn. Khi đó, kết quả nhận được là hình ảnh của B với giao diện của người A.[11]


Quy trình trên cũng được áp dụng khi sử dụng Deepfake để giả mạo giọng nói của một người khác.


1.2. Thực trạng ứng dụng công nghệ Deepfake hiện nay

1.2.1. Những lợi ích khi ứng dụng công nghệ Deepfake

Theo thống kê của Deeptrace,[12] có tới 96% video sử dụng Deepfake có nội dung đồi truỵ, gây cho người dùng ấn tượng xấu. Tuy nhiên, Deepfake là một công cụ hữu hiệu với một số các ngành đặc thù, bao gồm:


a. Ngành công nghiệp tiếp thị

Deepfake được coi là “cứu tinh” của các đơn vị tiếp thị có ngân sách eo hẹp mà muốn tối ưu hoá thời gian, công sức. Thay vì thuê diễn viên, họ chỉ cần mua giấy phép hình ảnh và chỉnh sửa video với lời thoại phù hợp. Nhờ vào Deepfake, chuỗi siêu thị Omega đã tái hiện lại hình ảnh của huyền thoại ca sĩ nhạc đồng quê - Willie Nelson trong một video quảng cáo, tạo ra cảm xúc hoài niệm cho người xem.[13]


b. Ngành nghệ thuật

Tương tự ngành tiếp thị, công nghệ Deepfake giúp các ngành nghệ thuật (đặc biệt là phim ảnh) tiết kiệm chi phí và đảm bảo an toàn cho diễn viên thông qua việc hỗ trợ công tác hậu kỳ, giúp cắt ghép diễn viên vào các phân cảnh mạo hiểm hoặc viễn tưởng.[14]


Deepfake còn được coi là “điểm giao” giữa công nghệ và nghệ thuật khi đây là công cụ làm chuyển động hóa các tác phẩm nghệ thuật tĩnh. Năm 2019, các nhà nghiên cứu tại trung tâm AI Samsung tại Moscow đã chụp bức chân dung “Mona Lisa” của Leonardo da Vinci sau đó khiến nàng Mona Lisa nói và di chuyển như người thật, thông qua thuật toán Deepfake.[15] Bên cạnh các bức họa nổi tiếng, hình ảnh của các nghệ sĩ quá cố như Marilyn Monroe, Salvador Dali,... cũng được làm tái hiện lại bằng phương pháp tương tự.[16] 


1.2.2. Những thách thức trong quá trình sử dụng công nghệ Deepfake hiện nay

a. Vấn nạn phim khiêu dâm

Tính tới tháng 9/2019, tổng số video có sử dụng công nghệ Deepfake mang nội dung khiêu dâm được đăng tải trên các nền tảng trực tuyến là khoảng 14.091 (trên tổng số 14.678 video). Con số này đã tăng vọt lên hơn 85.000 vào tháng 12/2020.[17]


Ai cũng có thể trở thành nạn nhân của các video khiêu dâm do Deepfake tạo ra, đặc biệt là những người phụ nữ có sức ảnh hưởng, chủ yếu tới từ Anh, Mỹ và Hàn Quốc [18] (bao gồm các ca sĩ, diễn viên và nhóm nhạc nổi tiếng). Cơ sở pháp lý chưa được hoàn thiện khiến các nạn nhân cảm thấy suy sụp và phải “tự bơi” giữa các quy định chắp vá.[19] Ngoài ra, việc tìm kiếm bằng chứng, điều tra và khởi tố trên không gian mạng rất khó khăn và kéo dài, khiến nạn nhân khó đòi lại công bằng, danh dự và nhân phẩm cho bản thân.


b. Thao túng chính trị

Các chính trị gia và nhà cầm quyền cũng là những nạn nhân thường xuyên của công nghệ “shallowfake”, một nhánh của Deepfake. Công nghệ này được sử dụng với mục đích tạo ra giọng nói giả nhằm thêm các nội dung sai lệch vào trong các bài diễn văn và phát ngôn của họ.


Năm 2024 được gọi là năm "siêu bầu cử" khi có tới hơn 50 quốc gia và vùng lãnh thổ sẽ chứng kiến các cuộc bầu cử quyết định các vị trí quan trọng trong hệ thống quản lý Nhà nước như tại Mỹ, Ấn Độ, Nga,...[20] Đây là tiền đề cho sự phát triển công nghệ Deepfake với mục đích can dự vào tình hình chính trị. Điển hình là trong chiến dịch kêu gọi bầu cử Tổng thống Mỹ, một cuộc gọi tự động do AI tạo ra bắt chước giọng nói của Tổng thống Joe Biden đã được sử dụng để ngăn cản những người theo đảng Dân chủ ở New Hampshire bỏ phiếu trong cuộc bầu cử sơ bộ vào tháng 01/2024. Cố vấn chính trị cho phép cuộc gọi này diễn ra sẽ phải chịu phí phạt 6 triệu đô-la vì sai sót này.[21]


c. An ninh mạng bị đe dọa, tỉ lệ tội phạm mạng gia tăng

Các thống kê cho thấy công cụ AI nói chung và công nghệ Deepfake nói riêng đang trở nên thông minh hơn. Các vụ lừa đảo và gian lận liên quan đến Deepfake, do đó, đã tăng lên mức đáng báo động khi số liệu vào năm 2023 gấp 31 lần năm 2022.[22] Trong đó, 88% các kỹ thuật lừa đảo bằng AI hoặc Deepfake nhắm vào lĩnh vực tiền điện tử.[23]


Tại Việt Nam, ngày càng nhiều thủ đoạn lừa đảo sử dụng Deepfake ra đời, có thể kể tới như: (i) Giả giọng/hình ảnh của người thân để vay tiền nạn nhân qua cuộc gọi thoại/cuộc gọi video; (ii) Giả mạo giọng nhân viên ngân hàng để lấy thông tin cá nhân và mã OTP từ nạn nhân; (iii) Giả mạo người có quyền hạn, chức vụ trong các tổ chức, doanh nghiệp để yêu cầu nạn nhân chuyển tiền; (iv) Sử dụng Deepfake giả mạo hình ảnh nhằm chiếm đoạt các phúc lợi của người mất.[24] Nhìn chung, các mô hình lừa đảo này đều lợi dụng sự thiếu cẩn trọng và khó khăn trong khả năng phán đoán thật, giả của người dân khi liên lạc, giao dịch trên môi trường số.

 

2. Quy định của Liên minh châu Âu và Hoa Kỳ về công nghệ Deepfake

2.1. Các đạo luật của Liên minh châu Âu

2.1.1. Đạo luật Trí tuệ nhân tạo của Liên minh châu Âu

Đạo luật Trí tuệ nhân tạo của Liên minh châu Âu[25] là khung pháp lý toàn diện đầu tiên trên thế giới dành riêng cho AI.[26] Đạo luật ra đời nhằm cân bằng giữa việc thúc đẩy đổi mới tạo ra những bước đột phá về khoa học kỹ thuật và đảm bảo quyền, lợi ích hợp pháp của các chủ thể khác nhau trong xã hội. Về phạm vi điều chỉnh bao gồm các nhà cung cấp, triển khai, nhập khẩu, phân phối và sản xuất các sản phẩm, hệ thống AI có liên quan đến thị trường EU.[27]  Mặt khác, Đạo luật cũng đặt ra một số ngoại lệ nhất định như Đạo luật này không áp dụng cho những hệ thống AI có mã nguồn mở trừ khi những hệ thống này bị cấm hoặc được phân loại vào nhóm có rủi ro cao hoặc một số trường hợp khác.[28]


Đầu tiên, Đạo luật AI đưa ra định nghĩa về hệ thống AI “là hệ thống máy hoạt động tự chủ, có thể tự thích ứng sau khi được triển khai để đạt mục tiêu từ các dữ liệu đầu vào, suy luận ra phương thức và tạo các kết quả đầu ra như dự đoán, đề xuất, hoặc các quyết định có thể ảnh hưởng tới môi trường thực và ảo.”[29] Tiếp theo Đạo luật cũng đưa ra các định nghĩa về nhà cung cấp cũng như nhà phân phối, trong đó, nhà cung cấp là các cá nhân, pháp nhân, cơ quan hay tổ chức phát triển, đưa ra thị trường, hoặc sử dụng hệ thống/mô hình AI dưới tên hoặc nhãn hiệu riêng, dù thu phí hay miễn phí[30] và nhà phân phối là một cá nhân hoặc pháp nhân trong chuỗi cung ứng, ngoài nhà cung cấp hoặc nhà nhập khẩu, cung cấp hệ thống AI trên thị trường Liên minh.[31] Cuối cùng Đạo luật định nghĩa về Deepfake là nội dung hình ảnh, âm thanh hoặc video do AI tạo ra hoặc chỉnh sửa, giống với người, vật, hay sự kiện có thật có thể khiến người xem nhầm lẫn rằng đó là sự thật.[32]


Nhằm hạn chế những nguy hiểm do Deepfake gây ra, Đạo luật AI  đã thúc đẩy các nhà cung cấp, người sáng tạo nội dung xác minh tính minh bạch của các sản phẩm có chứa công nghệ này.


Theo Điều 50 (2), các nhà cung cấp các công cụ AI đa dụng[33] (bao gồm Deepfake) phải gắn nhãn các nội dung do AI tạo ra, việc gắn nhãn có thể thông qua các kỹ thuật như hình mờ, nhận dạng, mã hoá,...[34] Tuy nhiên, điều này không áp dụng khi được uỷ quyền cho các hoạt động thực thi pháp luật như phát hiện tội phạm hoặc truy tố.


Điều 50 (4) quy định rằng với những nhà sáng tạo sử dụng AI để tạo Deepfake thì cần phải tiết lộ điều này với công chúng, thông qua việc gắn nhãn và nêu rõ nguồn gốc AI.[35] Tuy nhiên có hai miễn trừ chính cho điều này là dùng Deepfake khi điều tra, truy tố tội phạm và khi nội dung do AI tạo ra đã trải qua quá trình kiểm duyệt và biên tập của con người. Ngoài ra, đạo luật cũng cho phép các tác phẩm Deepfake hư cấu, châm biếm hoặc nghệ thuật có nghĩa vụ tiết lộ hạn chế.[36] Tại đây, việc tiết lộ nguồn gốc AI phải tinh tế, đảm bảo tính minh bạch mà không làm ảnh hưởng đến việc biểu đạt nghệ thuật, bảo vệ quyền tự do ngôn luận và sáng tạo nghệ thuật.[37]


Theo Đạo luật AI, các hệ thống AI (gồm Deepfake) được đánh giá và phân loại dựa trên mức độ rủi ro: Rủi ro không thể chấp nhận được,[38] rủi ro cao,[39] rủi ro có thể kiểm soát,[40] rủi ro không đáng kể.[41] Trong phần này sẽ chỉ đề cập đến rủi ro không kiểm soát do những hệ quả của Deepfake hiện nay thường ở mức độ này. Đối với mức độ này thì những rủi ro đến từ việc thiếu minh bạch trong việc sử dụng AI.[42] Theo đó, Đạo luật đề ra một số nghĩa vụ cụ thể để đảm bảo sự minh bạch và tăng cường lòng tin của con người đối với AI, thông qua quy định về nghĩa vụ thông báo trong trường hợp cần thiết. Một trong những trường hợp điển hình đó là nội dung được tạo ra bởi AI tạo sinh,[43] nếu sử dụng Deepfake trong nội dung thì phải bảo đảm có thể nhận ra được, đặc biệt là với những thông tin được quan tâm bởi công chúng thì phải được dán nhãn là được tạo ra bởi yếu tố nhân tạo.[44]


2.1.2. Quy định Bảo vệ dữ liệu chung[45]

Theo quy định của GDPR, chỉ khi có sự đồng ý của cá nhân hay nhằm thực hiện các mục đích hợp pháp thì việc sử dụng các dữ liệu cá nhân cho Deepfake mới được chấp nhận.[46] Do đó, việc đánh giá liệu người sáng tạo và nhà phân phối Deepfake có thể dựa vào "lợi ích hợp pháp" làm cơ sở pháp lý[47] hay không đòi hỏi phải cân nhắc kỹ lưỡng giữa lợi ích của việc sử dụng dữ liệu cá nhân để tạo Deepfake và những tác hại có thể gây ra cho cá nhân đó.

Ngoài ra, GDPR còn cung cấp cho các nạn nhân của Deepfake các biện pháp để bảo vệ bản thân bao gồm quyền phản đối các quyết định tự động[48] tác động đáng kể đến cuộc sống của họ dựa trên hình ảnh giống họ trong các nội dung Deepfake độc ​​hại.[49] Chủ thể của dữ liệu cũng có quyền yêu cầu bên tạo ra các sản phẩm Deepfake sửa chữa, hoàn thiện[50] hay xóa bỏ dữ liệu cá nhân liên quan đến mình và bên sáng tạo có nghĩa vụ xoá bỏ dữ liệu đó trong khoảng thời gian đã được quy định.[51]


Cả hai đạo luật đều đưa ra các phương pháp nhằm ngăn chặn những tác hại của Deepfake và bảo vệ người dùng nhưng các biện pháp này chưa thực sự hiệu quả trong việc bảo vệ toàn diện quyền của cá nhân. Hơn nữa, tác động của Deepfake vẫn chưa được xác định một rõ ràng dẫn đến nhiều thách thức trong việc vừa phát triển những công nghệ mới và kiểm soát các hệ quả tiêu cực mà nó có thể gây ra.

 

2.2. Quy định của Mỹ về công nghệ Deepfake

2.2.1. Ở cấp tiểu bang

Bắt nguồn từ năm 2014, bang Virginia đã ra lệnh cấm phát tán những hình ảnh hoặc video khoả thân với mục đích “ép buộc, quấy rối hay đe dọa” đến bất kỳ cá nhân nào.[52] Phải đến tháng 3 năm 2019, bản sửa đổi đã làm rõ quy định này bao gồm “Các hình ảnh tĩnh hoặc video độc hại được tạo ra bởi các phần mềm Photoshop với mục đích mô tả một người thực tế và người đó có thể nhận diện được là người thật qua các đặc điểm như khuôn mặt, hình dáng, các bộ phận khác…”.[53] Không đề cập trực tiếp đến Deepfake hay phương tiện truyền thông tổng hợp[54] tuy nhiên với những nội dung ám chỉ đã ghi nhận đây là bang đầu tiên tại Mỹ ban hành luật pháp liên quan đến Deepfake.


Tình trạng này tiếp tục xuất hiện tại các điều luật được ban hành tại một số bang như New York,[55] Georgia,[56]  và Wyoming.[57] Và Deepfake chỉ được nêu bật cụ thể lần đầu tiên vào tháng 9/2019 thông qua dự luật “S.B. No. 751” của bang Texas, quy định các hành vi sử dụng kỹ thuật Deepfake để tạo video nhằm can thiệp hoạt động bầu cử là hành vi phạm tội hình sự.[58] Tuy nhiên cũng cần xem xét đến một số điểm lưu ý của luật này: (i) Đạo luật chỉ rõ giới hạn Deepfake đối với các video nhưng không ngoại trừ các phương thức khác; (ii) Không đề cập đến sự góp mặt của AI - công cụ tạo ra phần lớn các nội dung độc hại; (iii) Mặc dù đã không phù hợp với tình hình hiện tại, song đạo luật này được coi là tiến bộ tại năm 2019 - thời điểm mà nó ra đời.[59]


 Sau hai năm, cụ thể vào ngày 23 tháng 6 năm 2021, bang Hawaii đã thông qua đạo luật SB 309 sau khuyến nghị của lực lượng đặc nhiệm về việc bảo vệ quyền riêng tư hình ảnh cá nhân và cấm sử dụng Deepfake khi công có sự cho phép.[60] Tại đây đánh dấu lần đầu tiên Deepfake được định nghĩa như một loại tội phạm. 


Theo sự phát triển của nhận thức xã hội về những mối nguy hại mà Deepfake mang lại thì các bang tại Mỹ đã dần dần ban hành các đạo luật quy định về vấn đề này. Dù vẫn còn nhiều hạn chế song những luật này phản ánh được sự tiến bộ của ngành lập pháp Hoa Kỳ.


2.2.2. Ở cấp quốc gia

Tính đến thời điểm hiện nay, Hoa Kỳ vẫn chưa có luật liên bang quy định cụ thể và toàn diện các vấn đề liên quan đến Deepfake, tất cả chỉ dừng lại ở những nỗ lực hoàn thiện, được kể đến như:


Thứ nhất, Đạo luật cấm các Deepfake độc hại:[61] Được đề xuất bởi Quốc hội Hoa Kỳ, dù chưa được thông qua để trở thành luật tuy nhiên tại đó, nó quy định mức phạt tiền hoặc giam giữ đến 2 năm đối với hành vi phát tán hình ảnh/video giả mạo gây tổn hại danh dự. Nếu nội dung gây rối loạn chính trị, bạo lực hoặc gây ra hậu quả nghiêm trọng, thời gian giam giữ có thể lên đến 10 năm.[62]


Thứ hai, Luật Trách nhiệm Deepfake:[63] Tạo ra một quy chuẩn cho người sử dụng công nghệ Deepfake khi họ phải áp dụng kỹ thuật “thủy vân số”[64] để chỉ rõ liệu đó là hình ảnh/video bản gốc hay bản đã qua chỉnh sửa. Nếu không tuân thủ theo biện pháp này, hành vi tạo ra Deepfake sẽ bị coi là phạm tội.


Thứ ba, Luật DEFIANCE Act:[65] Cho phép các nạn nhân được khởi kiện và nhận bồi thường khi bị Deepfake giả mạo mà không có sự đồng ý. Nếu được thông qua, nó sẽ tạo ra khuôn khổ pháp lý mạnh mẽ ngăn chặn lạm dụng AI và khuyến khích phát triển công nghệ nhận dạng Deepfake.[66]


Tóm lại, Hoa Kỳ đang xảy ra sự thiếu đồng bộ giữa quy định của pháp luật liên bang và các tiểu bang về Deepfake. Một số vấn đề vẫn còn bỏ ngỏ chưa được giải quyết được như mối quan hệ giữa Deepfake và AI, xác định ranh giới giữa tự do ngôn luận và bảo vệ quyền lợi cá nhân.[67] Dù đã có những bước tiến trong quá trình lập pháp, tuy nhiên, trong tương lai vẫn cần sự hợp tác sâu rộng của các cấp chính quyền, ngành công nghệ và cộng đồng nghiên cứu để hoàn thiện hệ thống pháp lý.

 

3. Một số đề xuất trong việc quản lý công nghệ Deepfake tại Việt Nam

3.1. Thực trạng quy định về công nghệ Deepfake tại Việt Nam

Xét trên khía cạnh bảo về các cá nhân khi bị xâm hại bởi Deepfake, nếu hình ảnh, danh dự, nhân phẩm hay uy tín của một cá nhân bị xâm phạm thì pháp luật đã có những chế định chung quy định tại Hiến pháp 2013 và BLDS 2015. Căn cứ vào Điều 21 khoản 1 Hiến pháp 2013, Điều 32, Điều 34 BLDS 2015, việc sử dụng hình ảnh của cá nhân phải được người đó đồng ý và danh dự, nhân phẩm, uy tín của cá nhân là bất khả xâm phạm và được pháp luật bảo vệ. Trong trường hợp có những hành vi xâm phạm, cá nhân có quyền yêu cầu Tòa án ra quyết định buộc đối tượng vi phạm phải thu hồi, tiêu huỷ, chấm dứt việc sử dụng hình ảnh, bồi thường thiệt hại và áp dụng các biện pháp xử lý theo quy định của pháp luật.[68] Tương tự, cá nhân bị thông tin làm ảnh hưởng xấu đến danh dự, nhân phẩm, uy tín thì ngoài quyền yêu cầu bác bỏ thông tin còn có quyền yêu cầu đối tượng xin lỗi, cải chính công khai và bồi thường thiệt hại.[69] Cụ thể, trong trường hợp sử dụng Deepfake để ghép mặt người khác vào các đoạn phim khiêu dâm, đối tượng vi phạm có thể bị truy tố về tội vu khống[70] và tội truyền bá văn hoá phẩm đồi truỵ.[71]


Ngoài ra, việc đối tượng sử dụng Deepfake để thực hiện các hành vi giả mạo để lừa đảo, trộm cắp, mua bán, thu thập, trao đổi trái phép thông tin thẻ tín dụng, tài khoản ngân hàng của người khác là vi phạm pháp luật về an toàn xã hội[72] và nếu gây ra thiệt hại nặng nề về tài sản có thể bị truy tố tội lừa đảo chiếm đoạt tài sản.[73] 


Hiện nay, Việt Nam chưa ghi nhận các trường hợp thao túng chính trị có sự hỗ trợ của Deepfake. Tuy vậy, các cá nhân phải đảm bảo tự do ngôn luận mà không gây tổn hại đến lợi ích quốc gia, trật tự xã hội theo Điều 3 khoản 2 Luật an ninh mạng 2018 và điều 331 BLHS 2015. Đồng thời Điều 116 BLHS 2015 cũng quy định các mức hình phạt cụ thể với tội phá hoại chính sách đoàn kết dân tộc, gây chia rẽ, mất đoàn kết trong mối quan hệ giữa nhân dân và chính quyền.


Song song với những quy định trong luật hiện hành để giải quyết các vấn đề của Deepfake, tại hội thảo "Pháp luật về trí tuệ nhân tạo: Kinh nghiệm quốc tế và khuyến nghị chính sách cho Việt Nam",[74] trên góc độ học tập kinh nghiệm quốc tế, Bộ Tư Pháp xác định sẽ tiếp tục nghiên cứu các khuôn khổ chính sách, pháp luật đối với trí tuệ nhân tạo. Đây cũng là bước tiến quan trọng trong quá trình hoàn thiện khung pháp lý về AI tại Việt Nam.

 

3.2. Một số đề xuất trong việc quản lý công nghệ Deepfake tại Việt Nam

Deepfake vừa là một công cụ hữu hiệu cho con người trong thời đại số, song cũng kèm theo đó là những hiểm họa khôn lường. Vì vậy, nhóm tác giả cho rằng việc sử dụng công nghệ này không nên bị cấm hoàn toàn nhưng cần có những giới hạn nhất định. Thông qua đó, nhóm tác giả đưa ra một số kiến nghị như sau:


Một là, trong tương lai gần, nhằm nhanh chóng đáp ứng sự phát triển thần tốc của Deepfake nói riêng và AI nói chung, Nhà nước nên cân nhắc sửa đổi, bổ sung một số quy định pháp luật hiện hành. Thứ nhất, đối với các hành vi sai phạm có sử dụng Deepfake, công nghệ này có thể được coi là công cụ gây án, vì vậy, cần luật định rõ đó là một tình tiết tăng nặng trách nhiệm hình sự[75] riêng biệt, do có sự can thiệp của trí tuệ nhân tạo. Thứ hai, trong mục Tội phạm trong lĩnh vực công nghệ thông tin, mạng viễn thông,[76] BLHS 2015, chưa có bất kỳ quy định cụ thể nào liên quan tới tội phạm mạng, tội phạm sử dụng công nghệ cao. Vì vậy, cần bổ sung tại mục này các khung pháp lý liên quan tới tội sử dụng Deepfake làm giả thông tin hoặc giả mạo người khác gây mất uy tín, ảnh hưởng thanh danh, thất thoát tài sản hoặc để lại hậu quả nghiêm trọng.


Hai là, tiếp tục xây dựng và hoàn thiện một khung hành lang pháp lý riêng đối với công nghệ AI, trong đó có Deepfake. Đối với thực trạng công nghệ hiện nay, Việt Nam có thể tham khảo, nghiên cứu các kinh nghiệm quốc tế về khuôn khổ chính sách, pháp luật đối với trí tuệ nhân tạo để  xây dựng một bộ luật cụ thể dành riêng cho AI. Ví dụ, tham khảo các chế tài của Liên minh châu Âu và Hoa Kỳ thì Việt Nam có thể quy định các nhà cung cấp, sáng tạo tại Việt Nam khi sản xuất ra một nội dung dưới bất kỳ hình thức nào, đặc biệt là được phân phối trên các nền tảng trực tuyến phải gắn nhãn hoặc thông báo rõ với người tiếp cận về sự hiện diện của công nghệ Deepfake trong các sản phẩm của họ. 


Ba là, nhà nước cũng cần tăng cường công tác tuyên truyền, giáo dục nâng cao nhận thức của người dân về Deepfake, giúp người dân nhận thức được về những lợi và hại khi sử dụng công nghệ mới này. Công tác tuyên truyền, giáo dục này cần được thực hiện rộng rãi, đa dạng trong cả nhà trường, cơ quan nhà nước, doanh nghiệp. Cùng với đó, mỗi cá nhân cũng cần tự bảo vệ mình, cẩn thận khi công khai các thông tin trên môi trường số và chủ động trong việc đòi lại công bằng cho bản thân khi hình ảnh, nhân phẩm hay danh dự bị xâm phạm. Từ đó xây dựng ý thức, trách nhiệm trong việc đấu tranh phòng chống tội phạm lợi dụng Deepfake trên môi trường mạng.

 

Kết luận

Sự ra đời của Deepfake, từ một bước tiến công nghệ đầy hứa hẹn, đã trở thành con dao hai lưỡi, gây ra những hệ lụy nghiêm trọng đối với đời sống cá nhân, xã hội và quốc gia. Không chỉ làm mờ đi ranh giới giữa thật và giả, Deepfake còn tạo nên những lỗ hổng lớn về niềm tin trong thời đại số hoá. Trong bối cảnh đầy phức tạp đó, bài viết đã tập trung vào bản chất của Deepfake đồng thời phân tích kinh nghiệm từ một số các quốc gia tiên phong tại Liên minh châu Âu và Hoa Kỳ trong việc xây dựng hành lang pháp lý để kiểm soát và ứng phó với công nghệ này. Tại Việt Nam, dù chưa phải tâm điểm của các nguy cơ xảy đến từ Deepfake, nhưng đứng trước ngưỡng cửa của hội nhập, của thời đại công nghệ, nước ta cần chủ động hơn trong việc xây dựng khung pháp lý dành cho Deepfake, không chỉ để đối phó mà còn để phòng ngừa những nguy cơ tiềm tàng mà Deepfake có thể đem đến. Tương lai của Deepfake phụ thuộc vào cách con người sử dụng nó: để Deepfake trở thành động lực phát triển hay là một thách thức làm suy thoái cộng đồng. Và câu trả lời nằm ở những bước đi pháp lý mạnh mẽ, linh hoạt và sáng tạo ngay từ bây giờ.


DANH MỤC TÀI LIỆU THAM KHẢO 

[1] Nguyễn Thị Phương Anh - Sinh viên Khoa Luật Quốc tế - Học viện Ngoại giao; Phạm Thị Ngân - Sinh viên Khoa Luật Quốc tế - Học viện Ngoại giao; Hoàng Khánh Ly - Sinh viên Khoa Luật Quốc tế - Học viện Ngoại giao.

[2]Trần Linh Huân, Đặng Trần Hạ Vy (2024) ‘Nhận diện thủ đoạn lừa đảo qua công nghệ Deepfake - Một số giải pháp phòng, tránh’ Tạp chí Ngân hàng, (25/7/2024) <https://tapchinganhang.gov.vn/nhan-dien-thu-doan-lua-dao-qua-cong-nghe-Deepfake-mot-so-giai-phap-phong-tranh.htm> truy cập ngày 07/10/2024.

[3] Trần Văn Liệu, ‘Tình hình lập pháp của các nước liên quan đến công nghệ Deepfake’ Tạp chí An toàn Thông tin (2021) <https://m.antoanthongtin.gov.vn/chinh-sach---chien-luoc/tinh-hinh-lap-phap-cua-cac-nuoc-lien-quan-den-cong-nghe-Deepfake-106742?fbclid=IwZXh0bgNhZW0CMTEAAR2rN2sMFtBH9XlRrhOw6G_au0cAfSJUIbj4FOk1SdRgck6rL51OK5Feez8_aem_nS_l61Rg-G4d1cOuR35C6g> truy cập ngày 06/10/2024

[4] Ian Sample, ‘What are Deepfakes – and how can you spot them?’ (The Guardian, 2020) <https://www.theguardian.com/technology/2020/jan/13/what-are-Deepfakes-and-how-can-you-spot-them> truy cập ngày 06/10/2024

[5] Kelleher, J. D. (2019). Deep learning. MIT press, tr 1.

[6] Nguyên văn: Training phase

[7] Nguyên văn: Segmentation mask

[8] Nguyên văn: computer vision model

[9] Jay Lowe (2022) What is a Segmentation Mask? An Introduction. Roboflow, <https://blog.roboflow.com/how-to-create-segmentation-masks-with-roboflow/> truy cập ngày 10/11/2024.

[10] Nguyên văn: Test phase

[11] Như mục 4.

[12] Deeptrace là công ty tạo ra những công cụ nhận diện nội dung số được chỉnh sửa bởi con người hoặc công cụ AI.

[13] Tim Nudd, ‘W+K and Deepfake Willie Nelson Hype Omega Mart, a Mind-Bending Las Vegas Attraction’, (CLIOS, 2021) <https://musebyclios.com/art/wk-and-Deepfake-willie-nelson-hype-omega-mart-mind-bending-las-vegas-attraction/> truy cập ngày 17/10/2024.

[14] Như mục 13.

[15] Devin Coldewey, ‘This technology can make the Mona Lisa talk’ (2019) World Economic Forum

[16] Isobel Asher Hamilton, ‘The Mona Lisa was brought to life in vivid detail by Deepfake AI researchers at Samsung’  (Business Insider, 2019),

[17] ‘Deepfake Statistics and Trends About Cyber Threats 2024’, (Keepnet, 2024) <https://keepnetlabs.com/blog/Deepfake-statistics-and-trends-about-cyber-threats-2024> truy cập ngày 03/11/2024.

[18] Henry Ajder, Giorgio Patrini, Francesco Cavalli, và Laurence Cullen, ‘The State of Deepfakes: Landscape, Threats, and Impact’ [2019] Deeptrace tr 7.

[19] Du Lam, ‘Ai cũng có thể là nạn nhân của Deepfake khiêu dâm trong kỷ nguyên AI’ (Vietnamnet, 2024) <https://vietnamnet.vn/ai-cung-co-the-la-nan-nhan-cua-Deepfake-khieu-dam-trong-ky-nguyen-ai-2342245.html> truy cập ngày 19/11/2024.

[20] Quốc Đạt, ‘2024 - năm “siêu bầu cử” định hình tương lai’  Báo Đại biểu Nhân dân (07/02/2024)

[21] Sasha Pezenik và Brittany, ‘ABC News Fake Biden robocall urges New Hampshire voters to skip their primary’ ABC News (23/01/2024) <https://abcnews.go.com/Politics/fake-biden-robocall-urges-new-hampshire-voters-skip/story?id=106580926> truy cập ngày 12/11/2024.

[22] Lubna Takruri, ‘The role of AI in detecting Deepfake fraud’  (Onfido, 16/11/2023) <https://onfido.com/blog/ai-detecting-Deepfake-fraud/> truy cập ngày 15/11/2024.

[23] Như mục 17.

[24] ThS. Trần Linh Huân và Đặng Trần Hạ Vy, ‘Nhận diện thủ đoạn lừa đảo qua công nghệ Deepfake - Một số giải pháp phòng, tránh (2024) Tạp chí Ngân Hàng <https://tapchinganhang.gov.vn/nhan-dien-thu-doan-lua-dao-qua-cong-nghe-Deepfake-mot-so-giai-phap-phong-tranh.htm> truy cập ngày 18/11/2024.

[25] Đạo luật Trí tuệ nhân tạo của Liên minh châu Âu có hiệu lực từ ngày 01 tháng 8 năm 2024.

[26[ Phạm Minh Hạnh, ‘ĐẠO LUẬT TRÍ TUỆ NHÂN TẠO CỦA LIÊN MINH CHÂU ÂU - MỘT SỐ NỘI DUNG VÀ VẤN ĐỀ PHÁP LÝ’ (2024) Kỳ 2 (413) Pháp luật quốc tế <https://danchuphapluat.vn/uploads//files/2024/10/10-pham-minh-hanh-413.pdf> truy cập ngày 10/11/2024.

[27] Đạo luật Trí tuệ nhân tạo 2024, Chương I, Điều 2.

[28] Đạo luật Trí tuệ nhân tạo 2024, Chương I, Điều 2, khoản 3, khoản 4, khoản 6, khoản 8, khoản 10 và khoản 12.

[29] Đạo luật Trí tuệ nhân tạo 2024, Chương I, Điều 3, khoản 1.

[30] Đạo luật Trí tuệ nhân tạo 2024, Chương I, Điều 3, khoản 3.

[31] Đạo luật Trí tuệ nhân tạo 2024, Chương I, Điều 3, khoản 7.

[32] Đạo luật Trí tuệ nhân tạo 2024, Chương I, Điều 3, khoản 60.

[33] AI đa dụng là một hệ thống AI có khả năng thực hiện một loạt các nhiệm vụ khác nhau với mức độ thông minh và hiệu quả tương đương hoặc thậm chí vượt qua con người, AI đa dụng có thể học hỏi và thích nghi với nhiều lĩnh vực và nhiệm vụ khác nhau (P.A.T (NASATI), ‘Trí tuệ nhân tạo đa dụng là gì?’, (Bộ Khoa học và Công nghệ - Cục thông tin khoa học và công nghệ quốc gia, 2024) <https://www.vista.gov.vn/vi/news/khoa-hoc-doi-song/tri-tue-nhan-tao-da-dung-la-gi-8643.html> truy cập ngày: 15/11/2024.

[34] Đạo luật Trí tuệ nhân tạo 2024, Đoạn trích 133.

[35] Đạo luật Trí tuệ nhân tạo 2024, Đoạn trích 134.

[36] Đạo luật Trí tuệ nhân tạo 2024, Đoạn trích 134; Felipe Romero Moreno, ‘Generative AI and Deepfakes: a human rights approach to tackling harmful content’ (2024) 38 (3) International Review of Law, Computers & Technology tr297 - 326 <https://www.tandfonline.com/doi/full/10.1080/13600869.2024.2324540#d1e109> truy cập ngày: 10/11/2024.

[37] Hiến chương của Liên minh châu Âu, Điều 11 và Điều 13.

[38] Nguyên văn: Unacceptable risk.

[39] Nguyên văn: High risk.

[40] Nguyên văn: Limited risk.

[41] Nguyên văn: Minimal risk.

[42] Đạo luật Trí tuệ nhân tạo 2024, Chương 4.

[43] Nguyên văn:  Generative AI

[44] Phạm Minh Hạnh, ‘ĐẠO LUẬT TRÍ TUỆ NHÂN TẠO CỦA LIÊN MINH CHÂU ÂU - MỘT SỐ NỘI DUNG VÀ VẤN ĐỀ PHÁP LÝ’ (2024) Kỳ 2 (413) Pháp luật quốc tế <https://danchuphapluat.vn/uploads//files/2024/10/10-pham-minh-hanh-413.pdf> truy cập ngày: 10/11/2024.

[45] Quy định Bảo vệ dữ liệu chung  đã được Nghị viện Châu Âu thông qua vào ngày 14/4/2016.

[46] Quy định Bảo vệ dữ liệu chung 2016, Điều 6.

[47] Quy định Bảo vệ dữ liệu chung 2016, Điểm f  Khoản 1 Điều 6.

[48] Nguyên văn: Automated individual decision-making.

[49] Quy định Bảo vệ dữ liệu chung 2016, Điều 22.

[50] Đạo luật Trí tuệ nhân tạo 2024, Chương III, Mục 3, Điều 16.

[51] Đạo luật Trí tuệ nhân tạo 2024, Chương III, Mục 3, Điều 17.

[52] Adi Robertson, ‘Virginia’s ‘revenge porn’ laws now officially cover Deepfakes’ (2019), The Verge <https://www.theverge.com/2019/7/1/20677800/virginia-revenge-porn-Deepfakes-nonconsensual-photos-videos-ban-goes-into-effect> truy cập ngày: 08/11/2024.

[53] HB 2678: Unlawful dissemination or sale of images of another (2019), Virginia Law Portal

<https://legiscan.com/VA/bill/HB2678/2019> truy cập ngày: 18/11/2024.

[54] Nguyên văn: Synthetic media.

[55] SB 5959, 2020.

[56] SB 78, 2021.

[57] HB 0085, 2021.

[58] Trần Văn Liệu, ‘Tình hình lập pháp của các nước liên quan đến công nghệ Deepfake’ (2021), Tạp chí an toàn thông tin

[59] Meneses, J. P, Seeking to define deepfakes from U.S. state laws. Communication & Society (2024), 37(3), 219-235.

[60] SB 309 HD2 CD1. (2021). ‘Privacy in the First Degree; Deep Fakes’.

[61] Nguyên văn: Malicious Deep Fake Accountability Act of 2018.

[62] Trần Văn Liệu, ‘Tình hình lập pháp của các nước liên quan đến công nghệ Deepfake’ Tạp chí an toàn thông tin (2021)

[63] Deepfakes Accountability Act, được đề xuất bởi Hạ viện, tháng 6/2019.

[64] Nguyên văn: Digital watermarking.

[65] Digital Evidence and Fake Information Accountability and Countermeasures Enforcement Act (Tạm dịch:Đạo luật thực thi trách nhiệm và biện pháp đối phó về bằng chứng kỹ thuật số và thông tin giả mạo), được thông qua bởi Thượng viện, tháng 7/2024.

[66] Lauren, ‘The Senate passed a bill cracking down on sexually explicit Deepfakes’ The Verge (2024) <https://www.theverge.com/2024/7/24/24205275/senate-passes-defiance-act-non-consensual-intimate-ai-Deepfakes> truy cập ngày: 09/11/2024.

[67] Robert Chesney and Danielle Keats Citron, ‘Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security’ (2018) <https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3213954> truy cập ngày: 08/11/2024.

[68] Bộ Luật Dân sự 2015, Khoản 3 Điều 32.

[69] Bộ Luật Dân sự 2015, Khoản 5 Điều 34.

[70] Bộ Luật Hình sự 2015, được sửa đổi, bổ sung 2017, Điểm e Khoản 2 Điều 2.

[71] Bộ Luật Hình sự 2015, Điều 326,  sửa đổi 2017, Khoản 124 Điều 1.

[72] Luật An ninh mạng 2018, Điều 18.

[73] Bộ Luật Hình sự 2015, Điều 174.

[74] Hội thảo được tổ chức ngày 10/5/2024 tại Hà Nội

[75] Bộ Luật Hình sự 2015, được sửa đổi, bổ sung 2017, Điều 52.

[76] Bộ Luật Hình sự 2015, được sửa đổi, bổ sung 2017, Mục 2, Chương XXI.

[1] Nguyễn Thị Phương Anh - Sinh viên Khoa Luật Quốc tế - Học viện Ngoại giao; Phạm Thị Ngân - Sinh viên Khoa Luật Quốc tế - Học viện Ngoại giao; Hoàng Khánh Ly - Sinh viên Khoa Luật Quốc tế - Học viện Ngoại giao.

[2]Trần Linh Huân, Đặng Trần Hạ Vy (2024) ‘Nhận diện thủ đoạn lừa đảo qua công nghệ Deepfake - Một số giải pháp phòng, tránh’ Tạp chí Ngân hàng, (25/7/2024) <https://tapchinganhang.gov.vn/nhan-dien-thu-doan-lua-dao-qua-cong-nghe-Deepfake-mot-so-giai-phap-phong-tranh.htm> truy cập ngày 07/10/2024.

[3] Trần Văn Liệu, ‘Tình hình lập pháp của các nước liên quan đến công nghệ Deepfake’ Tạp chí An toàn Thông tin (2021) <https://m.antoanthongtin.gov.vn/chinh-sach---chien-luoc/tinh-hinh-lap-phap-cua-cac-nuoc-lien-quan-den-cong-nghe-Deepfake-106742?fbclid=IwZXh0bgNhZW0CMTEAAR2rN2sMFtBH9XlRrhOw6G_au0cAfSJUIbj4FOk1SdRgck6rL51OK5Feez8_aem_nS_l61Rg-G4d1cOuR35C6g> truy cập ngày 06/10/2024

[4] Ian Sample, ‘What are Deepfakes – and how can you spot them?’ (The Guardian, 2020) <https://www.theguardian.com/technology/2020/jan/13/what-are-Deepfakes-and-how-can-you-spot-them> truy cập ngày 06/10/2024

[5] Kelleher, J. D. (2019). Deep learning. MIT press, tr 1.

[6] Nguyên văn: Training phase

[7] Nguyên văn: Segmentation mask

[8] Nguyên văn: computer vision model

[9] Jay Lowe (2022) What is a Segmentation Mask? An Introduction. Roboflow, <https://blog.roboflow.com/how-to-create-segmentation-masks-with-roboflow/> truy cập ngày 10/11/2024.

[10] Nguyên văn: Test phase

[11] Như mục 4.

[12] Deeptrace là công ty tạo ra những công cụ nhận diện nội dung số được chỉnh sửa bởi con người hoặc công cụ AI.

[13] Tim Nudd, ‘W+K and Deepfake Willie Nelson Hype Omega Mart, a Mind-Bending Las Vegas Attraction’, (CLIOS, 2021) <https://musebyclios.com/art/wk-and-Deepfake-willie-nelson-hype-omega-mart-mind-bending-las-vegas-attraction/> truy cập ngày 17/10/2024.

[14] Như mục 13.

[15] Devin Coldewey, ‘This technology can make the Mona Lisa talk’ (2019) World Economic Forum

[16] Isobel Asher Hamilton, ‘The Mona Lisa was brought to life in vivid detail by Deepfake AI researchers at Samsung’  (Business Insider, 2019),

[17] ‘Deepfake Statistics and Trends About Cyber Threats 2024’, (Keepnet, 2024) <https://keepnetlabs.com/blog/Deepfake-statistics-and-trends-about-cyber-threats-2024> truy cập ngày 03/11/2024.

[18] Henry Ajder, Giorgio Patrini, Francesco Cavalli, và Laurence Cullen, ‘The State of Deepfakes: Landscape, Threats, and Impact’ [2019] Deeptrace tr 7.

[19] Du Lam, ‘Ai cũng có thể là nạn nhân của Deepfake khiêu dâm trong kỷ nguyên AI’ (Vietnamnet, 2024) <https://vietnamnet.vn/ai-cung-co-the-la-nan-nhan-cua-Deepfake-khieu-dam-trong-ky-nguyen-ai-2342245.html> truy cập ngày 19/11/2024.

[20] Quốc Đạt, ‘2024 - năm “siêu bầu cử” định hình tương lai’  Báo Đại biểu Nhân dân (07/02/2024)

[21] Sasha Pezenik và Brittany, ‘ABC News Fake Biden robocall urges New Hampshire voters to skip their primary’ ABC News (23/01/2024) <https://abcnews.go.com/Politics/fake-biden-robocall-urges-new-hampshire-voters-skip/story?id=106580926> truy cập ngày 12/11/2024.

[22] Lubna Takruri, ‘The role of AI in detecting Deepfake fraud’  (Onfido, 16/11/2023) <https://onfido.com/blog/ai-detecting-Deepfake-fraud/> truy cập ngày 15/11/2024.

[23] Như mục 17.

[24] ThS. Trần Linh Huân và Đặng Trần Hạ Vy, ‘Nhận diện thủ đoạn lừa đảo qua công nghệ Deepfake - Một số giải pháp phòng, tránh (2024) Tạp chí Ngân Hàng <https://tapchinganhang.gov.vn/nhan-dien-thu-doan-lua-dao-qua-cong-nghe-Deepfake-mot-so-giai-phap-phong-tranh.htm> truy cập ngày 18/11/2024.

[25] Đạo luật Trí tuệ nhân tạo của Liên minh châu Âu có hiệu lực từ ngày 01 tháng 8 năm 2024.

[26[ Phạm Minh Hạnh, ‘ĐẠO LUẬT TRÍ TUỆ NHÂN TẠO CỦA LIÊN MINH CHÂU ÂU - MỘT SỐ NỘI DUNG VÀ VẤN ĐỀ PHÁP LÝ’ (2024) Kỳ 2 (413) Pháp luật quốc tế <https://danchuphapluat.vn/uploads//files/2024/10/10-pham-minh-hanh-413.pdf> truy cập ngày 10/11/2024.

[27] Đạo luật Trí tuệ nhân tạo 2024, Chương I, Điều 2.

[28] Đạo luật Trí tuệ nhân tạo 2024, Chương I, Điều 2, khoản 3, khoản 4, khoản 6, khoản 8, khoản 10 và khoản 12.

[29] Đạo luật Trí tuệ nhân tạo 2024, Chương I, Điều 3, khoản 1.

[30] Đạo luật Trí tuệ nhân tạo 2024, Chương I, Điều 3, khoản 3.

[31] Đạo luật Trí tuệ nhân tạo 2024, Chương I, Điều 3, khoản 7.

[32] Đạo luật Trí tuệ nhân tạo 2024, Chương I, Điều 3, khoản 60.

[33] AI đa dụng là một hệ thống AI có khả năng thực hiện một loạt các nhiệm vụ khác nhau với mức độ thông minh và hiệu quả tương đương hoặc thậm chí vượt qua con người, AI đa dụng có thể học hỏi và thích nghi với nhiều lĩnh vực và nhiệm vụ khác nhau (P.A.T (NASATI), ‘Trí tuệ nhân tạo đa dụng là gì?’, (Bộ Khoa học và Công nghệ - Cục thông tin khoa học và công nghệ quốc gia, 2024) <https://www.vista.gov.vn/vi/news/khoa-hoc-doi-song/tri-tue-nhan-tao-da-dung-la-gi-8643.html> truy cập ngày: 15/11/2024.

[34] Đạo luật Trí tuệ nhân tạo 2024, Đoạn trích 133.

[35] Đạo luật Trí tuệ nhân tạo 2024, Đoạn trích 134.

[36] Đạo luật Trí tuệ nhân tạo 2024, Đoạn trích 134; Felipe Romero Moreno, ‘Generative AI and Deepfakes: a human rights approach to tackling harmful content’ (2024) 38 (3) International Review of Law, Computers & Technology tr297 - 326 <https://www.tandfonline.com/doi/full/10.1080/13600869.2024.2324540#d1e109> truy cập ngày: 10/11/2024.

[37] Hiến chương của Liên minh châu Âu, Điều 11 và Điều 13.

[38] Nguyên văn: Unacceptable risk.

[39] Nguyên văn: High risk.

[40] Nguyên văn: Limited risk.

[41] Nguyên văn: Minimal risk.

[42] Đạo luật Trí tuệ nhân tạo 2024, Chương 4.

[43] Nguyên văn:  Generative AI

[44] Phạm Minh Hạnh, ‘ĐẠO LUẬT TRÍ TUỆ NHÂN TẠO CỦA LIÊN MINH CHÂU ÂU - MỘT SỐ NỘI DUNG VÀ VẤN ĐỀ PHÁP LÝ’ (2024) Kỳ 2 (413) Pháp luật quốc tế <https://danchuphapluat.vn/uploads//files/2024/10/10-pham-minh-hanh-413.pdf> truy cập ngày: 10/11/2024.

[45] Quy định Bảo vệ dữ liệu chung  đã được Nghị viện Châu Âu thông qua vào ngày 14/4/2016.

[46] Quy định Bảo vệ dữ liệu chung 2016, Điều 6.

[47] Quy định Bảo vệ dữ liệu chung 2016, Điểm f  Khoản 1 Điều 6.

[48] Nguyên văn: Automated individual decision-making.

[49] Quy định Bảo vệ dữ liệu chung 2016, Điều 22.

[50] Đạo luật Trí tuệ nhân tạo 2024, Chương III, Mục 3, Điều 16.

[51] Đạo luật Trí tuệ nhân tạo 2024, Chương III, Mục 3, Điều 17.

[52] Adi Robertson, ‘Virginia’s ‘revenge porn’ laws now officially cover Deepfakes’ (2019), The Verge <https://www.theverge.com/2019/7/1/20677800/virginia-revenge-porn-Deepfakes-nonconsensual-photos-videos-ban-goes-into-effect> truy cập ngày: 08/11/2024.

[53] HB 2678: Unlawful dissemination or sale of images of another (2019), Virginia Law Portal

<https://legiscan.com/VA/bill/HB2678/2019> truy cập ngày: 18/11/2024.

[54] Nguyên văn: Synthetic media.

[55] SB 5959, 2020.

[56] SB 78, 2021.

[57] HB 0085, 2021.

[58] Trần Văn Liệu, ‘Tình hình lập pháp của các nước liên quan đến công nghệ Deepfake’ (2021), Tạp chí an toàn thông tin

[59] Meneses, J. P, Seeking to define deepfakes from U.S. state laws. Communication & Society (2024), 37(3), 219-235.

[60] SB 309 HD2 CD1. (2021). ‘Privacy in the First Degree; Deep Fakes’.

[61] Nguyên văn: Malicious Deep Fake Accountability Act of 2018.

[62] Trần Văn Liệu, ‘Tình hình lập pháp của các nước liên quan đến công nghệ Deepfake’ Tạp chí an toàn thông tin (2021)

[63] Deepfakes Accountability Act, được đề xuất bởi Hạ viện, tháng 6/2019.

[64] Nguyên văn: Digital watermarking.

[65] Digital Evidence and Fake Information Accountability and Countermeasures Enforcement Act (Tạm dịch:Đạo luật thực thi trách nhiệm và biện pháp đối phó về bằng chứng kỹ thuật số và thông tin giả mạo), được thông qua bởi Thượng viện, tháng 7/2024.

[66] Lauren, ‘The Senate passed a bill cracking down on sexually explicit Deepfakes’ The Verge (2024) <https://www.theverge.com/2024/7/24/24205275/senate-passes-defiance-act-non-consensual-intimate-ai-Deepfakes> truy cập ngày: 09/11/2024.

[67] Robert Chesney and Danielle Keats Citron, ‘Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security’ (2018) <https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3213954> truy cập ngày: 08/11/2024.

[68] Bộ Luật Dân sự 2015, Khoản 3 Điều 32.

[69] Bộ Luật Dân sự 2015, Khoản 5 Điều 34.

[70] Bộ Luật Hình sự 2015, được sửa đổi, bổ sung 2017, Điểm e Khoản 2 Điều 2.

[71] Bộ Luật Hình sự 2015, Điều 326,  sửa đổi 2017, Khoản 124 Điều 1.

[72] Luật An ninh mạng 2018, Điều 18.

[73] Bộ Luật Hình sự 2015, Điều 174.

[74] Hội thảo được tổ chức ngày 10/5/2024 tại Hà Nội

[75] Bộ Luật Hình sự 2015, được sửa đổi, bổ sung 2017, Điều 52.

[76] Bộ Luật Hình sự 2015, được sửa đổi, bổ sung 2017, Mục 2, Chương XXI.


 
 
 

Bình luận


bottom of page