Deepfake ngày một tinh vi hơn, gây "đau đầu" cho cơ quan quản lý

Những hình ảnh deepfake đầy sống động của Taylor Swift đang khiến các nhà lập pháp Mỹ phải lo lắng vì công nghệ này ngày càng tinh vi hơn, ẩn chứa những mối đe dọa về an ninh xã hội. Đây cũng là mối bận tâm lớn tại nhiều quốc gia trên thế giới.

Một bức ảnh deepfake nhạy cảm do AI tạo ra về Swift đã được xem 47 triệu lần trước khi bị gỡ xuống khỏi các nền tảng mạng xã hội Instagram và X vừa qua. Mặc dù hình ảnh này và một số sản phẩm tương tự do AI tạo ra đã nhanh chóng bị xóa bỏ, thậm chí các từ khóa như "Taylor Swift", "Taylor Swift AI" và "Taylor AI" cũng đã bị chặn, tuy nhiên điều này cũng đã khiến các nhà lập pháp Mỹ phải nghiêm túc nhìn nhận lại về câu chuyện của deepfake.

Bên cạnh việc xóa các hình ảnh, "X" cho biết họ sẽ thực hiện "các hành động thích hợp" đối với các tài khoản liên quan đến việc phát tán các video giả mạo. Công ty thuộc sở hữu của Elon Musk cho biết thêm: “Chúng tôi đang theo dõi chặt chẽ tình hình để đảm bảo rằng mọi vi phạm tiếp theo sẽ được giải quyết ngay lập tức và nội dung sai phạm sẽ bị xóa”. Hiện tại, không có luật liên bang nào (của Mỹ) ngăn cản một người tạo hoặc chia sẻ hình ảnh deepfake mặc dù ở cấp tiểu bang, đã có một số ý kiến ​​phản đối từ các nhà lập pháp địa phương.

Việc Taylo Swift trở thành mục tiêu của các đối tượng xấu khi sử dụng AI để tạo ra những bức ảnh deepfake có tính sinh động cao đang gióng lên hồi chuông cảnh báo đối với các nhà lập pháp, không chỉ ở riêng Mỹ. (Ảnh minh họa)

Giờ đây, khi các trang mạng xã hội đăng tải những bức ảnh deepfake rõ ràng của Taylor Swift, có lẽ là cái tên nổi tiếng nhất làng giải trí Mỹ, các chính trị gia ở Capitol Hill đang vào cuộc. Thành viên Hạ viện Mỹ, ông Joe Morelle (D-NY) gọi việc công bố những bức ảnh giả mạo kể trên là "kinh khủng".

Một nghiên cứu năm ngoái cho thấy số lượng ảnh chỉnh sửa đã tăng 550% so với năm 2019 nhờ việc sử dụng AI ngày càng tăng.

Morelle năm ngoái đã giới thiệu Đạo luật ngăn chặn hình ảnh thân mật giả mạo sâu, quy định việc chia sẻ nội dung khiêu dâm deepfake mà không có sự đồng ý là bất hợp pháp. Người này cho rằng cần phải có hành động khẩn cấp ngay bây giờ vì những hình ảnh và video như vậy "có thể gây ra tổn hại không thể khắc phục được về mặt tinh thần, tài chính và danh tiếng - và thật không may, phụ nữ bị ảnh hưởng một cách không cân xứng".

Cũng theo một báo cáo được công bố năm ngoái cho biết nội dung khiêu dâm chiếm phần lớn trong các hình ảnh AI deepfake và phụ nữ chiếm 99% trong số những hình ảnh như vậy.

Một đại diện Đảng Dân chủ khác của Mỹ đến từ New York, Yvette Clarke, đã đăng một dòng tweet trên "X" cho biết: "Chuyện xảy ra với Taylor Swift không có gì mới. Trong nhiều năm, phụ nữ đã trở thành mục tiêu của các trò deepfake mà không có sự đồng ý của họ. Và với những tiến bộ trong AI, tạo ra deepfakes dễ dàng hơn và rẻ hơn. Đây là vấn đề mà cả hai bên và ngay cả Swift cũng có thể cùng nhau giải quyết."

Tài khoản "X" đăng tải những hình ảnh giả mạo kể trên thực tế đã bị vô hiệu hóa trong bối cảnh có tin đồn rằng nhóm pháp lý của Swift sẽ kiện các trang web và tài khoản đã đăng những hình ảnh giả mạo khiêu dâm.

Nhiều nghệ sĩ Việt cũng đã từng là nạn nhân của các đối tượng xấu sử dụng AI để tạo ra những bức ảnh nhạy cảm. (Ảnh Báo Pháp luật).

Tại Việt Nam, thời gian qua, Bộ Thông tin và Truyền thông cùng các cơ quan chức năng khác cũng đã liên tục cảnh báo về chiêu trò lợi dụng công nghệ deepfake để thực hiện các hành vi lừa đảo trực tuyến, đặc biệt trên các mạng xã hội như facebook, zalo,... Các đối tượng xấu sử dụng công nghệ trí tuệ nhân tạo (AI) để tạo ra những video hoặc hình ảnh giả, sao chép chân dung để tạo ra các đoạn video giả người thân, bạn bè, thực hiện các cuộc gọi lừa đảo, gây thiệt hại lớn cho người dùng. Thậm chí, công nghệ này còn có thể được sử dụng cho các mục đích khác như tấn công chính trị, tạo ra những tin tức giả mạo hoặc phá hoại danh tiếng của người khác.

Theo đại diện Bộ Thông tin và Truyền thông, người dân cần đặc biệt cảnh giác trước các chiêu trò này. Cuộc gọi lừa đảo deepfake dù tinh vi nhưng vẫn có những dấu hiệu nhất định có thể nhận biết như  thời gian gọi thường rất ngắn, chỉ vài giây. Đặc biệt, khuôn mặt của người trong cuộc gọi deepfake  thường thiếu tính cảm xúc và khá "trơ" khi nói hoặc tư thế của họ trông lúng túng, không tự nhiên, hướng đầu và cơ thể của họ trong video không nhất quán với nhau…