Microsoft cung cấp cho nạn nhân của hình ảnh deepfake khiêu dâm công cụ để xóa khỏi tìm kiếm Bing

Sự gia tăng của các hình ảnh deepfake khiêu dâm từ AI đã gây ra sự kinh hoàng đối với các nạn nhân. Để giải quyết vấn đề này, Microsoft vừa tung ta một công cụ mới, giúp các nạn nhân có thể xóa hình ảnh deepfake khiêu dâm của mình khỏi kết quả tìm kiếm của Bing AI.

Microsoft đã công bố quan hệ đối tác với StopNCII trong việc phát hiện và xóa bỏ các hình ảnh deepfake AI của người dùng. StopNCII là một tổ chức phi lợi nhuận của Anh, cho phép các nạn nhân của deepfake khiêu dâm tạo dấu vân tay kỹ thuật số (còn được gọi là "băm") vào các hình ảnh riêng tư trên thiết bị của họ, đánh dấu những hình ảnh nhạy cảm này. Sau đó, có thể theo dõi để xóa hình ảnh khi chúng xuất hiện trên một số nền tảng nhất định.

Các hàm băm của StopNCII đang được sử dụng bởi các trang mạng xã hội như Facebook, Instagram, TikTok, Threads, Snapchat và Reddit, cũng như các nền tảng như Bumble, OnlyFans, Aylo (chủ sở hữu của một số trang web khiêu dâm phổ biến, bao gồm PornHub) và thậm chí cả Niantic, nhà phát triển AR đằng sau Pokémon Go. Bing là công cụ tìm kiếm đầu tiên tham gia liên minh đối tác.

deepfake-ai-1725687456.jpg
Bing đã cung cấp một công cụ mới giúp người dùng báo cáo và xóa các hình ảnh deepfake khiêu dâm của mình khỏi kết quả tìm kiếm của trình duyệt này.

Trong một bài đăng trên blog, Microsoft cho biết chương trình thí điểm đến cuối tháng 8, dựa trên cơ sở dữ liệu của StopNII, đã xóa 268.000 hình ảnh nhạy cảm được trả về thông qua tìm kiếm hình ảnh của Bing. Trước đây, Microsoft đã cung cấp một công cụ báo cáo trực tiếp, nhưng công ty cho biết điều đó đã được chứng minh là không đủ.

Microsoft cho biết trong bài đăng trên blog vào thứ năm rằng: "Chúng tôi đã lắng nghe những lo ngại từ các nạn nhân, chuyên gia và các bên liên quan khác rằng việc chỉ báo cáo của người dùng có thể không thực sự hiệu quả, không giải quyết được những rủi ro liên quan đến hình ảnh khiêu dâm được truy cập thông qua tìm kiếm”.

 "Các ông cụ tìm kiếm chắc chắn là cửa ngõ để tìm thấy hình ảnh, vì vậy bước đi chủ động này của Bing đang đặt lợi ích của những người bị ảnh hưởng trực tiếp lên hàng đầu", Sophie Mortimer, quản lý của Đường dây trợ giúp khiêu dâm trả thù cho biết.

Microsoft có các quy trình báo cáo tương tự đối với lạm dụng NCII dựa trên hình ảnh thực, cũng như các chính sách ứng xử nghiêm ngặt chống lại hành vi tống tiền dựa trên những hành ảnh nhạy cảm - còn được gọi là sextortion. Đầu năm nay, Microsoft đã cung cấp cho StopNCII công nghệ PhotoDNA nội bộ của mình, một công cụ "lấy dấu vân tay" tương tự đã được sử dụng để phát hiện và giúp xóa tài liệu lạm dụng tình dục trẻ em.

deepfake-ai-1725688067.jpg
Bing là công cụ tìm kiếm đầu tiên tham gia liên minh đối tác với StopNCII để chống lại các hành vi liên quan tới deepfake AI khiêu dâm, tống tiền.

Nếu bạn tin rằng hình ảnh của mình (rõ ràng hoặc không rõ ràng) có nguy cơ bị phát tán hoặc bị thao túng bởi những kẻ xấu, bạn có thể thêm dấu vân tay kỹ thuật số của mình vào StopNCII để phát hiện chúng trong tương lai. Công cụ này không yêu cầu bạn tải lên hoặc lưu trữ ảnh hoặc video cá nhân lên trang web. Thay vào đó, hình ảnh được lưu giữ trên thiết bị cá nhân của bạn.

Để tạo dấu vân tay kỹ thuật số của mình trên StopNCII, người dùng chỉ cần Truy cập Stopncii.org, sau đó nhấp vào "Create your case" (Tạo trường hợp của bạn) ở góc trên bên phải và thực hiện theo các hướng dẫn. Trang web sẽ yêu cầu bạn chọn ảnh hoặc video từ thư viện ảnh của thiết bị. StopNCII sau đó quét nội dung và tạo băm cho từng hình ảnh. Sau đó, băm được gửi đến các nền tảng tham gia. Sẽ không có hình ảnh hoặc video nào được chia sẻ ra bên ngoài. Cuối cùng, kết quả trả về sẽ cho biết hình ảnh hoặc video của bạn có được phát hiện trực tuyến hay không.

Hướng giải quyết của Bing khiến nhiều người lập tức liên tưởng đến công cụ tìm kiếm phổ biến hơn: Google Search.

Theo một cuộc điều tra của Wired, Google Search cung cấp các công cụ riêng để báo cáo và xóa hình ảnh khiêu dâm khỏi kết quả tìm kiếm, nhưng đã phải đối mặt với sự chỉ trích từ các cựu nhân viên và nạn nhân vì không hợp tác với StopNCII. Kể từ năm 2020, người dùng Google tại Hàn Quốc đã báo cáo 170.000 liên kết tìm kiếm và YouTube có nội dung khiêu dâm không mong muốn.

Vấn đề khỏa thân deepfake AI đã lan rộng. Các công cụ của StopNCII chỉ có hiệu quả với những người trên 18 tuổi, nhưng các trang web "cởi đồ" đã gây ra vấn đề cho học sinh trung học trên khắp nước Mỹ và nhiều quốc gia khác. Thật không may, Mỹ lại không có luật khiêu dâm deepfake AI để buộc bất kỳ ai phải chịu trách nhiệm, vì vậy đất nước này đang dựa vào cách tiếp cận chắp vá của luật tiểu bang và địa phương để giải quyết vấn đề.

Các công tố viên San Francisco đã công bố một vụ kiện vào tháng 8 để xóa bỏ 16 trang web "cởi đồ" nhiều nhất. Theo một công cụ theo dõi luật khiêu dâm deepfake do Wired tạo ra, 23 tiểu bang của Mỹ đã thông qua luật để giải quyết vấn đề deepfake, trong khi 9 tiểu bang đã bác bỏ các đề xuất.