Sử dụng deepfake AI để ghép hình nhạy cảm, tống tiền nạn nhân

Mới đây, một người đàn ông ở Hòa Bình bị tội phạm sử dụng công nghệ deepfake AI để thực hiện hành vi cắt ghép, phát tán các hình ảnh nhạy cảm trên mạng xã hội để tống tiền. Đây là một trong số các trường hợp bị lừa đảo bởi AI được ghi nhận tại Việt Nam gần đây.

Theo các báo cáo an ninh mạng trong nước thời gian gần đây cho thấy, tội phạm mạng đã gia tăng sử dụng công nghệ AI như DeepFake, DeepVoice… trong các chiến dịch lừa đảo, tống tiền người dùng.

Thông tin mới được phát đi bởi Trung tâm xử lý tin giả, thông tin xấu độc Việt Nam (VAFC) thuộc Cục Phát thanh, Truyền hình và Thông tin điện tử (Bộ TT&TT) cho thấy, tình trạng sử dụng công nghệ DeepFake để cắt ghép, tạo video hay hình ảnh nhạy cảm giả mạo với mục đích lừa đảo, tống tiền người dùng đang gia tăng. Đã có những người dùng mạng xã hội tại Việt Nam bị kẻ xấu tống tiền dựa trên thủ đoạn này. Các hình ảnh, video giả mạo được chúng sử dụng rất giống thật, khiến người dùng rất khó phân biệt và dễ rơi vào bẫy của tội phạm mạng.

Trung tâm VAFC đã ghi nhận được phản ánh từ ông Q.T.L. (HB) về việc các đối tượng sử dụng công nghệ deepfake để thực hiện hành vi cắt ghép, phát tán các hình ảnh nhạy cảm trên mạng xã hội nhằm bôi nhọ danh dự, nhân phẩm và uy tín của cá nhân ông. Các đối tượng sau đó đã sử dụng những hình ảnh giả mạo này để tống tiền, yêu cầu ông L chuyển tiền vào ví điện tử và liên hệ qua email để xác nhận. 

deepfake-1723521451.jpg

Hình ảnh cắt từ video clip giả mạo ông Q.T.L. (Ảnh VAFC)

Trung tâm VAFC xác nhận, đây là một hình thức lừa đảo sử dụng công nghệ deepfake có khả năng tạo ra những hình ảnh giả mạo vô cùng chân thực để thực hiện hành vi phạm tội. VAFC đang phối hợp với cơ quan chức năng để điều tra làm rõ vụ việc của ông Q.T.L. và xử lý nghiêm các đối tượng vi phạm theo quy định của pháp luật.

Trung tâm VAFC phân tích, để thực hiện hành vi lừa đảo này, chúng sẽ sử dụng hình ảnh, thông tin cá nhân của nạn nhân được chia sẻ trên mạng xã hội (chủ yếu là nam giới có địa vị xã hội), sau đó sử dụng công nghệ để cắt ghép thông tin này vào các video clip nhạy cảm và nhắn tin, gọi điện đe dọa với mục đích tống tiền.

Chưa hết, một số nạn nhân bị các tổ chức lừa đảo giả danh là thám tử tư, gọi điện thông báo về việc phát hiện có mối quan hệ bất chính với những phụ nữ khác. Chúng sẽ gửi cho nạn nhân các hình ảnh nhạy cảm được tạo ra bởi AI với khuôn mặt của nạn nhân, sau đó yêu cầu chuyển một khoản tiền điện tử (USDT) với giá trị hàng tỷ đồng. Khi các nạn nhân sập bẫy, đối tượng sẽ hướng dẫn họ mua tiền điện tử, chuyển tiền đến các tài khoản ví điện tử theo chỉ định để chiếm đoạt.

Trước tình hình kể trên, VAFC khuyến cáo người dùng mạng xã hội trong cả nước đặc biệt nâng cao cảnh giác và thực hiện các biện pháp phòng ngừa như: Cẩn trọng với những yêu cầu kết bạn từ người lạ trên mạng xã hội; Tuyệt đối không chia sẻ thông tin cá nhân, hình ảnh, video riêng tư với những người không quen biết; Kiểm tra kỹ nguồn gốc thông tin, hình ảnh, video trước khi chia sẻ; đồng thời báo cáo ngay cho cơ quan chức năng khi phát hiện các trường hợp nghi ngờ lừa đảo, tống tiền bằng deepfake.

deepfake-1723521643.jpg

Nếu bị những kẻ xấu tống tiền bằng công nghệ AI, người dân không nên chuyển tiền cho chúng mà hãy nhanh chóng báo cáo tới cơ quan công an nơi gần nhất để được hỗ trợ.

Nếu không may đã trở thành nạn nhân của Deepfake, người dân hãy giữ lại tất cả các bằng chứng liên quan (bao gồm tin nhắn, email, hình ảnh, video…), không chuyển tiền cho kẻ tống tiền, liên hệ ngay với cơ quan công an gần nhất để được hỗ trợ.

Minh Châu

Link nội dung: https://dothi.reatimes.vn/su-dung-deepfake-ai-de-ghep-hinh-nhay-cam-tong-tien-nan-nhan-5679.html