Sau Elon Musk, đến lượt CEO hãng siêu xe Ferrari bị giả giọng bằng deepfake AI

Một kẻ lừa đảo đã giả giọng CEO Ferrari để liên hệ với một lãnh đạo cấp cao khác của công ty. Rất may, người này đủ thông minh để đặt ra các câu hỏi cá nhân nhằm mục đích xác định danh tính. Đây là vụ lừa đảo, sử dụng deepfake AI mới nhất đối với lãnh đạo các công ty lớn trên thế giới được ghi nhận.

Sự tiến bộ nhanh chóng của trí tuệ nhân tạo đang trang bị cho những kẻ lừa đảo những công cụ mới để thực hiện các mục đích phạm tội trực tuyến, nhắm tới những mục tiêu cấp cao. Nhiều người nổi tiếng và có sức ảnh hưởng trên thế giới đã trở thành nạn nhân của deepfake như CEO Tesla Elon Musk, Tổng thống Mỹ Joe Binden, cựu tổng thống Mỹ Donal Trump, các diễn viên Tom Cruise, Leo DiCaprio, ca sĩ Taylor Swift… Mới đây, một vụ lừa đảo deepfake đã được phát hiện khi những kẻ xấu đã lợi dụng công nghệ để giả giọng Giám đốc điều hành Ferrari là Benedetto Vigna và nhắn tin, gọi điện đến một lãnh đạo cấp cao khác.

deepfakeai-ceo-ferrari-1722333349.jpg

Lãnh đạo công ty siêu xe "Ngựa chồm" đã trở thành mục tiêu mới nhất của tội phạm lừa đảo sử dụng deepfake AI.

Vụ việc ghi nhận kẻ lừa đảo đã gửi một loạt tin nhắn WhatsApp mạo danh CEO của Ferrari. Các tin nhắn, tìm kiếm sự giúp đỡ khẩn cấp cho một thương vụ mua lại được cho là bí mật, đến từ một số điện thoại khác nhưng có ảnh đại diện là Vigna đang đứng trước biểu tượng Ferrari.

Một trong những tin nhắn có nội dung: "Này, bạn đã nghe về vụ mua lại lớn mà chúng tôi đang lên kế hoạch chưa? Tôi có thể cần sự giúp đỡ của bạn". Kẻ lừa đảo tiếp tục: "Hãy chuẩn bị ký Thỏa thuận bảo mật mà luật sư của chúng tôi sẽ gửi cho bạn ngay lập tức". Tin nhắn kết thúc với cảm giác cấp bách: "Cơ quan quản lý thị trường của Ý và sàn giao dịch chứng khoán Milan đã được thông báo. Hãy giữ bí mật tối đa".

Sau khi đọc tin nhắn, vị lãnh đạo cấp cao này tiếp tục nhận được một cuộc gọi điện thoại có giọng nói bắt chước giọng Vigna, giống một cách thuyết phục với giọng nói đặc trưng của miền Nam nước Ý (quê hương của CEO Vigna). Người gọi khẳng định đang sử dụng một số điện thoại khác do tính chất nhạy cảm của vấn đề và sau đó yêu cầu vị lãnh đạo này thực hiện một "giao dịch phòng ngừa rủi ro tiền tệ không xác định".

Đứng trước yêu cầu bất ngờ và khả nghi này, cảm giác "giọng điệu máy móc nhẹ" trong cuộc gọi đã khiến vị lãnh đạo của Ferrari phải cảnh giác. Ông đáp trả, "Xin lỗi, Benedetto, nhưng tôi cần xác minh danh tính của anh", và hỏi một số câu hỏi như tên cuốn sách mà ông đã giới thiệu vài ngày trước. Kẻ mạo danh đã trả lời sai và vội vàng kết thúc cuộc gọi.

Đại diện của Ferrari từ chối bình luận về vụ việc. Được biết, vụ lừa đảo diễn ra vào đầu tháng này và đang được công ty điều tra.

Theo Rachel Tobac, CEO của công ty an ninh mạng SocialProof Security cảnh báo, "Năm nay, chúng ta đang ghi nhận tình hình tội phạm cố gắng sao chép giọng nói bằng AI ngày càng tăng".

Stefano Zanero, Giáo sư an ninh mạng tại Politecnico di Milano đã dự đoán một cách ảm đạm rằng deepfake sử dụng AI sẽ chỉ trở nên đáng sợ hơn khi trở nên "vô cùng giống".

ceo-ferrari-1722334264.jpg

Kẻ lừa đảo đã giả mạo giọng nói của CEO và nhắn tin, gọi điện cho một lãnh đạo khác của Ferrari.

Cho đến khi các công ty có thể trang bị cho nhân viên của mình những thiết bị có thể dò deepfake với khả năng đáng kinh ngạc thì trách nhiệm của mỗi cá nhân là phải luôn cảnh giác cao độ. Hãy kiểm tra kỹ hai lần, ba lần, nếu chưa yên tâm, hãy kiểm tra thêm nhiều lần khác trước khi tiến hành một giao dịch có liên quan đến tiền bạc. Việc kiểm tra hãy áp dụng với mọi cuộc gọi, tin nhắn đến, với bất kể ai, kể cả khi đó là sếp của bạn.