Google bắt đầu dán nhãn đối với những hình ảnh do AI tạo ra trong kết quả tìm kiếm

Google vừa có thông báo rằng sẽ bắt đầu dán nhãn kết quả tìm kiếm đối với những hình ảnh do AI tạo ra, được AI chỉnh sửa trong thời gian tới. Điều này sẽ giúp cho người dùng dễ dàng phân biệt được nguồn gốc của hình ảnh.

Google cho biết, sẽ đánh dấu nội dung AI như vậy thông qua cửa sổ "About this image" và nó sẽ được áp dụng cho Search (Tìm kiếm), Google Lens và các tính năng Circle to Search (tính năng cho phép tìm kiếm thông tin về bất kỳ đối tượng nào trên màn hình) của Android.

Google cũng đang áp dụng công nghệ này cho các dịch vụ quảng cáo của mình và đang cân nhắc thêm việc sẽ “gắn cờ” tương tự vào video YouTube vào khoảng cuối năm.

Google bắt đầu đánh dấu các hình ảnh do AI tạo ra hoặc có sự chỉnh sửa của AI trong các kết quả tìm kiếm của mình.

Google sẽ dựa vào siêu dữ liệu của Liên minh về Nguồn gốc và Tính xác thực Nội dung (C2PA) để xác định hình ảnh do AI tạo ra. Đó là một nhóm ngành mà Google đã tham gia với tư cách là thành viên ủy ban chỉ đạo vào đầu năm nay. "Siêu dữ liệu C2PA" này sẽ được sử dụng để theo dõi nguồn gốc của hình ảnh, xác định thời điểm và địa điểm hình ảnh được tạo ra, cũng như thiết bị và phần mềm được sử dụng để tạo ra hình ảnh.

Cho đến nay, một số công ty lớn trong ngành đã tham gia C2PA, bao gồm Amazon, Microsoft, OpenAI và Adobe. Tuy nhiên, bản thân tiêu chuẩn này ít được các nhà sản xuất phần cứng chú ý và hiện chỉ có thể tìm thấy trên một số ít mẫu máy ảnh Sony và Leica. Một số nhà phát triển công cụ tạo AI nổi bật cũng đã từ chối áp dụng tiêu chuẩn này, chẳng hạn như Black Forrest Labs, nơi tạo ra mô hình Flux mà mô hình trí tuệ nhân tạo Grok của Elon Musk tận dụng để tạo hình ảnh.

Số lượng các vụ lừa đảo trực tuyến sử dụng deepfake do AI tạo ra đã bùng nổ trong hai năm qua. Vào tháng 2 năm nay, một tổ chức tài chính có trụ sở tại Hồng Kông đã bị lừa chuyển 25 triệu USD cho những kẻ lừa đảo đóng giả là giám đốc của công ty, chúng đã sử dụng deepfake để thực hiện một cuộc gọi lừa đảo video tới người phụ trách liên quan khiến người này lầm tưởng là cấp trên và làm theo. Vào tháng 5, một nghiên cứu của nhà cung cấp xác minh Sumsub phát hiện ra rằng các vụ lừa đảo sử dụng deepfake đã tăng 245% trên toàn cầu trong khoảng thời gian từ năm 2023 đến năm 2024, với mức tăng 303% ở Mỹ.

Công nghệ deepfake ngày càng tinh vi khiến cho việc phân biệt các hình ảnh do AI tạo ra và hình ảnh thực ngày càng trở nên khó khăn hơn.

“Việc công khai tiếp cận các dịch vụ này đã hạ thấp rào cản gia nhập đối với tội phạm mạng”, David Fairman, giám đốc thông tin và giám đốc an ninh của APAC tại Netskope nói với CNBC  vào tháng 5. “Họ không còn cần phải có bộ kỹ năng công nghệ đặc biệt nữa”.

Trong một nghiên cứu của Đại học Waterloo, chỉ có 61% số người có thể phân biệt được sự khác nhau giữa hình ảnh do AI tạo ra và hình ảnh thực. Việc Google tung công cụ mới giúp người dùng phân biệt được các hình ảnh có dấu vết của AI được đánh giá là một bước tiến tích cực của "Gã khổng lồ tìm kiếm" trong cuộc chiến chống lại thông tin sai lệch trực tuyến.