ChatGPT vẫn chưa đáp ứng tiêu chuẩn về độ chính xác của dữ liệu

Theo Ủy ban Dữ liệu châu Âu, ChatGPT hiện vẫn còn tình trạng đưa ra những kết quả sai sự thật tới người dùng, vì vậy, những nỗ lực của OpenAI hiện vẫn chưa đủ để có thể đảm bảo tuân thủ các quy tắc dữ liệu của Liên minh.

Thông tin được thông báo bởi một lực lượng chuyên trách tại cơ quan giám sát quyền riêng tư của EU. Theo đơn vị này, OpenAI đã có những biện pháp nhằm tuân thủ nguyên tắc minh bạch về dữ liệu để để tránh xảy ra những kết quả đầu ra sai sót từ ChatGPT, nhưng chúng không đủ để đáp ứng về độ chính xác của dữ liệu.

Cơ quan này được thành lập trên cơ sở hợp nhất các cơ quan giám sát quyền riêng tư của các quốc gia Châu Âu, bao gồm một nhóm chuyên theo dõi ChatGPT kể từ năm ngoái, sau khi các cơ quan quản lý của Ý nêu lên mối lo ngại về dịch vụ trí tuệ nhân tạo được sử dụng rộng rãi.

OpenAI đã không trả lời ngay lập tức về vấn đề này.

Báo cáo của Ủy ban Dữ liệu châu Âu cũng cho biết, hiện các cuộc điều tra khác nhau do các cơ quan giám sát quyền riêng tư tại một số quốc gia thành viên vẫn đang tiếp diễn, do đó vẫn chưa thể cung cấp các kết quả cụ thể và đầy đủ cho truyền thông. Tuy nhiên, những phát hiện được đưa ra đang được hiểu là "mẫu số chung'' để các cơ quan chức năng từng nước áp dụng.

Độ chính xác của dữ liệu là một trong những nguyên tắc hướng dẫn của bộ quy tắc bảo vệ dữ liệu của EU.

Báo cáo cho biết: “Trên thực tế, do tính chất xác suất của hệ thống, phương pháp đào tạo hiện tại dẫn đến việc một số mô hình AI có thể tạo ra kết sai lệch hoặc bịa đặt khi được người dùng truy vấn". Cơ quan này phân tích nguy cơ, kết quả mà GPT cung cấp có thể được người dùng cuối coi là chính xác về mặt thực tế, bao gồm thông tin liên quan đến các cá nhân, bất kể độ chính xác thực tế của họ. Nếu kết quả sai, hậu quả rất khó lường.

chatgpt-loi-1716571291.png
ChatGPT nhiều lần bị tố lỗi đưa ra những kết quả sai lệch, ảo giác hoặc vô nghĩa.

Trước đó, hồi tháng 2/2024, ChatGPT bị nhiều người dùng phản ánh về việc đột nhiên “mất trí” vì đưa ra hàng loạt phản hồi vô nghĩa và lặp lại, kể cả với những phiên bản GPT trả phí. Đây được xem là hiện tượng bất thường nhất, diễn ra trên diện rộng kể từ khi GPT-3 ra đời. OpenAI sau đó cũng phải lên tiếng về việc này, công ty cho biết đã xác định được nguyên nhân sự cố, tuy nhiên không chia sẻ cụ thể tới người dùng. Nhiều giả thuyết cũng được đưa ra sau đó, bao gồm việc GPT đã bị hack hoặc gặp vấn đề về máy chủ. Không chỉ vậy, GPT-4 còn bị tố “lười biếng” khi liên tục từ chối thực hiện một số lệnh truy vấn hoặc cung cấp kết quả đơn giản, gây thất vọng đối với người dùng.
Mới đây nhất, ngày 14/5, OpenAI cũng đã ra mắt phiên bản mới GPT-4o được cho là hoạt động tốt hơn và hiệu quả hơn, nhiều tính năng “xịn xò” hơn, đặc biệt là khả năng tương tác bằng giọng nói trực tiếp với con người. Tuy nhiên ngay sau đó, công cụ này đã bị chỉ trích bởi ngôi sao điện ảnh Scarlet Johansson vì giọng nói của GPT giống với của cô đến kỳ lạ.
Dường như, vẫn còn hành trình khá dài đối với OpenAI để có thể thuyết phục được các cơ quan chức năng châu Âu về việc GPT đáp ứng an toàn dữ liệu, an toàn đối với người dùng và nhân loại.