Khiếu nại mới nhất liên quan tới quyền riêng tư và các thông tin sai lệch của ChatGPT được đệ trình bởi nhóm vận động có tên NOYB (None Of Your Business) của Áo. Nhóm này cho biết, trường hợp cụ thể được đề cập trong cuộc khiếu nại là người của công chúng, người này đã hỏi ChatGPT về ngày sinh của mình. Tuy nhiên, Chatbot của OpenAI liên tục cung cấp thông tin không chính xác thay vì có thể trả lời rằng không có dữ liệu về vấn đề này.
Nhóm cho biết, OpenAI đã từ chối yêu cầu chỉnh sửa hoặc xóa dữ liệu của người khiếu nại, nói rằng không thể sửa dữ liệu. Khiếu nại của nhóm cũng đưa ra những lo ngại về tính minh bạch của OpenAI, cho thấy công ty không cung cấp thông tin về nguồn gốc của dữ liệu, về các cá nhân, cũng như việc dữ liệu này có được lưu trữ vô thời hạn hay không.
NOYB cho biết họ đã nộp đơn khiếu nại lên cơ quan bảo vệ dữ liệu của Áo, đồng thời yêu cầu điều tra việc xử lý dữ liệu của OpenAI cùng các biện pháp để đảm bảo tính chính xác của dữ liệu cá nhân được xử lý bởi các mô hình ngôn ngữ lớn của công ty.
Maartje de Graaf, luật sư bảo vệ dữ liệu của NOYB cho biết trong một tuyên bố: “Rõ ràng là các công ty hiện không thể khiến các chatbot như ChatGPT tuân thủ luật pháp EU trong quá trình xử lý dữ liệu về các cá nhân”. Bà nói: "Nếu một hệ thống không thể tạo ra kết quả chính xác và minh bạch thì nó không thể được sử dụng để tạo ra dữ liệu về các cá nhân. Công nghệ này phải tuân theo các yêu cầu pháp lý chứ không phải ngược lại".
Trước đây, OpenAI đã từng thừa nhận xu hướng phản hồi của chatbot, đôi khi đưa ra các câu trả lời “nghe có vẻ hợp lý nhưng không chính xác hoặc vô nghĩa” – đây là vấn đề khó có thể khắc phục.
Được gọi là “ảo giác”, các mô hình AI lớn thỉnh thoảng đưa ra những câu trả lời bịa đặt và nghĩ rằng người dùng sẽ không để ý thấy. Tuy nhiên, nó chỉ có thể che đậy trong trường hợp câu hỏi về một công thức nấu ăn hoặc một vấn đề không cố định. Nhưng khi đề cập đến vấn đề người thật, việc thật thì “cái kim trong bọc sẽ có ngày lòi ra”, rất khó để che giấu.
Theo quy định của khu vực, người dân tại EU có quyền liên quan đến thông tin cá nhân, bao gồm quyền sửa dữ liệu sai. Việc không tuân thủ các quy định này có thể dẫn đến các hình phạt tài chính nghiêm trọng. Trong một số trường hợp, khoản phạt có thể lên tới 4% doanh thu hàng năm trên toàn cầu của công ty vi phạm. Cơ quan quản lý cũng có thể ra lệnh thay đổi cách xử lý thông tin đối với công ty chủ quản.
OpenAI đang phải đối mặt với khiếu nại tương tự ở Ba Lan. Theo đó, cơ quan bảo vệ dữ liệu địa phương đã bắt đầu điều tra ChatGPT sau khi một nhà nghiên cứu không thể nhận được sự trợ giúp của OpenAI trong việc sửa thông tin cá nhân sai lệch. Khiếu nại của người này cáo buộc OpenAI vi phạm một số quy định liên quan đến tính minh bạch, quyền truy cập dữ liệu và quyền riêng tư của người dân ở EU.
Chưa dừng lại ở đó, cơ quan bảo vệ dữ liệu của Ý cũng đang tiến hành một cuộc điều tra về ChatGPT và OpenAI, sau đó kết luận công ty đã vi phạm Quy định bảo vệ dữ liệu chung (GDPR) của châu Âu theo nhiều cách khác nhau. Những vi phạm bao gồm xu hướng tạo ra những thông tin giả mạo, bịa đặt của ChatGPT đối với một số người cụ thể.
ChatGPT đã bị cấm ở Ý trước khi OpenAI thực hiện một số thay đổi nhất định đối với phần mềm, như cảnh báo mới cho người dùng và tùy chọn từ chối sử dụng các cuộc trò chuyện để đào tạo các thuật toán. Dù không còn bị cấm nhưng cuộc điều tra của Ý về ChatGPT vẫn tiếp tục.
“Chúng tôi muốn AI của mình tìm hiểu về thế giới chứ không phải về các cá nhân riêng tư. Chúng tôi tích cực nỗ lực giảm bớt dữ liệu cá nhân trong quá trình đào tạo các hệ thống của mình như ChatGPT, hệ thống này cũng từ chối các yêu cầu cung cấp thông tin riêng tư hoặc nhạy cảm về mọi người”, OpenAI cho biết trong một thông báo.
Minh Châu
Link nội dung: https://dothi.reatimes.vn/chatgpt-lai-bi-to-ao-giac-bia-dat-nhung-openai-lai-kien-quyet-khong-khac-phuc-thong-tin-sai-lech-2938.html