Bức thư ngỏ được ký bởi một nhóm các nhân viên và cựu chuyên gia, nhà nghiên cứu AI đến từ các công ty hàng đầu thế giới trong lĩnh vực như OpenAI, Google DeepMine và Anthropi, thể hiện sự mong muốn minh bạch thông tin hơn và được bảo vệ khỏi các biện pháp “trả đũa” khi lên tiếng về mối lo ngại tiềm ẩn của AI.
Bức thư ngỏ được công bố chỉ vài tuần sau cuộc điều tra của Vox tiết lộ OpenAI đã cố gắng “bịt miệng” những nhân viên mới rời đi bằng cách buộc họ phải lựa chọn việc ký một thỏa thuận bảo mật không nói xấu công ty nếu không muốn mất đi toàn bộ số cổ phần tích lũy được trong thời gian làm việc tại đây. Giám đốc điều hành Sam Altman đã phải lên tiếng xin lỗi và khẳng định sẽ xóa bỏ các quy định này trong thủ tục nghỉ việc của các nhân viên.
13 người được liệt kê trong danh sách đã ký vào bức thư ngỏ bao gồm cựu nhân viên OpenAI Jacob Hinton, William Saunders và Daniel Kokotajlo... nói rằng đã từ chức khỏi công ty sau khi mất niềm tin về việc OpenAI sẽ xây dựng trí tuệ nhân tạo chung một cách có trách nhiệm.
Bức thư sau đó được xác thực bởi các chuyên gia hàng đầu bao gồm “bố già AI” Geoffrey Hinton, Yoshua Bengio và Sutart Russell, đã bày tỏ mối quan ngại sâu sắc về sự thiếu giám sát hiệu quả của các chính phủ đối với AI.
Các chuyên gia cảnh báo rằng, việc theo đuổi không kiểm soát các hệ thống AI có thể dẫn đến việc lan truyền thông tin sai lệch, làm trầm trọng thêm sự bất bình đẳng và thậm chí mất quyền kiểm soát của con người đối với các hệ thóng AI tự trị, thậm chí có khả năng “dẫn đến sự tuyệt chủng của loài người”.
Kokotajlo – chuyên gia nằm trong nhóm đã ký thư ngỏ chia sẻ về điều này trên trang cá nhân: “Có rất nhiều điều chúng tôi không hiểu về cách thức hoạt động của các hệ thống AI này và liệu chúng có phù hợp với lợi ích của con người hay không khi chúng ngày càng thông minh hơn và có thể vượt qua sự giám sát của con người trong mọi lĩnh vực”. Nhà nghiên cứu này e ngại, khi động cơ lợi nhuận và sự phấn khích về công nghệ thúc đẩy các công ty tiến nhanh và phá vỡ mọi quy chuẩn về an toàn AI: “Việc bịt miệng các nhà nghiên cứu và khiến họ sợ bị trả thù là điều nguy hiểm khi chúng tôi hiện là một trong số ít những người có quyền cảnh báo tới công chúng.”
Cựu kỹ sư OpenAI Daniel Ziegler cũng chia sẻ: “Sự phát triển của các hệ thống AI mạnh mẽ hơn đang tiến triển nhanh chóng và có rất nhiều động lực mạnh mẽ để các công ty tiến lên phía trước mà không có sự thận trọng thích đáng”.
Ziegler cho biết trong một cuộc phỏng vấn hôm thứ Ba rằng anh không ngại lên tiếng trong nội bộ suốt thời gian làm việc tại OpenAI từ năm 2018 đến năm 2021. Quãng thời gian đó, anh đã giúp phát triển một số kỹ thuật mà sau này sẽ giúp ChatGPT trở nên thành công như vậy. Nhưng giờ đây chuyên gia này lo ngại rằng cuộc đua thương mại hóa nhanh chóng công nghệ AI đang gây áp lực lên OpenAI và các đối thủ cạnh tranh, từ đó dẫn đến việc thiếu cẩn trọng trong các vấn đề về rủi ro.
Bức thư ngỏ của nhóm các nhà nghiên cứu nhấn mạnh: “Các thỏa thuận bảo mật đã ngăn cản chúng tôi bày tỏ mối quan ngại của mình về AI”. Lấy các ví dụ về việc ứng dụng trí tuệ nhân tạo đã tạo ra những bức ảnh có thông tin sai lệch về lịch sử, chính trị…các nhà nghiên cứu cho biết, các công ty AI đang có “nghĩa vụ yếu kém” trong việc chia sẻ thông tin với chính phủ về khả năng và hạn chế từ hệ thống AI của họ. Các chuyên gia cũng khẳng định, không thể mong chờ sự chia sẻ thông tin một cách tự nguyện từ các công ty.
Bên cạnh việc nêu lên những lo ngại về an toàn xung quanh công nghệ AI tổng hợp, nhóm đã kêu gọi các công ty tạo điều kiện thuận lợi cho các nhân viên hiện tại và cựu nhân viên có thể nêu lên những ý kiến của mình xung quanh phát triển AI, bao gồm các rủi ro của công nghệ. Vấn đề về các thỏa thuận bảo mật, cấm “nói xấu” công ty sau khi rời đi cũng được đề cập cụ thể.