Các chuyên gia AI gửi thư kêu gọi quyền tự do cảnh báo trước những rủi ro của trí tuệ nhân tạo

Một bức thư ngỏ vừa được công bố hôm thứ Ba bởi một nhóm các chuyên gia về AI đến từ những công ty công nghệ hàng đầu thế giới, đã chia sẻ mong muốn các chính phủ sớm thiết lập biện pháp bảo vệ mạnh mẽ hơn, giúp nhà nghiên cứu có “quyền cảnh báo” về những mối nguy hiểm của trí tuệ nhân tạo mà không sợ bị “trả đũa”

Bức thư ngỏ được ký bởi một nhóm các nhân viên và cựu chuyên gia, nhà nghiên cứu AI đến từ các công ty hàng đầu thế giới trong lĩnh vực như OpenAI, Google DeepMine và Anthropi, thể hiện sự mong muốn minh bạch thông tin hơn và được bảo vệ khỏi các biện pháp “trả đũa” khi lên tiếng về mối lo ngại tiềm ẩn của AI.

Các chuyên gia thống nhất trong bức thư ngỏ, kêu gọi các công ty AI cam kết thực hiện bốn nguyên tắc chính: Không trả đũa những nhân viên lên tiếng lo ngại về vấn đề an toàn của AI; Hỗ trợ hệ thống ẩn danh dành cho người tố cáo để cảnh báo công chúng và cơ quan quản lý về rủi ro; Cho phép một nền văn hóa phê bình cởi mở; Tránh các thỏa thuận không chê bai hoặc không tiết lộ nhằm hạn chế nhân viên lên tiếng.

Bức thư ngỏ được công bố chỉ vài tuần sau cuộc điều tra của Vox tiết lộ OpenAI đã cố gắng “bịt miệng” những nhân viên mới rời đi bằng cách buộc họ phải lựa chọn việc ký một thỏa thuận bảo mật không nói xấu công ty nếu không muốn mất đi toàn bộ số cổ phần tích lũy được trong thời gian làm việc tại đây. Giám đốc điều hành Sam Altman đã phải lên tiếng xin lỗi và khẳng định sẽ xóa bỏ các quy định này trong thủ tục nghỉ việc của các nhân viên.

tri-tue-nhan-tao-1717558870.jpg
Các nhà nghiên cứu chia sẻ sự lo lắng và mong muốn có biện pháp bảo vệ an toàn sau khi nêu lên những e ngại về an toàn của các hệ thống AI đối với con người.

13 người được liệt kê trong danh sách đã ký vào bức thư ngỏ bao gồm cựu nhân viên OpenAI Jacob Hinton, William Saunders và Daniel Kokotajlo... nói rằng đã từ chức khỏi công ty sau khi mất niềm tin về việc OpenAI sẽ xây dựng trí tuệ nhân tạo chung một cách có trách nhiệm.

Bức thư sau đó được xác thực bởi các chuyên gia hàng đầu bao gồm “bố già AI” Geoffrey Hinton, Yoshua Bengio và Sutart Russell, đã bày tỏ mối quan ngại sâu sắc về sự thiếu giám sát hiệu quả của các chính phủ đối với AI.

Các chuyên gia cảnh báo rằng, việc theo đuổi không kiểm soát các hệ thống AI có thể dẫn đến việc lan truyền thông tin sai lệch, làm trầm trọng thêm sự bất bình đẳng và thậm chí mất quyền kiểm soát của con người đối với các hệ thóng AI tự trị, thậm chí có khả năng “dẫn đến sự tuyệt chủng của loài người”.

Kokotajlo – chuyên gia nằm trong nhóm đã ký thư ngỏ chia sẻ về điều này trên trang cá nhân: “Có rất nhiều điều chúng tôi không hiểu về cách thức hoạt động của các hệ thống AI này và liệu chúng có phù hợp với lợi ích của con người hay không khi chúng ngày càng thông minh hơn và có thể vượt qua sự giám sát của con người trong mọi lĩnh vực”. Nhà nghiên cứu này e ngại, khi động cơ lợi nhuận và sự phấn khích về công nghệ thúc đẩy các công ty tiến nhanh và phá vỡ mọi quy chuẩn về an toàn AI: “Việc bịt miệng các nhà nghiên cứu và khiến họ sợ bị trả thù là điều nguy hiểm khi chúng tôi hiện là một trong số ít những người có quyền cảnh báo tới công chúng.”

Cựu kỹ sư OpenAI Daniel Ziegler cũng chia sẻ: “Sự phát triển của các hệ thống AI mạnh mẽ hơn đang tiến triển nhanh chóng và có rất nhiều động lực mạnh mẽ để các công ty tiến lên phía trước mà không có sự thận trọng thích đáng”.

Ziegler cho biết trong một cuộc phỏng vấn hôm thứ Ba rằng anh không ngại lên tiếng trong nội bộ suốt thời gian làm việc tại OpenAI từ năm 2018 đến năm 2021. Quãng thời gian đó, anh đã giúp phát triển một số kỹ thuật mà sau này sẽ giúp ChatGPT trở nên thành công như vậy. Nhưng giờ đây chuyên gia này lo ngại rằng cuộc đua thương mại hóa nhanh chóng công nghệ AI đang gây áp lực lên OpenAI và các đối thủ cạnh tranh, từ đó dẫn đến việc thiếu cẩn trọng trong các vấn đề về rủi ro.

tri-tue-nhan-tao-1717560572.jpg
Sự phấn khích về công nghệ có thể khiến các công ty đầu tư mạnh mà không có sự cẩn trọng cần thiết đối với AI.

Bức thư ngỏ của nhóm các nhà nghiên cứu nhấn mạnh: “Các thỏa thuận bảo mật đã ngăn cản chúng tôi bày tỏ mối quan ngại của mình về AI”. Lấy các ví dụ về việc ứng dụng trí tuệ nhân tạo đã tạo ra những bức ảnh có thông tin sai lệch về lịch sử, chính trị…các nhà nghiên cứu cho biết, các công ty AI đang có “nghĩa vụ yếu kém” trong việc chia sẻ thông tin với chính phủ về khả năng và hạn chế từ hệ thống AI của họ. Các chuyên gia cũng khẳng định, không thể mong chờ sự chia sẻ thông tin một cách tự nguyện từ các công ty.

Bên cạnh việc nêu lên những lo ngại về an toàn xung quanh công nghệ AI tổng hợp, nhóm đã kêu gọi các công ty tạo điều kiện thuận lợi cho các nhân viên hiện tại và cựu nhân viên có thể nêu lên những ý kiến của mình xung quanh phát triển AI, bao gồm các rủi ro của công nghệ. Vấn đề về các thỏa thuận bảo mật, cấm “nói xấu” công ty sau khi rời đi cũng được đề cập cụ thể.