“Đại sứ an toàn AI” rời OpenAI, nhóm kiểm soát AI siêu thông minh tan rã

OpenAI đã từng thành lập một nhóm kiểm soát AI siêu thông minh mang tên Superalignment trong quá khứ. Nhiệm vụ của nhóm này là kiểm soát những rủi ro của trí tuệ nhân tạo. Tuy nhiên, nhóm đã nhanh chóng tan rã với sự ra đi của những thành viên chủ chốt.

Nhóm Superalignment (Siêu điều chỉnh) được thành lập vào tháng 7 năm ngoái, được lãnh đạo trực tiếp bởi đồng sáng lập OpenAI - Ilya Sutskever và trưởng nhóm giám sát của OpenAI - Jan Leike. Nhóm chịu trách nhiệm phát triển các cách quản lý và điều khiển các hệ thống AI “siêu thông minh”, giải quyết những thách thức kỹ thuật cốt lõi trong việc kiểm soát AI siêu việt trong 4 năm tới. OpenAI hứa hẹn sẽ dành 20% tài nguyên máy tính của công ty để phục vụ cho các nhiệm vụ của nhóm. Tuy nhiên, những hứa hẹn kể trên lại không được thực hiện nghiêm túc trong thực tế. Nhiều đề xuất bị từ chối khiến nhóm không thể thực hiện công việc của mình.

Điều này đã khiến một số thành viên trong nhóm bắt đầu từ chức, bao gồm cả đồng trưởng nhóm Jan Leike. Ông Leike đã công khai một số lý do cho việc từ chức vào sáng thứ Sáu vừa qua. Ông viết trên trên X: “Tôi đã không đồng ý với lãnh đạo OpenAI về các ưu tiên cốt lõi của công ty trong một thời gian dài, cho đến khi giới hạn cuối cùng của chúng tôi bị phá vỡ”. Theo Leike, có rất nhiều vấn đề đối với các mô hình AI thế hệ tiếp theo như an ninh, giám sát, sự sẵn sàng, mức độ an toàn và sức cạnh tranh, liên kết, tính bảo mật, tác động xã hội... Những vấn đề này khá khó giải quyết và ông lo ngại rằng chúng ta đang không đi đúng quỹ đạo để đạt được điều đó. 

Nhóm "Siêu điều chỉnh" để kiểm soát các rủi ro từ AI siêu thông minh của OpenAI đã chính thức tan rã sau sự ra đi của các nhà khoa học chủ chốt.

OpenAI hiện chưa có bình luận nào về việc này.

Trong quá trình hoạt động của mình, nhóm Superalignment đã cố gắng công bố một loạt nghiên cứu về an toàn và tài trợ hàng triệu USD cho các nhà nghiên cứu bên ngoài. Tuy nhiên, việc này ngày càng chiếm nhiều tài nguyên của OpenAI. Nhóm đã phải đấu tranh để có được nhiều khoản đầu tư hơn – điều mà họ cho rằng rất quan trọng với sứ mệnh của mình là giúp công ty phát triển AI siêu thông minh vì lợi ích của nhân loại.

Leike cho biết: “Chế tạo những cỗ máy thông minh hơn con người là một nỗ lực vốn đã nguy hiểm. Nhưng trong những năm qua, văn hóa và quy trình an toàn đã lùi bước so với những sản phẩm đang có tiếng vang hiện nay". 

Những căng thẳng giữa đồng sáng lập Sutskever với CEO Sam Altman đã trở thành mấu chốt dẫn đến những thay đổi quan trọng trong nội bộ công ty. 

Sutskever cùng với ban giám đốc cũ của OpenAI đã đột ngột sa thải Altman vào cuối năm ngoái vì lo ngại CEO này đã không “thường xuyên thẳng thắn” với các thành viên hội đồng quản trị về việc minh bạch các vấn đề phát triển AI. Dưới áp lực từ các nhà đầu tư, bao gồm cả Microsoft và nhiều nhân viên chủ chốt của công ty, Altman cuối cùng cũng đã được phục chức. Tuy nhiên, phần lớn hội đồng quản trị cũng đã từ chức sau đó, bao gồm Sutskever.

Theo các nguồn tin, Sutskever đóng vai trò quan trọng trong nhóm Superalignment. Sau sự ra đi của Leike và Sutskever, John Schulman - một người đồng sáng lập OpenAI khác đã chuyển sang phụ trách mảng công việc mà nhóm Superalignment đang thực hiện. Tuy nhiên, công ty sẽ không còn duy trì một nhóm chuyên trách như trước nữa, thay vào đó sẽ là một nhóm liên kết được cho là lỏng lẻo hơn.

CEO OpenAI Sam Altman tại sự kiện ra mắt nhóm "Siêu điều chỉnh" vào năm ngoái.

Trong một tuyên bố được ban hành sau đó, CEO Sam Altman đã lên tiếng trấn an người dùng và các nhà đầu tư, cho biết công ty vẫn cam kết nghiên cứu an toàn AI. Ông hứa sẽ cung cấp thêm thông tin về vấn đề này trong những ngày tới. Tuy nhiên, sự ra đi của Sutskever và Leike vẫn đặt ra nhiều câu hỏi về tương lai của dự án kiểm soát siêu trí tuệ AI cũng như việc OpenAI có nghiêm túc thực hiện các cam kết trong việc triển khai các mô hình AI "vì nhân loại" trong thời gian tới hay không.