Nhiều nhà quan sát cho rằng, OpenAI ngày càng kém cởi mở hơn. Đặc biệt với việc bổ nhiệm cựu Giám đốc NSA Paul Nakasone vào Hội đồng quản trị của mình vừa qua. Không chỉ là cựu Giám đốc Cơ quan An ninh Quốc gia Mỹ (NSA), Paul Nakasone từng đứng đầu Bộ Tư lệnh Mạng Mỹ (bộ phận an ninh mạng của Bộ Quốc phòng Mỹ). OpenAI cho biết, việc bổ nhiệm này nhằm thể hiện cam kết về an toàn và bảo mật của công ty, đồng thời nhấn mạnh tầm quan trọng của an ninh mạng trong bối cảnh AI đang liên tục phát triển hiện nay.
Sau khi nhậm chức, ông Nakasone cũng chia sẻ: "Sự cống hiến của OpenAI cho sứ mệnh của nó phù hợp chặt chẽ với các giá trị và kinh nghiệm của tôi trong dịch vụ công. Tôi mong muốn được đóng góp vào những nỗ lực của OpenAI nhằm đảm bảo trí tuệ nhân tạo nói chung an toàn và mang lại lợi ích cho mọi người trên khắp thế giới.”
Nhưng các nhà phê bình lo ngại việc tuyển dụng Nakasone có thể đại diện cho một điều khác: sự giám sát. “Người thổi còi” Edward Snowden – một cựu chuyên gia an ninh mạng đã từng tiết lộ tài liệu tối mật về NSA vào năm 2013 ngay sau đó đã lên tiếng. Ông cho rằng, việc thuê Nakasone là một "sự phản bội có tính toán đối với quyền của mọi người trên Trái đất".
Snowden viết: “Họ đã hoàn toàn che đậy: đừng bao giờ tin tưởng OpenAI hoặc các sản phẩm của nó (ChatGPT, v.v.)”.
Trong một bình luận khác trên mạng xã hội X, Snowden cho biết "sự giao thoa của AI với đại dương dữ liệu giám sát hàng loạt được tích lũy trong hai thập kỷ qua sẽ đặt những quyền lực thực sự khủng khiếp vào tay một số ít người vốn không chịu trách nhiệm trước người dân”.
Thượng nghị sĩ Mark Warner của Đảng Dân chủ đến từ Virginia và là người đứng đầu Ủy ban Tình báo Thượng viện, lại mô tả việc tuyển dụng Nakasone là một “thành tựu lớn”. “Nói chung, không có ai trong cộng đồng bảo mật được tôn trọng hơn ông ấy”, chính trị gia này cho biết thêm.
OpenAI đã sa thải cựu thành viên hội đồng quản trị Leopold Aschenbrenner vào tháng 4 sau khi ông này gửi một bản ghi nhớ nêu chi tiết về một "sự cố bảo mật lớn ". Ông mô tả an ninh của công ty là "không đủ mạnh" để bảo vệ khỏi hành vi trộm cắp của các tác nhân nước ngoài.
Nhóm Siêu liên kết của OpenAI - nhóm tập trung phát triển hệ thống AI tương thích với lợi ích của con người cũng đột ngột tan rã sau khi hai nhà nghiên cứu an toàn nổi tiếng nhất của công ty nghỉ việc. Jan Leike, một trong những nhà nghiên cứu chủ đạo của công ty trước thời điểm rời đi cho biết, ông đã “không đồng ý với lãnh đạo OpenAI về các ưu tiên cốt lõi của công ty trong một thời gian khá lâu”.
Ilya Sutskever, nhà khoa học trưởng của OpenAI, người ban đầu thành lập nhóm Siêu liên kết, tỏ ra kín đáo hơn về lý do rời đi của mình. Tuy nhiên, những người trong nội bộ công ty cho biết ông đang ở trong tình trạng bấp bênh vì vai trò của mình trong vụ lật đổ CEO Sam Altman thất bại. Sutskever không tán thành cách tiếp cận của Altman trong việc phát triển AI, điều này thúc đẩy cuộc tranh giành quyền lực của họ.
Businessinsider trích dẫn lời những người dân địa phương sống và làm việc gần văn phòng OpenAI ở San Francisco, nói rằng công ty đang ngày càng trở nên khép kín hơn. Một nhân viên thu ngân tại một cửa hàng thú cưng lân cận nói với The San Francisco Standard rằng văn phòng này có một "bầu không khí bí mật". Một số người làm công tại các doanh nghiệp lân cận cho biết những người đàn ông giống nhân viên bảo vệ bí mật đứng bên ngoài tòa nhà nhưng không nói rằng họ làm việc cho OpenAI. “OpenAI không phải là người hàng xóm xấu, nhưng hộ rất bí mật” một người nói.