DeepSeek lại khiến các công ty AI ngưỡng mộ khi công bố lợi nhuận siêu “khủng” mỗi ngày

Với tỷ lệ chi phí – lợi nhuận lý thuyết lên đến 545% mỗi ngày, công ty trí tuệ nhân tạo DeepSeek của Trung Quốc một lần nữa khiến giới đầu tư dậy sóng, kể cả khi công ty cho biết lợi nhuận thực tế sẽ thấp hơn đáng lể.

DeepSeek - Công ty khởi nghiệp AI của Trung Quốc đã công bố một số dữ liệu về chi phí và doanh thu liên quan đến các mô hình V3 và R1 của mình. Trong đó, thông tin tỷ lệ chi phí – lợi nhuận lý thuyết lên tới 545% mỗi ngày đã gây “choáng váng” giới đầu tư.

Đây là lần đầu tiên công ty có trụ sở tại Hàng Châu, Trung Quốc tiết lộ thông tin có liên quan đến lợi nhuận thu được từ các mô hình lý luận của mình sau quá trình đào tạo. Đây sẽ là giai đoạn mà các chatbot phải huy động sức mạnh tính toán để thực hiện các nhiệm vụ cụ thể mà người dùng đưa ra. 

DeepSeek cho biết, họ đã đổi mới để tối ưu hóa lượng dữ liệu được mô hình AI xử lý trong một khoảng thời gian nhất định và quản lý độ trễ - thời gian chờ giữa lúc người dùng gửi truy vấn và nhận được câu trả lời để tăng cường hiệu quả của mô hình.

DeepSeek cho biết, các mô hình R1, V3 của họ đạt tỷ lệ chi phí – lợi nhuận lý thuyết lên đến 545% mỗi ngày, tỷ lệ thực tế có thể thấp hơn đáng kể nhưng vẫn khiến nhiều công ty trí tuệ nhân tạo khác phải ao ước.

Tiết lộ này một lần nữa khiến giới công nghệ toàn cầu giật mình. Trước đó, hồi tháng 1, khi họ công bố mô hình R1 và V3 của mình với tuyên bố chi phí cho đào tạo thấp hơn hàng chục lần so với các mô hình tiên tiến hàng đầu của OpenAI, Microsoft, xAI,… cũng đã khiến cho thị trường cổ phiếu công nghệ lao dốc. Công ty cho biết, các mô hình của họ có chi phí chưa đến 6 triệu USD (để mua sắm chip tiên tiến).

Các con chip mà DeepSeek tuyên bố sử dụng bao gồm chip Nvidia H800- với sức mạnh tính toán kém hơn rất nhiều lần so với những con chip hàng đầu của cùng thương hiệu mà các công ty AI của Mỹ đang sử dụng. Điều này khiến các nghi ngờ về lời cam kết chi hàng tỷ USD cho các con chip tiên tiến của các công ty AI Mỹ có thực sự hiệu quả như lời mời chào của các ông chủ.

DeepSeek cho biết trong một bài đăng trên GitHub được công bố vào thứ Bảy rằng, giả sử chi phí thuê một chip H800 là 2 USD một giờ thì tổng chi phí suy luận hàng ngày cho các mô hình V3 và R1 của họ là 87.072 USD. Ngược lại, doanh thu hàng ngày lý thuyết do các mô hình này tạo ra là 562.027 USD, dẫn đến tỷ lệ chi phí-lợi nhuận là 545%. Trong một năm, con số này sẽ lên tới hơn 200 triệu USD doanh thu.

GPU H800 của Nvidia là một phiên bản bị “rút gọn” về hiệu năng và tính năng của GPU H100, được Nvidia phát triển để bán riêng cho thị trường Trung Quốc, sức mạnh yếu hơn đáng kể.

Mặc dù DeepSeek đã tuyên bố miễn trừ trách nhiệm trong thông tin chi tiết mà họ cung cấp trên GitHub, công ty cho biết thêm, "doanh thu thực tế của họ thấp hơn đáng kể" vì chi phí sử dụng mô hình V3 thấp hơn mô hình R1, chỉ một số dịch vụ được kiếm tiền vì quyền truy cập web và ứng dụng vẫn đang được cung cấp miễn phí và các nhà phát triển phải trả ít tiền hơn vào giờ thấp điểm.

Trước đó, công ty đã khiến nhiều người trong ngành phải ngạc nhiên khi chia sẻ một số cải tiến và dữ liệu quan trọng hỗ trợ các mô hình R1 và V3. Điều này trái ngược với các đối thủ lớn như OpenAI – vốn rất kín kẽ về điều này.