Tin đồn về mẫu AI tiếp theo mang tên DeepSeek R2 đang lan truyền trên mạng, cho thấy hãng công nghệ Trung Quốc DeepSeek có thể sẽ sớm tung ra một sản phẩm mới gây chấn động thị trường toàn cầu.
Theo thông tin được đăng tải lại bởi trang Wccftech, DeepSeek R2 được cho là sẽ tiếp tục tạo bất ngờ, tương tự như cách mẫu R1 từng làm trước đó. DeepSeek R1 đã chứng minh rằng Trung Quốc không hề thua kém trong cuộc đua phát triển AI cao cấp, thậm chí khiến thị trường chứng khoán Mỹ mất hàng tỷ USD. Quan trọng hơn, R1 cũng cho thấy việc phát triển AI có thể thực hiện với chi phí thấp hơn nhiều so với những gì các công ty như OpenAI từng công bố.
Theo các nguồn tin từ truyền thông Trung Quốc, DeepSeek R2 sẽ sử dụng kiến trúc hybrid MoE (Mixture of Experts). Đây là một dạng thiết kế mô hình AI trong đó chỉ một phần nhỏ mạng lưới được kích hoạt cho mỗi yêu cầu xử lý, giúp tiết kiệm tài nguyên và tăng hiệu suất.
Phiên bản hybrid này được đồn đoán đã cải tiến thêm bằng cách sử dụng cơ chế “gating” thông minh - tức hệ thống chọn lọc thông tin đầu vào để xử lý hiệu quả hơn - hoặc kết hợp giữa mô hình chuyên biệt và mô hình toàn diện (dense layers) nhằm tối ưu hóa việc xử lý khối lượng dữ liệu lớn.
Với kiến trúc mới, DeepSeek R2 được cho là sẽ sở hữu tới 1,2 nghìn tỷ tham số – tức số lượng biến số mà mô hình AI dùng để "học" từ dữ liệu. Để dễ hình dung, đây là quy mô gấp đôi R1, và ngang ngửa với những AI hàng đầu hiện nay như GPT-4 Turbo của OpenAI hay Gemini 2.0 Pro của Google.
Không chỉ dừng lại ở kích thước mô hình, DeepSeek R2 còn được đồn đoán sẽ tạo ra lợi thế cực lớn về giá thành vận hành. Theo thông tin rò rỉ, chi phí tính trên mỗi triệu token đầu vào của R2 chỉ vào khoảng 0,07 USD, và mỗi triệu token đầu ra là 0,27 USD – thấp hơn tới 97,4% so với GPT-4. (Để so sánh: một token là đơn vị nhỏ nhất của dữ liệu, như một từ hoặc cụm từ; giá rẻ như vậy đồng nghĩa với việc các doanh nghiệp sẽ tiết kiệm được khoản chi phí khổng lồ nếu lựa chọn DeepSeek thay vì những AI đắt đỏ khác.)
Ngoài ra, DeepSeek R2 được cho là đã đạt hiệu suất sử dụng 82% trên cụm chip Huawei Ascend 910B – một loại chip AI cao cấp sản xuất nội địa tại Trung Quốc. Cụm chip này đạt 512 PetaFLOPS sức mạnh tính toán (ở độ chính xác FP16 – dạng số thực 16 bit phổ biến trong huấn luyện AI), cho thấy DeepSeek đã chủ động xây dựng hoàn toàn hạ tầng AI nội bộ, không phụ thuộc vào công nghệ Mỹ như trước đây.
Nói cách khác, DeepSeek không chỉ tối ưu chi phí, mà còn từng bước "nội địa hóa" toàn bộ chuỗi cung ứng AI – từ phần cứng đến huấn luyện.
Tuy nhiên, tất cả thông tin hiện tại vẫn ở mức độ tin đồn và DeepSeek chưa xác nhận chính thức. Dù vậy, nếu những gì truyền thông Trung Quốc đưa tin là đúng sự thật, DeepSeek R2 rất có thể sẽ trở thành cú sốc tiếp theo làm thay đổi cuộc chơi AI toàn cầu.
* Mời quý độc giả theo dõi các chương trình đã phát sóng của Đài Truyền hình Việt Nam trên TV Online và VTVGo!