Huawei "tuyên chiến" DeepSeek: Tung kỹ thuật huấn luyện AI MoGE, tuyên bố hiệu quả hơn!

vnrcraw5
Hue Hoang
Phản hồi: 0

Hue Hoang

Thành viên nổi tiếng
Các nhà nghiên cứu phát triển mô hình Pangu của Huawei đã giới thiệu khái niệm "Mixture of Grouped Experts" (MoGE), một phiên bản nâng cấp của kỹ thuật MoE mà DeepSeek đã sử dụng thành công. Huawei khẳng định phương pháp mới giúp cân bằng tải tốt hơn và đạt hiệu suất vượt trội trên các bài kiểm tra benchmark. Huawei nâng tầm cuộc chơi huấn luyện AI với kiến trúc MoGE Trong một động thái cho thấy sự cạnh tranh ngày càng quyết liệt trên thị trường Trí tuệ Nhân tạo (AI), các nhà nghiên cứu làm việc trên mô...

Đọc bài gốc tại đây
 


Đăng nhập một lần thảo luận tẹt ga
Back
Top