一個強大的混合專家模型 (MoE),總共有 6710 億個參數,每個 token 啟用 370 億個參數。

671b

159.5K 3 週前

Readme

注意:此模型需要 Ollama 0.5.5 或更高版本。

DeepSeek-V3 在推論速度上取得了顯著突破,超越了先前的模型。它在開源模型中名列前茅,並可媲美全球最先進的閉源模型。

參考資料

GitHub

論文