一個強大、經濟且高效的混合專家模型。

16b 236b

102K 7 個月前

自述檔案

注意:此模型需要 Ollama 0.1.40

DeepSeek-V2 是一個強大的混合專家 (MoE) 語言模型,其特點是經濟的訓練和高效的推論。

注意:此模型為英語和中文雙語模型。

此模型有兩種尺寸

  • 16B Lite: ollama run deepseek-v2:16b
  • 236B: ollama run deepseek-v2:236b

參考資料

GitHub