DBRX 是由 Databricks 創建的開放、通用型 LLM。

132b

18.4K 11 個月前

說明文件

DBRX 需要 Ollama 0.1.32 版本

DBRX 是一個基於 Transformer 的僅解碼器大型語言模型 (LLM),使用下一個 token 預測進行訓練。它使用細粒度的混合專家 (MoE) 架構,總共有 1320 億個參數,其中 360 億個參數在任何輸入上都是活躍的。它在 12 兆 token 的文本和程式碼資料上進行了預訓練。

除了作為通用型 LLM 的優勢外,它還是一個特別強大的程式碼模型,在程式設計方面超越了像 CodeLLaMA-70B 這樣的專業模型。

參考文獻

部落格文章

HuggingFace