DBRX 是由 Databricks 創建的開放通用型 LLM。

132b

18.4K 11 個月前

讀我檔案

DBRX 需要 Ollama 0.1.32

DBRX 是一個基於 Transformer 的僅解碼器大型語言模型 (LLM),它使用下一個 token 預測進行訓練。它採用細粒度混合專家 (MoE) 架構,總共有 132B 個參數,其中 36B 個參數在任何輸入上都是活躍的。它在 12T tokens 的文本和程式碼資料上進行了預訓練。

它是一個特別強大的程式碼模型,在程式設計方面超越了像 CodeLLaMA-70B 這樣的專用模型,並且作為通用型 LLM 也具有優勢。

參考文獻

部落格文章

HuggingFace