DBRX 是由 Databricks 建立的開放通用型 LLM。

132b

17.6K 9 個月前

讀我檔案

DBRX 需要 Ollama 0.1.32

DBRX 是一個基於 Transformer 的僅解碼器大型語言模型 (LLM),它使用下一個 token 預測進行訓練。它使用細粒度的混合專家 (MoE) 架構,總共有 132B 個參數,其中 36B 個參數在任何輸入上都是活躍的。它在 12T 個 token 的文字和程式碼資料上進行了預訓練。

它是一個特別強大的程式碼模型,在程式設計方面超越了像 CodeLLaMA-70B 這樣的專業模型,並且作為通用型 LLM 也具有優勢。

參考資料

部落格文章

HuggingFace