DBRX 是由 Databricks 建立的開放通用型 LLM。

132b

18.4K 11 個月前

說明文件

DBRX 需要 Ollama 0.1.32

DBRX 是一個基於 Transformer 的僅解碼器大型語言模型 (LLM),它使用下一個 token 預測進行訓練。它使用細粒度混合專家 (MoE) 架構,總共有 132B 個參數,其中任何輸入上都有 36B 個參數處於活動狀態。它在 12T 個 token 的文本和程式碼資料上進行了預訓練。

它是一個特別有能力的程式碼模型,在程式設計方面超越了像 CodeLLaMA-70B 這樣的專用模型,並且作為通用 LLM 也具有優勢。

參考文獻

部落格文章

HuggingFace