DBRX 是由 Databricks 創建的開放通用型 LLM。

132b

1.76 萬 9 個月前

說明

DBRX 需要 Ollama 0.1.32

DBRX 是一個基於 Transformer 的僅解碼器大型語言模型 (LLM),它使用下一個 token 預測進行訓練。它採用細粒度混合專家 (MoE) 架構,總共有 1320 億個參數,其中 360 億個參數在任何輸入上都是活躍的。它在 12 兆個 token 的文字和程式碼資料上進行了預訓練。

它是一個功能特別強大的程式碼模型,在程式設計方面超越了像 CodeLLaMA-70B 這樣的專用模型,並且作為通用型 LLM 也具有優勢。

參考資料

部落格文章

HuggingFace