IBM Granite 1B 和 3B 模型是 IBM 開發的長上下文混合專家 (MoE) Granite 模型,專為低延遲使用而設計。

工具 1b 3b

20.6K 2 週前

說明文件

Granite 混合專家模型

IBM Granite 1B 和 3B 模型是 IBM 開發的長上下文混合專家 (MoE) Granite 模型,專為低延遲使用而設計。

這些模型使用超過 10 兆個 tokens 的資料進行訓練,Granite MoE 模型非常適合部署在裝置端應用程式或需要即時推論的情況。

參數大小

1B

ollama run granite3.1-moe:1b

3B

ollama run granite3.1-moe:3b

支援語言

英語、德語、西班牙語、法語、日語、葡萄牙語、阿拉伯語、捷克語、義大利語、韓語、荷蘭語、簡體中文

功能

  • 摘要
  • 文本分類
  • 文本擷取
  • 問答
  • 檢索增強生成 (RAG)
  • 程式碼相關任務
  • 函數呼叫任務
  • 多語言對話用例
  • 長上下文任務,包括長文件/會議摘要、長文件問答等。

Granite 密集模型

Granite 密集模型提供 2B 和 8B 參數大小,旨在支援基於工具的用例和檢索增強生成 (RAG),簡化程式碼生成、翻譯和錯誤修復。

查看模型頁面

了解更多