IBM Granite 1B 和 3B 模型是 IBM 首批為低延遲使用而設計的專家混合模型 (MoE) Granite 模型。

工具 1b 3b

34.5K 2 個月前

Readme

An illustration of Ollama holding a beautiful flower with the IBM Rebus logo of the Eye, Bee and M, made by Paul Rand.

Granite 專家混合模型

IBM Granite 1B 和 3B 模型是 IBM 首批為低延遲使用而設計的專家混合模型 (MoE) Granite 模型。

這些模型使用超過 10 兆個 token 的資料進行訓練,Granite MoE 模型非常適合部署在裝置端應用程式或需要即時推論的情況。

參數大小

1B

ollama run granite3-moe:1b

3B

ollama run granite3-moe:3b

支援的語言

英文、德文、西班牙文、法文、日文、葡萄牙文、阿拉伯文、捷克文、義大利文、韓文、荷蘭文、中文(簡體)

功能

  • 摘要
  • 文本分類
  • 文本提取
  • 問答
  • 檢索增強生成 (RAG)
  • 程式碼相關
  • 函數呼叫
  • 多語言對話用例

Granite 稠密模型

Granite 稠密模型提供 2B 和 8B 參數大小,旨在支援基於工具的用例和檢索增強生成 (RAG),簡化程式碼生成、翻譯和錯誤修復。

查看模型頁面

了解更多