IBM Granite Guardian 3.0 2B 和 8B 模型旨在偵測提示和/或回應中的風險。

2b 8b

13.6K 2 months ago

Readme

Granite Guardian 模型

IBM Granite Guardian 3.0 2B 和 8B 模型旨在偵測提示和/或回應中的風險。它們可以協助偵測 IBM AI 風險圖譜 中編目的多個關鍵維度的風險。它們使用獨特的資料進行訓練,這些資料包含人工註釋和內部紅隊提供的合成資料,並且在標準基準測試中,它們的效能優於同一領域的其他開放原始碼模型。

參數大小

模型將產生單一輸出符號,即 YesNo。預設情況下,使用通用 harm 類別,但可以透過設定系統提示來選擇其他類別。

2B

ollama run granite3-guardian:2b
>>> /set system profanity

8B

ollama run granite3-guardian:8b
>>> /set system violence

支援用途

  • 提示文字或模型回應中的風險偵測(即作為護欄),例如

    • 危害 (harm):被認為普遍有害的內容
    • 社會偏見 (social_bias):基於身分或特徵的偏見
    • 越獄 (jailbreak):蓄意操縱 AI 以產生有害、不良或不當內容的實例
    • 暴力 (violence):宣揚肢體、精神或性傷害的內容
    • 褻瀆 (profanity):使用冒犯性語言或侮辱
    • 性內容 (sexual_content):具有性性質的露骨或暗示性材料
    • 不道德行為 (unethical_behavior):違反道德或法律標準的行為
  • RAG(檢索增強生成)以評估

    • 上下文相關性 (relevance):檢索到的上下文是否與查詢相關
    • 根據性 (groundedness):回應是否準確且忠實於提供的上下文
    • 答案相關性 (answer_relevance):回應是否直接解決使用者的查詢

Granite 密集模型

Granite 密集模型提供 2B 和 8B 參數大小,旨在支援基於工具的使用案例和檢索增強生成 (RAG),簡化程式碼生成、翻譯和錯誤修復。

請參閱模型頁面

Granite 混合專家模型

Granite MoE 模型提供 1B 和 3B 參數大小,旨在用於低延遲使用,並支援部署在裝置端應用程式或需要即時推論的情況中。

請參閱模型頁面

瞭解更多