更新於 5週前
5週前
8039dd90c113 · 14GB
模型
架構llama
·
參數23.6B
·
量化Q4_K_M
14GB
參數
{ "temperature": 0.15 }
21B
系統
You are Mistral Small 3, a Large Language Model (LLM) created by Mistral AI, a French startup headqu
644B
範本
{{- range $index, $_ := .Messages }} {{- if eq .Role "system" }}[SYSTEM_PROMPT]{{ .Content }}[/SYSTE
695B
授權
Apache License Version 2.0, January 2004
11kB
讀我檔案
Mistral Small 3 在 70B 以下「小型」大型語言模型類別中樹立了新標竿,擁有 240 億參數,並達到可與更大型模型相媲美的最先進能力。
Mistral Small 可以本地部署,並具有極高的「知識密度」,量化後可容納於單張 RTX 4090 或 32GB RAM 的 MacBook 中。非常適合用於
- 快速回應的對話式代理程式。
- 低延遲的函式呼叫。
- 透過微調成為領域專家。
- 供業餘愛好者和處理敏感資料的組織進行本地推論。
主要特色
- 多語言: 支援數十種語言,包括英文、法文、德文、西班牙文、義大利文、中文、日文、韓文、葡萄牙文、荷蘭文和波蘭文。
- 以代理程式為中心: 提供一流的代理程式能力,具備原生函式呼叫和 JSON 輸出功能。
- 進階推理: 最先進的對話和推理能力。
- Apache 2.0 授權: 開放授權,允許基於商業和非商業目的使用和修改。
- 上下文視窗: 32k 上下文視窗。
- 系統提示: 維持對系統提示的強烈遵循和支援。
- 分詞器: 使用 Tekken 分詞器,具有 131k 詞彙量。
人工評估
我們與外部第三方供應商進行了並排評估,針對一組超過 1000 個專有的編碼和通用提示。評估人員的任務是從 Mistral Small 3 與另一個模型產生的匿名生成結果中,選擇他們偏好的模型回應。我們知道在某些情況下,人工判斷的基準測試與公開可用的基準測試截然不同,但我們已格外謹慎地驗證了評估的公正性。我們確信上述基準測試是有效的。
指令效能
我們的指令微調模型在效能上可與體積是其三倍的開放權重模型相媲美,以及在 Code、Math、General knowledge 和 Instruction following benchmarks 中,與專有的 GPT4o-mini 模型相媲美。
所有基準測試的效能準確度均透過相同的內部評估流程獲得,因此,數字可能與先前報告的效能 (Qwen2.5-32B-Instruct, Llama-3.3-70B-Instruct, Gemma-2-27B-IT) 略有不同。基於評判的評估,例如 Wildbench、Arena hard 和 MTBench,均基於 gpt-4o-2024-05-13。
客戶正在多個產業中評估 Mistral Small 3,包括
- 金融服務客戶用於詐欺偵測
- 醫療保健提供者用於客戶分流
- 機器人、汽車和製造公司用於裝置端命令和控制
- 跨客戶的橫向使用案例包括虛擬客戶服務,以及情緒和意見回饋分析。