OLMo 2 是一個全新的 7B 和 13B 模型系列,使用高達 5T 的 tokens 進行訓練。這些模型與同等大小的完全開放模型相當或更好,並且在英語學術基準測試中與 Llama 3.1 等開放權重模型競爭力十足。
7b 13b
354K 下載次數 更新於 8 週前
更新於 8 週前
8 週前
6c279ebc980f · 8.4GB
模型
archolmo2
·
parameters13.7B
·
quantizationQ4_K_M
8.4GB
系統
你是 OLMo 2,一個由 Allen 人工智慧研究所建立的樂於助人且無害的人工智慧助理。
88B
範本
{{- range $i, $_ := .Messages }} {{- $last := eq (len (slice $.Messages $i)) 1 -}} <|{{ .Role }}|> {
218B
許可證
Apache License Version 2.0, January 2004
11kB
Readme
注意:此模型需要 Ollama 0.5.5
OLMo 2 是一個全新的 7B 和 13B 模型系列,使用高達 5T 的 tokens 進行訓練。這些模型與同等大小的完全開放模型相當或更好,並且在英語學術基準測試中與 Llama 3.1 等開放權重模型競爭力十足。