OLMo 2 是一個全新的 7B 和 13B 模型系列,最多使用 5T tokens 進行訓練。這些模型在英文學術基準測試中,與同等大小的完全開放模型性能相當或更佳,並且與 Llama 3.1 等開放權重模型相比也具有競爭力。
7b 13b
354K 下載次數 更新於 8 週前
更新於 8 週前
8 週前
4208d3b406db · 4.5GB
model
archolmo2
·
parameters7.3B
·
quantizationQ4_K_M
4.5GB
system
You are OLMo 2, a helpful and harmless AI Assistant built by the Allen Institute for AI.
88B
template
{{- range $i, $_ := .Messages }} {{- $last := eq (len (slice $.Messages $i)) 1 -}} <|{{ .Role }}|> {
218B
license
Apache License Version 2.0, January 2004
11kB
讀我檔案
注意:此模型需要 Ollama 0.5.5
OLMo 2 是一個全新的 7B 和 13B 模型系列,最多使用 5T tokens 進行訓練。這些模型在英文學術基準測試中,與同等大小的完全開放模型性能相當或更佳,並且與 Llama 3.1 等開放權重模型相比也具有競爭力。