OLMo 2 是一個全新的 7B 和 13B 模型系列,使用高達 5T 個 tokens 進行訓練。這些模型與同等大小的完全開放模型相當或更好,並且在英語學術基準測試中與 Llama 3.1 等開放權重模型競爭力相當。
7b 13b
354.4K 提取次數 更新於 8 週前
Readme
注意:此模型需要 Ollama 0.5.5
OLMo 2 是一個全新的 7B 和 13B 模型系列,使用高達 5T 個 tokens 進行訓練。這些模型與同等大小的完全開放模型相當或更好,並且在英語學術基準測試中與 Llama 3.1 等開放權重模型競爭力相當。