OLMo 2 是一個新的 7B 和 13B 模型系列,訓練數據高達 5T tokens。這些模型與同等大小的完全開放模型相當或更好,並且在英語學術基準測試中與 Llama 3.1 等開放權重模型競爭力十足。

7b 13b

29K 3 週前

9 標籤
4208d3b406db • 4.5GB • 3 週前
4208d3b406db • 4.5GB • 3 週前
6c279ebc980f • 8.4GB • 3 週前
c5cd17f69ca0 • 27GB • 3 週前
6c279ebc980f • 8.4GB • 3 週前
54d0ec72e884 • 15GB • 3 週前
fa483f2d5cc7 • 15GB • 3 週前
4208d3b406db • 4.5GB • 3 週前
e75d0b293717 • 7.8GB • 3 週前