Solar Pro Preview:一款先進的大型語言模型 (LLM),具有 220 億參數,設計為可容納於單一 GPU 中

22b

32.1K 5 個月前

讀我檔案

Solar Pro Preview 是一款先進的大型語言模型 (LLM),具有 220 億參數,最佳化以在單一 GPU 上運作。相較於參數少於 300 億的 LLM,它展現更優異的效能,且效能可與更大的模型相媲美,例如擁有 700 億參數的 Llama 3.1。

Solar Pro Preview 使用深度向上擴展方法的增強版本開發,將一個擁有 140 億參數的 Phi-3-medium 模型擴展到 220 億,設計為在具有 80GB VRAM 的 GPU 上運行。訓練策略和數據集經過精心策劃,相較於 Phi-3-medium,帶來顯著的效能提升,尤其是在 MMLU-Pro 和 IFEval 等基準測試中,這些基準測試評估模型的知識和指令遵循能力。

作為官方 Solar Pro 的預發布版本,Solar Pro Preview 在語言覆蓋範圍和最大上下文長度(4K)方面有所限制。儘管有這些限制,該模型仍以其效率和能力脫穎而出,未來有潛力擴展以支援更多語言和功能。

官方版本的 Solar Pro,預計於 2024 年 11 月發布,將包含更廣泛的語言支援和更長的上下文窗口。

參考文獻

部落格文章

Hugging Face