Solar Pro Preview:一個先進的大型語言模型 (LLM),具有 220 億參數,設計為適用於單一 GPU

22b

27.4K 4 個月前

讀我檔案

Solar Pro Preview 是一個先進的大型語言模型 (LLM),具有 220 億參數,並優化為可在單一 GPU 上運作。它展現出比參數少於 300 億的 LLM 更優越的效能,並且提供與更大的模型(例如具有 700 億參數的 Llama 3.1)相媲美的結果。

「Solar Pro Preview」使用深度提升方法的增強版本開發,將具有 140 億參數的 Phi-3-medium 模型擴展到 220 億,設計為可在具有 80GB VRAM 的 GPU 上運行。訓練策略和資料集經過精心策劃,與 Phi-3-medium 相比,效能顯著提升,尤其是在評估模型知識和指令遵循能力的 MMLU-Pro 和 IFEval 等基準測試中。

作為官方「Solar Pro」的預發布版本,「Solar Pro Preview」在語言覆蓋範圍和最大上下文長度(4K)方面有所限制。儘管有這些限制,該模型仍以其效率和能力脫穎而出,並具有未來擴展以支援更多語言和功能的潛力。

官方版本的「Solar Pro」計劃於 2024 年 11 月發布,將包含擴展的語言支援和更長的上下文窗口。

參考文獻

部落格文章

Hugging Face