一個精巧而強大的 107 億參數大型語言模型,專為單輪對話而設計。

10.7b

76.2K 13 個月前

說明文件

Solar 是第一個開源的 107 億參數語言模型。它結構緊湊,但功能非常強大,並在參數小於 300 億的模型中展現了最先進的性能。

此模型採用 Llama 2 架構,並使用深度向上擴展技術,將 Mistral 7B 權重整合到向上擴展的層中。

在 H6 基準測試中,此模型的性能優於參數高達 300 億的模型,甚至包括 Mixtral 8X7B 模型。

參考文獻

HuggingFace

Upstage AI