更新於 10 個月前
10 個月前
e851dfecaaf5 · 5.9GB
模型
架構llama
·
參數7.24B
·
量化Q6_K
5.9GB
參數
{ "stop": [ "<|endoftext|>", "<|end_of_turn|>", "Human:", "Assis
87B
範本
{{ if .System }}GPT4 Correct System: {{ .System }}<|end_of_turn|>{{ end }}{{ if .Prompt }}GPT4 Corre
200B
授權條款
Apache License Version 2.0, January 2004
11kB
讀我檔案
Starling-7B 是一個開放(非商業用途)的大型語言模型 (LLM),透過來自 AI 反饋的強化學習進行訓練 (RLAIF)。
這個模型利用了我們新的 GPT-4 標記排名資料集 Nectar,以及我們新的獎勵訓練和策略調整流程的強大功能。Starling-7B-alpha 在 MT Bench 上的得分為 8.09(以 GPT-4 作為評審),在 MT-Bench 上超越了迄今為止的所有模型,除了 OpenAI 的 GPT-4 和 GPT-4 Turbo 之外。
*基於 MT Bench 評估,使用 GPT-4 評分。需要進一步的人工評估。
作者:Banghua Zhu, Evan Frick, Tianhao Wu, Hanlin Zhu 和 Jiantao Jiao。
如需聯繫,請洽 Banghua Zhu (banghua@berkeley.edu)。