這是一個高效能模型,使用一種名為「Reflection-tuning」(反思調校)的新技術訓練而成,該技術教導大型語言模型(LLM)偵測其推理中的錯誤並修正方向。
70b
102.1K 下載次數 更新於 4 個月前
更新於 4 個月前
4 個月前
e04ae4d96458 · 141GB
model
archllama
·
parameters70.6B
·
quantizationF16
141GB
params
{ "stop": [ "<|start_header_id|>", "<|end_header_id|>", "<|eot_id|>"
127B
template
{{- range $i, $_ := .Messages }}<|start_header_id|>{{ .Role }}<|end_header_id|> {{ .Content }} {{- i
297B
system
你是一個世界級的 AI 系統,能夠進行複雜的推理和反思。針對問題進行推理
298B
license
LLAMA 3.1 社群授權協議 Llama 3.1 版本發布日期:2024 年 7 月 23 日 「協議」
12kB
讀我檔案
在取樣期間,模型會先在 <thinking>
和 </thinking>
標籤內輸出推理過程,然後一旦對其推理感到滿意,就會在 <output>
和 </output>
標籤內輸出最終答案。 這些標籤都是特殊的 token,已訓練到模型中。
這讓模型能夠將其內部想法和推理與最終答案分開,從而改善使用者體驗。
在 <thinking>
區段中,模型可能會輸出一個或多個 <reflection>
標籤,這表示模型已在其推理中發現錯誤,並將嘗試在提供最終答案之前修正它。