基於 Llama 和 Llama 2 的通用聊天模型,具有 2K 至 16K 上下文大小。
7b 13b 33b
172.5K 下載次數 更新於 15 months ago
更新於 15 months ago
15 months ago
3dabce096571 · 11GB
model
archllama
·
parameters13B
·
quantizationQ6_K
11GB
template
{{ .System }} USER: {{ .Prompt }} ASSISTANT:
45B
params
{ "num_ctx": 16384, "rope_frequency_scale": 0.125, "stop": [ "USER:", "A
76B
system
A chat between a curious user and an artificial intelligence assistant. The assistant gives helpful,
155B
說明
Vicuna 是一個聊天助理模型。它包含 3 種不同變體,各有 3 種不同大小。v1.3 透過微調 Llama 進行訓練,上下文大小為 2048 個 tokens。v1.5 透過微調 Llama 2 進行訓練,上下文大小為 2048 個 tokens。v1.5-16k 透過微調 Llama 2 進行訓練,上下文大小為 16k 個 tokens。所有三種變體都使用從 ShareGPT 收集的對話進行訓練。
範例提示
What is the meaning of life? Explain it in 5 paragraphs.