基於 Llama 和 Llama 2 的通用聊天模型,上下文大小為 2K 至 16K。
7b 13b 33b
172.5K 下載次數 更新時間 15 months ago
更新於 15 個月前
15 個月前
fe6ff250b94e · 16GB
模型
archllama
·
parameters32.5B
·
quantizationQ3_K_M
16GB
參數
{ "stop": [ "USER:", "ASSISTANT:" ] }
31B
模板
{{ .System }} USER: {{ .Prompt }} ASSISTANT:
45B
系統
A chat between a curious user and an artificial intelligence assistant. The assistant gives helpful,
154B
讀我
Vicuna 是一個聊天助理模型。它包含 3 種不同變體,各有 3 種不同大小。v1.3 通過微調 Llama 進行訓練,上下文大小為 2048 個 tokens。v1.5 通過微調 Llama 2 進行訓練,上下文大小為 2048 個 tokens。v1.5-16k 通過微調 Llama 2 進行訓練,上下文大小為 16k 個 tokens。所有三種變體都使用從 ShareGPT 收集的對話進行訓練。
範例提示
What is the meaning of life? Explain it in 5 paragraphs.