基於 Llama 和 Llama 2 的通用聊天模型,上下文大小為 2K 到 16K。
7b 13b 33b
176.2K 下載次數 更新於 16 months ago
更新於 16 months ago
16 months ago
5771033f82b8 · 11GB
模型
archllama
·
parameters13B
·
quantizationQ6_K
11GB
參數
{ "stop": [ "USER:", "ASSISTANT:" ] }
31B
範本
{{ .System }} USER: {{ .Prompt }} ASSISTANT:
45B
系統
好奇的使用者與人工智慧助理之間的對話。助理提供有幫助的,
154B
Readme
Vicuna 是一個聊天助理模型。它包含 3 種不同變體,各有 3 種不同尺寸。v1.3 是通過微調 Llama 訓練的,上下文大小為 2048 個 tokens。v1.5 是通過微調 Llama 2 訓練的,上下文大小為 2048 個 tokens。v1.5-16k 是通過微調 Llama 2 訓練的,上下文大小為 16k 個 tokens。所有三種變體都是使用從 ShareGPT 收集的對話訓練的。
範例提示
What is the meaning of life? Explain it in 5 paragraphs.