更新於 15 個月前
15 個月前
dc65f2b65862 · 9.0GB
模型
archllama
·
parameters13B
·
quantizationQ5_0
9.0GB
params
{ "num_ctx": 131072 }
18B
說明文件
Yarn Llama 2 是一個基於 Llama2 的模型,將其上下文大小擴展到高達 128k 上下文。它由 Nous Research 開發,通過實施 YaRN 方法進一步訓練模型以支援更大的上下文窗口。
CLI
64k 上下文大小
ollama run yarn-llama2
128k 上下文大小
ollama run yarn-llama2:7b-128k
API
範例
curl -X POST https://127.0.0.1:11434/api/generate -d '{
"model": "yarn-llama2:7b-128k",
"prompt":"Here is a story about llamas eating grass"
}'
參考文獻
YaRN: Efficient Context Window Extension of Large Language Models