Updated 15 months ago
15 months ago
46e9636b6006 · 7.2GB
model
archllama
·
parameters6.74B
·
quantizationQ8_0
7.2GB
params
{ "num_ctx": 131072 }
18B
Readme
Yarn Llama 2 是一個基於 Llama2 的模型,它將上下文大小擴展到 128k 上下文。它由 Nous Research 開發,通過實施 YaRN 方法來進一步訓練模型以支援更大的上下文窗口。
CLI
64k context size
ollama run yarn-llama2
128k context size
ollama run yarn-llama2:7b-128k
API
範例
curl -X POST https://127.0.0.1:11434/api/generate -d '{
"model": "yarn-llama2:7b-128k",
"prompt":"Here is a story about llamas eating grass"
}'