更新於 15 個月前
15 個月前
68bdf2550ed6 · 4.8GB
模型
archllama
·
parameters6.74B
·
quantizationQ5_K_M
4.8GB
參數
{ "num_ctx": 131072 }
18B
Readme
Yarn Llama 2 是一個基於 Llama2 的模型,將其上下文大小擴展到 128k 上下文。它由 Nous Research 開發,通過實施 YaRN 方法進一步訓練模型以支持更大的上下文窗口。
CLI
64k context size
ollama run yarn-llama2
128k context size
ollama run yarn-llama2:7b-128k
API
範例
curl -X POST https://127.0.0.1:11434/api/generate -d '{
"model": "yarn-llama2:7b-128k",
"prompt":"Here is a story about llamas eating grass"
}'
參考文獻
YaRN: Efficient Context Window Extension of Large Language Models