讀我檔案
Everything Language Model 是由 Totally Not An LLM (Kai Howard) 發布的基於 Llama 2 的模型,具有 16k 上下文。它使用 EverythingLM Dataset 進行訓練,且未經審查。
CLI
ollama run everythinglm
載入後,將上下文大小變更為 16K
/set parameter num_ctx 16384
API
範例
curl -X POST https://127.0.0.1:11434/api/generate -d '{
"model": "everythinglm",
"prompt": "Why is the sky blue?"
"options": {
"num_ctx": 16384
}
}'
參考文獻
13b 參數原始來源:Totally Not An LLM