基於 Llama2 的非審查模型,支援 16K 上下文視窗。

13b

35.6K 13 個月前

Readme

Everything Language Model 是一個基於 Llama 2 的模型,具有 16k 上下文,由 Totally Not An LLM (Kai Howard) 發布。它使用 EverythingLM 資料集進行訓練,且未經審查。

CLI

ollama run everythinglm

載入後,將上下文大小變更為 16K

/set parameter num_ctx 16384

API

範例

curl -X POST https://127.0.0.1:11434/api/generate -d '{
  "model": "everythinglm",
  "prompt": "Why is the sky blue?"
  "options": {
    "num_ctx": 16384
  }
 }'

參考資料

13b 參數原始來源:Totally Not An LLM