基於 Llama2 的無審查模型,支援 16K 上下文窗口。

13b

35.6K 13 個月前

讀我檔案

Everything Language Model 是基於 Llama 2 且具有 16k 上下文的模型,由 Totally Not An LLM (Kai Howard) 發布。它使用 EverythingLM 資料集進行訓練,且未經審查。

CLI

ollama run everythinglm

載入後,將上下文大小更改為 16K

/set parameter num_ctx 16384

API

範例

curl -X POST https://127.0.0.1:11434/api/generate -d '{
  "model": "everythinglm",
  "prompt": "Why is the sky blue?"
  "options": {
    "num_ctx": 16384
  }
 }'

參考

13b 參數原始來源:Totally Not An LLM