基於 Llama 2 且支援 16K 上下文視窗的非審查模型。

13b

35.6K 13 個月前

自述檔案

Everything Language Model 是由 Totally Not An LLM (Kai Howard) 發布的基於 Llama 2 且具有 16k 上下文的模型。它使用 EverythingLM 資料集 進行訓練,且未經審查。

CLI

ollama run everythinglm

載入後,將上下文大小變更為 16K

/set parameter num_ctx 16384

API

範例

curl -X POST https://127.0.0.1:11434/api/generate -d '{
  "model": "everythinglm",
  "prompt": "Why is the sky blue?"
  "options": {
    "num_ctx": 16384
  }
 }'

參考

13b 參數原始來源:Totally Not An LLM