基於 Llama2 的無審查模型,支援 16K 上下文視窗。

13b

35.6K 13 個月前

讀我檔案

Everything Language Model 是由 Totally Not An LLM (Kai Howard) 發布的基於 Llama 2 的模型,具有 16k 上下文。它使用 EverythingLM Dataset 進行訓練,且未經審查。

CLI

ollama run everythinglm

載入後,將上下文大小變更為 16K

/set parameter num_ctx 16384

API

範例

curl -X POST https://127.0.0.1:11434/api/generate -d '{
  "model": "everythinglm",
  "prompt": "Why is the sky blue?"
  "options": {
    "num_ctx": 16384
  }
 }'

參考文獻

13b 參數原始來源:Totally Not An LLM