基於 Llama2 的無審查模型,支援 16K 上下文視窗。

13b

35.6K 13 個月前

使用說明

Everything Language Model (萬物語言模型) 是一個基於 Llama 2 的模型,具有 16k 上下文,由 Totally Not An LLM (Kai Howard) 發布。它使用 EverythingLM 資料集進行訓練,並且是無審查的。

CLI

ollama run everythinglm

載入後,將上下文大小更改為 16K

/set parameter num_ctx 16384

API

範例

curl -X POST https://127.0.0.1:11434/api/generate -d '{
  "model": "everythinglm",
  "prompt": "Why is the sky blue?"
  "options": {
    "num_ctx": 16384
  }
 }'

參考

13b 參數原始來源:Totally Not An LLM