TinyLlama 專案是一個開放的嘗試,旨在訓練一個精巧的 11 億參數 Llama 模型,使用 3 兆個 tokens。

1.1b

1.3M 13 個月前

讀我檔案

TinyLlama 是一個精巧的模型,僅有 11 億參數。這種精巧性使其能夠滿足多種需要有限計算和記憶體足跡的應用。

參考資料

Hugging Face

GitHub