Qwen2.5 模型使用阿里巴巴最新的大規模數據集進行預訓練,數據集包含多達 18 兆個 tokens。該模型最多支持 128K tokens,並具有多語言支持。

工具 0.5b 1.5b 3b 7b 14b 32b 72b

360萬 4 個月前

讀我檔案

Qwen2.5 是最新的 Qwen 大型語言模型系列。Qwen2.5 發布了一系列基礎語言模型和指令微調模型,模型大小從 0.5 到 720 億參數不等。Qwen2.5 相較於 Qwen2 引入了以下改進:

  • 由於在這些領域中使用了專業的專家模型,它擁有顯著更多的知識,並在程式碼編寫和數學方面具有極大的增強能力。
  • 它在指令遵循、長文本生成(超過 8K tokens)、理解結構化數據(例如,表格)以及生成結構化輸出(尤其是在 JSON 格式)方面展現了顯著的進步。它也更能適應多樣化的系統提示,從而改進了聊天機器人的角色扮演和條件設定。
  • 它支持高達 128K tokens 的長上下文,並且可以生成高達 8K tokens。
  • 它提供超過 29 種語言的多語言支持,包括中文、英文、法文、西班牙文、葡萄牙文、德文、義大利文、俄文、日文、韓文、越南文、泰文、阿拉伯文等等。

請注意:除 3B 和 72B 模型外,所有模型均在 Apache 2.0 授權條款下發布,而 3B 和 72B 模型則在 Qwen 授權條款下發布。

參考文獻

GitHub

部落格文章

HuggingFace