Qwen2.5 模型基於阿里巴巴最新的大規模資料集進行預訓練,資料集包含多達 18 兆個 tokens。此模型支援高達 128K tokens,並具有多語言支援。

工具 0.5b 1.5b 3b 7b 14b 32b 72b

3.6M 4 個月前

Readme

Qwen2.5 是 Qwen 大型語言模型的最新系列。對於 Qwen2.5,發布了一系列基礎語言模型和指令微調模型,尺寸範圍從 0.5 到 720 億參數。Qwen2.5 相較於 Qwen2 引入了以下改進:

  • 由於這些領域的專業模型,它擁有顯著更多的知識,並且在編碼數學方面具有極大的增強能力。
  • 它在指令遵循長文本生成(超過 8K tokens)、理解結構化資料(例如,表格)和生成結構化輸出,尤其是在 JSON 格式方面,展現了顯著的進步。它也更能適應多樣化的系統提示,從而改善了聊天機器人的角色扮演和條件設定。
  • 它支援高達 128K tokens 的長上下文,並且可以生成高達 8K tokens。
  • 它為超過 29 種語言提供多語言支援,包括中文、英文、法文、西班牙文、葡萄牙文、德文、義大利文、俄文、日文、韓文、越南文、泰文、阿拉伯文等等。

請注意:除了 3B 和 72B 模型外,所有模型均以 Apache 2.0 授權條款發布,而 3B 和 72B 模型則以 Qwen 授權條款發布。

參考資料

GitHub

部落格文章

HuggingFace