一系列為視覺語言理解設計的多模態大型語言模型 (MLLM)。

視覺 8b

102.5K 2 個月前

讀我檔案

注意:此模型需要 Ollama 0.3.10 或更高版本。

MiniCPM-V 2.6 是 MiniCPM-V 系列中最新且功能最強大的模型。此模型基於 SigLip-400M 和 Qwen2-7B 构建,總共有 8B 參數。相較於 MiniCPM-Llama3-V 2.5,它展現了顯著的性能提升,並為多圖像和影片理解引入了新功能。MiniCPM-V 2.6 的顯著功能包括

  • 🔥 領先的性能:MiniCPM-V 2.6 在最新版本的 OpenCompass 上取得了 65.2 的平均分,OpenCompass 是對 8 個熱門基準的綜合評估。僅使用 8B 參數,它在單圖像理解方面超越了廣泛使用的專有模型,如 GPT-4o mini、GPT-4V、Gemini 1.5 Pro 和 Claude 3.5 Sonnet。

  • 🖼️ 多圖像理解和上下文學習。MiniCPM-V 2.6 还可以執行跨多張圖像的對話和推理。它在流行的多圖像基準測試(如 Mantis-Eval、BLINK、Mathverse mv 和 Sciverse mv)上取得了最先進的性能,並在上下文學習能力方面也顯示出良好的前景。

  • 💪 強大的 OCR 功能:MiniCPM-V 2.6 可以處理任何長寬比且高達 180 萬像素(例如,1344x1344)的圖像。它在 OCRBench 上取得了最先進的性能,超越了 GPT-4o、GPT-4V 和 Gemini 1.5 Pro 等專有模型。基於最新的 RLAIF-V 和 VisCPM 技術,它具有值得信賴的行為,在 Object HalBench 上的幻覺率顯著低於 GPT-4o 和 GPT-4V,並支持英語、中文、德語、法語、意大利語、韓語等多種語言能力。

  • 🚀 優越的效率:除了友好的模型大小外,MiniCPM-V 2.6 還顯示出最先進的符記密度(即,編碼到每個視覺符記中的像素數量)。在處理 180 萬像素圖像時,它僅生成 640 個符記,比大多數模型少 75%。這直接提高了推理速度、首個符記延遲、記憶體使用量和功耗。

參考文獻

GitHub

Hugging Face