結構化輸出

12月 6, 2024

Ollama 現在支援結構化輸出,讓您可以將模型的輸出限制為 JSON schema 定義的特定格式。Ollama Python 和 JavaScript 函式庫已更新以支援結構化輸出。

Ollama Python 函式庫 0.4 版本,功能呼叫功能已改進

11月 25, 2024

在 Ollama Python 函式庫 0.4 版本中,現在可以將函式作為工具提供。該函式庫現在也具備完整的型別支援,並新增了範例。

Llama 3.2 Vision

11月 6, 2024

Llama 3.2 Vision 11B 和 90B 模型現在已在 Ollama 上提供。

IBM Granite 3.0 模型

10月 21, 2024

Ollama 與 IBM 合作,將 Granite 3.0 模型引入 Ollama。

Llama 3.2 變得更小巧且具備多模態功能

9月 25, 2024

Ollama 與 Meta 合作,將 Llama 3.2 引入 Ollama。

使用 Bespoke-Minicheck 減少幻覺

9月 18, 2024

Bespoke-Minicheck 是 Bespoke Labs 開發的新型基礎事實性檢查模型,現已在 Ollama 上提供。它可以事實查核其他模型產生的回應,以偵測和減少幻覺。

工具支援

7月 25, 2024

Ollama 現在支援使用熱門模型 (例如 Llama 3.1) 的工具呼叫。這讓模型可以使用它知道的工具來回答給定的提示,使模型能夠執行更複雜的任務或與外部世界互動。

Google Gemma 2

6月 27, 2024

Gemma 2 現在已在 Ollama 上提供,共有 3 種尺寸 - 2B、9B 和 27B。

在您的編輯器中完全開源的 AI 程式碼助理

5月 31, 2024

Continue 讓您可以輕鬆地直接在 Visual Studio Code 和 JetBrains 中使用開源 LLM 建立自己的程式碼助理。

Google 宣布推出支援 Ollama 的 Firebase Genkit

5月 20, 2024

在 Google IO 2024 大會上,Google 宣布 Firebase Genkit 支援 Ollama,Firebase Genkit 是一個新的開源框架,供開發人員建置、部署和監控可投入生產環境的 AI 驅動應用程式。

Llama 3 的審查程度不高

4月 19, 2024

與 Llama 2 相比,Llama 3 的審查程度感覺低得多。Meta 大幅降低了錯誤拒絕率。Llama 3 的拒絕提示次數將不到 Llama 2 先前拒絕提示次數的三分之一。

Llama 3

4月 18, 2024

Llama 3 現在可在 Ollama 上執行。此模型是 Meta 最先進大型語言模型的下一代產品,也是迄今為止功能最強大的公開可用 LLM。

嵌入模型

4月 8, 2024

嵌入模型已在 Ollama 中提供,讓您可以輕鬆產生向量嵌入,以用於搜尋和檢索增強生成 (RAG) 應用程式。

Ollama 現在支援 AMD 顯示卡

3月 14, 2024

Ollama 現在在 Windows 和 Linux 上以預覽版形式支援 AMD 顯示卡。Ollama 在 Linux 和 Windows 上的所有功能現在都可以透過 AMD 顯示卡加速。

Windows 預覽版

2月 15, 2024

Ollama 現在以預覽版形式在 Windows 上提供,讓您可以在全新的原生 Windows 體驗中提取、執行和建立大型語言模型。Windows 版 Ollama 包含內建 GPU 加速、存取完整的模型庫,並提供包含 OpenAI 相容性的 Ollama API。

OpenAI 相容性

2月 8, 2024

Ollama 現在初步相容於 OpenAI Chat Completions API,讓您可以使用專為 OpenAI 打造的現有工具,透過 Ollama 使用本機模型。

視覺模型

2月 2, 2024

新的視覺模型現已推出:LLaVA 1.6,提供 7B、13B 和 34B 參數尺寸。這些模型支援更高解析度的影像、改進的文字辨識和邏輯推理。

Python 和 JavaScript 函式庫

1月 23, 2024

Ollama Python 和 JavaScript 函式庫的初始版本現已推出,讓您可以輕鬆地將 Python、JavaScript 或 Typescript 應用程式與 Ollama 整合,只需幾行程式碼即可完成。這兩個函式庫都包含 Ollama REST API 的所有功能,設計風格熟悉,並且與新舊版本的 Ollama 相容。

使用用戶端技術建置 LLM 驅動的 Web 應用程式

10月 13, 2023

使用開源、本機執行的軟體重新建立最受歡迎的 LangChain 用例之一 - 一個執行檢索增強生成 (簡稱 RAG) 的鏈,讓您可以「與您的文件聊天」

Ollama 現在以官方 Docker 映像檔形式提供

10月 5, 2023

Ollama 現在可以在 Mac 上使用 Docker Desktop 執行,並且可以在 Linux 上使用 GPU 加速在 Docker 容器內執行。

在您的 Obsidian 筆記中運用 LLM

9月 21, 2023

這篇文章逐步說明如何在 Obsidian 或任何筆記工具中整合使用 Ollama 的本機 LLM。

如何提示 Code Llama

9月 9, 2023

本指南逐步說明如何為 Code Llama 建構提示的不同方式,以及其不同的變體和功能,包括指示、程式碼完成和填空中間 (FIM)。

在本機執行 Code Llama

8月 24, 2023

Meta 的 Code Llama 現在已在 Ollama 上提供試用。

在本機執行未經審查的 Llama 2

8月 1, 2023

這篇文章將提供一些範例比較,說明執行未經審查的 Llama 2 模型與其審查模型。