🪜Ollama

Ollama是由Jeffrey Morgan和Michael Chiang于2021年在加利福尼亚州帕洛阿尔托创立的Ollama公司研发的轻量级可扩展框架,核心为帮助用户在本地及云端快速部署、运行和管理各类开源大型语言模型,同时支持模型与各类应用、代理的对接集成,实现代码开发、文档分析、任务自动化等多类AI相关工作。

Ollama模型框架模型管理
2访问 1 更新于 2026-04-15 10:12

声明:文档由AI生成,仅作参考,最终功能和计费标准以官方为准。

一、产品概述

ScreenShot_2026-03-19_121038_981.png

Ollama是由Jeffrey Morgan和Michael Chiang于2021年在加利福尼亚州帕洛阿尔托创立的Ollama公司研发的轻量级可扩展框架,核心为帮助用户在本地及云端快速部署、运行和管理各类开源大型语言模型,同时支持模型与各类应用、代理的对接集成,实现代码开发、文档分析、任务自动化等多类AI相关工作。

ScreenShot_2026-03-19_120900_851.png

二、产品特色

  1. 模型支持丰富,涵盖GPT-OSS、Gemma 3、DeepSeek-R1、Qwen3、Llama 3系列、Phi 3系列、Mistral等多款开源大型语言模型,同时支持1700+大语言模型的下载使用,也可导入ggml格式自定义模型。
  2. 跨平台运行,支持macOS、Windows、Linux三大操作系统,可在本地硬件全离线运行,也可接入云端模型获得更优性能。
  3. 操作便捷,提供命令行界面(CLI),一行命令即可完成模型的下载、运行与管理,同时具备REST API接口,支持程序化调用。
  4. 硬件适配性强,本地运行模型的数量由硬件性能决定,支持GPU加速(NVIDIA CUDA、Vulkan)及多GPU并行推理,不同参数量模型适配不同规格内存硬件(8GB RAM可运行7B模型,16GB RAM可运行13B模型,32GB RAM可运行33B模型)。
  5. 集成能力优异,拥有40000+社区集成,覆盖编码(Claude Code、Codex、OpenCode)、文档与RAG(LangChain、LlamaIndex、AnythingLLM)、自动化(OpenClaw、n8n、Dify)、聊天(Open WebUI、Onyx、Msty)等多个领域。
  6. 开发支持完善,提供官方Python、JavaScript/TypeScript库,同时拥有20+社区维护的第三方开发库,满足不同开发语言的对接需求。
  7. 数据隐私性高,本地运行可保障数据私有化,云端请求全程加密且不存储用户的提示词与输出内容,也不会对相关数据进行记录、日志留存或训练使用。
  8. 自定义性强,可通过编写modelfile配置文件调整模型推理参数(如temperature、top_p),实现模型生成效果的个性化配置。

三、收费标准

Ollama采用免费+付费包月订阅的收费模式,免费版可满足基础使用需求,付费版分为Pro和Max两个档位,在云端模型使用、私有模型创建、协作权限等方面提供更多权益,具体权益对比见下表:

权益项Free(免费)Pro(包月)Max(包月)
月费$0$20$100
基础能力支持开源模型自动化任务、本地模型运行、CLI/API/桌面端使用、40000+社区集成、无限公共模型、基础云端模型访问包含Free全部权益包含Pro全部权益
云端模型同时运行数量基础单模型运行多模型同时运行5+模型同时运行
云端模型使用额度轻量使用(聊天、快速问答、模型试用)日常工作使用(RAG、文档分析、编码),额度高于Free重度持续使用(编码代理、批处理、数据自动化),为Pro的5倍
私有模型创建数量0个3个5个
单模型协作人数0人3人5人

注:本地硬件运行模型无任何使用额度及数量限制,所有付费套餐均为月度订阅,在计费周期开始时扣款,用户可随时取消订阅。

ScreenShot_2026-03-19_120939_266.png

四、常见问题

Q:Ollama是否会记录用户的提示词或响应数据?

A:不会,Ollama不会对任何用户的提示词和响应数据进行记录、日志留存,也不会将相关数据用于模型训练。

Q:什么是Ollama的云端模型?

A:云端模型是运行在数据中心基础设施上的模型,相比本地运行的模型,能提供更快的响应速度,同时可让用户访问规格更大的模型。

Q:Ollama一次可以运行多少个模型?

A:本地运行时,可运行的模型数量由用户的硬件性能决定,无官方限制;云端模型的运行数量受套餐限制,Free版为基础单模型,Pro版支持多模型同时运行,Max版可同时运行5+模型。

Q:Ollama的使用额度有哪些限制?

A:在用户自有硬件上运行模型无任何使用额度限制;云端模型的使用额度分套餐设定,Free版为轻量使用,适用于聊天、快速问答等场景;Pro版为日常工作使用,适用于RAG、文档分析、编码等场景;Max版为重度持续使用,适用于编码代理、批处理、数据自动化等场景,该限制仅为防止滥用,不会影响正常工作使用。

Q:Ollama的云端数据是否加密?

A:是,所有云端请求均在传输过程中进行加密,且官方不会存储用户的提示词和输出内容。

Q:能否在气隙环境(断网环境)中使用Ollama?

A:可以,Ollama支持在用户自有硬件上全离线运行,云端功能为可选配置,不影响本地核心功能使用。

Q:Ollama的计费方式是怎样的?

A:采用月度订阅制,在每个计费周期开始时进行扣款,用户可随时取消订阅,无强制绑定要求。

Q:Ollama是否提供团队或企业版套餐?

A:团队和企业版套餐正在开发中,如需了解相关信息,可通过hello@ollama.com进行咨询。

Q:Ollama有哪些云端模型可供使用?

A:云端支持的模型可参考官方提供的云端模型完整列表(官方指定查询地址)。

Q:Ollama中的公共模型和私有模型有什么区别?

A:公共模型在ollama.com上对所有用户可见,可自由使用;私有模型仅创建者及邀请的协作者可访问,私有模型的创建数量由用户所购套餐决定。

Q:什么是Ollama的协作者?

A:协作者是被模型创建者邀请,可访问对应私有模型的用户,单模型可添加的协作者数量由用户所购套餐决定。