
声明:文档由AI生成,仅作参考,最终功能和计费标准以官方为准。
![]()
Ollama是由Jeffrey Morgan和Michael Chiang于2021年在加利福尼亚州帕洛阿尔托创立的Ollama公司研发的轻量级可扩展框架,核心为帮助用户在本地及云端快速部署、运行和管理各类开源大型语言模型,同时支持模型与各类应用、代理的对接集成,实现代码开发、文档分析、任务自动化等多类AI相关工作。
![]()
Ollama采用免费+付费包月订阅的收费模式,免费版可满足基础使用需求,付费版分为Pro和Max两个档位,在云端模型使用、私有模型创建、协作权限等方面提供更多权益,具体权益对比见下表:
| 权益项 | Free(免费) | Pro(包月) | Max(包月) |
|---|---|---|---|
| 月费 | $0 | $20 | $100 |
| 基础能力 | 支持开源模型自动化任务、本地模型运行、CLI/API/桌面端使用、40000+社区集成、无限公共模型、基础云端模型访问 | 包含Free全部权益 | 包含Pro全部权益 |
| 云端模型同时运行数量 | 基础单模型运行 | 多模型同时运行 | 5+模型同时运行 |
| 云端模型使用额度 | 轻量使用(聊天、快速问答、模型试用) | 日常工作使用(RAG、文档分析、编码),额度高于Free | 重度持续使用(编码代理、批处理、数据自动化),为Pro的5倍 |
| 私有模型创建数量 | 0个 | 3个 | 5个 |
| 单模型协作人数 | 0人 | 3人 | 5人 |
注:本地硬件运行模型无任何使用额度及数量限制,所有付费套餐均为月度订阅,在计费周期开始时扣款,用户可随时取消订阅。
![]()
A:不会,Ollama不会对任何用户的提示词和响应数据进行记录、日志留存,也不会将相关数据用于模型训练。
A:云端模型是运行在数据中心基础设施上的模型,相比本地运行的模型,能提供更快的响应速度,同时可让用户访问规格更大的模型。
A:本地运行时,可运行的模型数量由用户的硬件性能决定,无官方限制;云端模型的运行数量受套餐限制,Free版为基础单模型,Pro版支持多模型同时运行,Max版可同时运行5+模型。
A:在用户自有硬件上运行模型无任何使用额度限制;云端模型的使用额度分套餐设定,Free版为轻量使用,适用于聊天、快速问答等场景;Pro版为日常工作使用,适用于RAG、文档分析、编码等场景;Max版为重度持续使用,适用于编码代理、批处理、数据自动化等场景,该限制仅为防止滥用,不会影响正常工作使用。
A:是,所有云端请求均在传输过程中进行加密,且官方不会存储用户的提示词和输出内容。
A:可以,Ollama支持在用户自有硬件上全离线运行,云端功能为可选配置,不影响本地核心功能使用。
A:采用月度订阅制,在每个计费周期开始时进行扣款,用户可随时取消订阅,无强制绑定要求。
A:团队和企业版套餐正在开发中,如需了解相关信息,可通过hello@ollama.com进行咨询。
A:云端支持的模型可参考官方提供的云端模型完整列表(官方指定查询地址)。
A:公共模型在ollama.com上对所有用户可见,可自由使用;私有模型仅创建者及邀请的协作者可访问,私有模型的创建数量由用户所购套餐决定。
A:协作者是被模型创建者邀请,可访问对应私有模型的用户,单模型可添加的协作者数量由用户所购套餐决定。