Jan
本地AI助手,支持多种开源模型
简介
Jan 是一个专注于本地运行的 AI 助手应用,旨在为用户提供一个简洁、高效、私密的 AI 对话环境。它采用 Electron + Node.js 构建,支持多种本地和云端 LLM,以其轻量级、快速启动和完全离线的特性,成为注重隐私用户的理想选择。
开源项目:GitHub 仓库
主要功能
- 本地优先设计:默认在本地运行模型,数据完全不离开设备,保护隐私。
- 多模型支持:兼容 Ollama、LocalAI、OpenAI 兼容 API 等多种后端。
- 跨平台支持:提供 Windows、macOS、Linux 桌面应用。
- 模型管理:内置模型市场,一键下载和切换模型。
- API 服务:可作为本地 API 服务器,提供 OpenAI 兼容接口。
- 扩展支持:支持通过扩展添加新功能和集成。
- 对话历史:本地存储对话记录,支持导出和搜索。
适用场景
Jan 适用于多种场景:隐私敏感工作——处理敏感信息时使用本地模型,数据完全不外传;离线环境——无网络环境下使用 AI 功能;日常对话——作为 ChatGPT 的本地替代方案;开发测试——开发者测试和调试本地 LLM 应用;资源优化——在低配置设备上高效运行 AI 模型。
安装与使用
前置要求
- Windows 10+ / macOS 10.15+ / Linux
- 至少 4GB RAM(推荐 8GB+)
- 至少 2GB 可用磁盘空间
桌面应用安装
访问 官网 下载对应系统的安装包进行安装。
使用本地模型
# Jan 会自动检测 Ollama(如果已安装)
# 在设置中连接 Ollama 服务
# 或者使用 Jan 内置的模型下载功能
# 1. 打开 Jan 应用
# 2. 进入「Model」页面
# 3. 选择模型并点击下载
# 4. 下载完成后即可开始对话
配置 API 服务
在设置中启用「Server」功能,Jan 将作为本地 API 服务器运行,提供 OpenAI 兼容接口供其他应用调用。
同类工具对比
| 工具名称 | 公司/厂商 | 特色 | 适合人群 |
|---|---|---|---|
| Jan | Jan AI Pte. Ltd. | 轻量级、本地优先、隐私保护强 | 注重隐私的个人用户 |
| Ollama | Ollama Inc. | 专注模型运行、命令行工具 | 开发者、技术用户 |
| LM Studio | LM Studio Inc. | 模型管理专业、界面专业 | 技术用户、模型研究者 |
| Anything LLM | Mintplex Labs | 知识库整合好、界面友好 | 个人用户、小团队 |
官网与入口
GitHub:https://github.com/janhq/jan
使用方式:提供桌面应用下载,支持 Windows、macOS、Linux。推荐与 Ollama 配合使用以获得最佳本地模型体验。
价格与版本
社区版
完全免费
桌面应用
核心功能完整
桌面应用
核心功能完整
云服务
云端模型访问
跨设备同步
技术支持
跨设备同步
技术支持
桌面应用完全免费,本地运行无需任何费用
使用技巧
保持完全离线
仅使用本地模型,不配置云端 API,确保数据完全不离开设备。
选择轻量模型
7B 参数模型在大多数设备上运行流畅,资源占用较低。
使用 API 服务
启用本地 API 服务,可被其他应用调用,构建更复杂的应用。
利用扩展功能
通过扩展添加新功能,如系统监控、快捷操作等。
常见问题
使用Jan 和 Ollama 有什么区别?
Jan 是完整的应用,提供图形界面和对话功能;Ollama 是模型运行时工具。Jan 可以使用 Ollama 作为后端运行模型。
模型需要单独下载模型吗?
Jan 内置模型市场,可直接在应用内下载模型。也可以使用已通过 Ollama 下载的模型。
性能什么配置的电脑适合使用?
7B 参数模型需要至少 8GB RAM(推荐 16GB);13B 模型需要 16GB+ RAM;33B 模型需要 32GB+ RAM。
小结
Jan 作为一款专注于隐私保护的本地 AI 助手应用,以其轻量级、快速启动和完全离线的特性,成为注重数据安全的个人用户的理想选择。其简洁的界面和易用的操作方式,让用户可以轻松上手并享受本地 AI 带来的便利。
立即体验:访问 jan.ai 下载桌面应用开始使用。
开源LangChain GUI,可视化构建AI工作流