Jan
Jan

本地AI助手,支持多种开源模型

简介

Jan 是一个专注于本地运行的 AI 助手应用,旨在为用户提供一个简洁、高效、私密的 AI 对话环境。它采用 Electron + Node.js 构建,支持多种本地和云端 LLM,以其轻量级、快速启动和完全离线的特性,成为注重隐私用户的理想选择。

开源项目:GitHub 仓库

主要功能

  • 本地优先设计:默认在本地运行模型,数据完全不离开设备,保护隐私。
  • 多模型支持:兼容 Ollama、LocalAI、OpenAI 兼容 API 等多种后端。
  • 跨平台支持:提供 Windows、macOS、Linux 桌面应用。
  • 模型管理:内置模型市场,一键下载和切换模型。
  • API 服务:可作为本地 API 服务器,提供 OpenAI 兼容接口。
  • 扩展支持:支持通过扩展添加新功能和集成。
  • 对话历史:本地存储对话记录,支持导出和搜索。

适用场景

Jan 适用于多种场景:隐私敏感工作——处理敏感信息时使用本地模型,数据完全不外传;离线环境——无网络环境下使用 AI 功能;日常对话——作为 ChatGPT 的本地替代方案;开发测试——开发者测试和调试本地 LLM 应用;资源优化——在低配置设备上高效运行 AI 模型。

安装与使用

前置要求

  • Windows 10+ / macOS 10.15+ / Linux
  • 至少 4GB RAM(推荐 8GB+)
  • 至少 2GB 可用磁盘空间

桌面应用安装

访问 官网 下载对应系统的安装包进行安装。

使用本地模型

# Jan 会自动检测 Ollama(如果已安装)
# 在设置中连接 Ollama 服务

# 或者使用 Jan 内置的模型下载功能
# 1. 打开 Jan 应用
# 2. 进入「Model」页面
# 3. 选择模型并点击下载
# 4. 下载完成后即可开始对话

配置 API 服务

在设置中启用「Server」功能,Jan 将作为本地 API 服务器运行,提供 OpenAI 兼容接口供其他应用调用。

同类工具对比

工具名称 公司/厂商 特色 适合人群
Jan Jan AI Pte. Ltd. 轻量级、本地优先、隐私保护强 注重隐私的个人用户
Ollama Ollama Inc. 专注模型运行、命令行工具 开发者、技术用户
LM Studio LM Studio Inc. 模型管理专业、界面专业 技术用户、模型研究者
Anything LLM Mintplex Labs 知识库整合好、界面友好 个人用户、小团队

官网与入口

官网:https://jan.ai

GitHub:https://github.com/janhq/jan

使用方式:提供桌面应用下载,支持 Windows、macOS、Linux。推荐与 Ollama 配合使用以获得最佳本地模型体验。

价格与版本

社区版
完全免费
桌面应用
核心功能完整
云服务
云端模型访问
跨设备同步
技术支持

桌面应用完全免费,本地运行无需任何费用

使用技巧

🔒

保持完全离线

仅使用本地模型,不配置云端 API,确保数据完全不离开设备。

选择轻量模型

7B 参数模型在大多数设备上运行流畅,资源占用较低。

🔌

使用 API 服务

启用本地 API 服务,可被其他应用调用,构建更复杂的应用。

📦

利用扩展功能

通过扩展添加新功能,如系统监控、快捷操作等。

常见问题

使用Jan 和 Ollama 有什么区别?
Jan 是完整的应用,提供图形界面和对话功能;Ollama 是模型运行时工具。Jan 可以使用 Ollama 作为后端运行模型。
模型需要单独下载模型吗?
Jan 内置模型市场,可直接在应用内下载模型。也可以使用已通过 Ollama 下载的模型。
性能什么配置的电脑适合使用?
7B 参数模型需要至少 8GB RAM(推荐 16GB);13B 模型需要 16GB+ RAM;33B 模型需要 32GB+ RAM。

小结

Jan 作为一款专注于隐私保护的本地 AI 助手应用,以其轻量级、快速启动和完全离线的特性,成为注重数据安全的个人用户的理想选择。其简洁的界面和易用的操作方式,让用户可以轻松上手并享受本地 AI 带来的便利。

立即体验:访问 jan.ai 下载桌面应用开始使用。

Relevant Sites