eechat-跨平台本地部署LLM工具,支持mcp接入
- 开箱即用,无需代码基础,适合非技术背景用户。
- 免费开源,国产的免费开源应用,数据都存储在本地
- 多模型支持,同时支持 API 模型和本地模型聊天,可以自定义配置自己喜欢的模型
- 丰富的支持,支持 MCP、RAG 和插件支持
🖥️ 下载 eecha
功能介绍
对话
基础 AI 对话能力,数据本地存储,支持上下文对话,提示词配置,模型参数配置等。
MCP 能力
MCP 功能,支持模型上下文协议,支持模型上下文的存储,支持模型上下文的共享,支持模型上下文的搜索等。
内置 MCP运行环境
内置 MCP 市场及常用工具
支持与 Claude Desktop 同步配置
本地模型
支持在自己的电脑上运行开源模型。
API 模型
本地知识库
主要特性
–
一键集成、管理、运行多种 AI 工具与服务,让 AI 助手能力无限拓展
–
可视化添加新 MCP 应用,支持自动读取 README 或 AI 智能填充配置
–
内置 bun、uv 等运行环境自动检测与一键下载,无需手动配置依赖
–
MCP 工具热插拔,可随时添加、移除、升级,支持多实例并行运行
–
轻松查看、安装、启动、停止和删除各类 AI 工具,无需命令行操作
可视化配置
提供表单式可视化添加新 MCP 应用,支持自动读取 README 或 AI 智能填充配置,适合零基础用户快速集成新工具。
专业文件配置
内置专业 JSON 配置文件编辑器,支持格式化、重置、目录直达,满足进阶用户批量管理和深度定制需求。与Claude Desktop, Cursor, Cline 配置同步兼容。
集成运行环境
内置 bun、uv 等运行环境自动检测与一键下载,无需手动配置依赖,保障各类 Node.js/Python 工具即装即用。
对话工具调用
所有 MCP 工具均可在聊天窗口直接调用,实现 AI 与工具的无缝协作。
–
对话工具一键开关,随时切换工具状态
–
多工具并行,支持多轮对话
支持的模型
eechat 支持广泛的本地和基于 API 的模型,以满足您的需求。
本地模型
LLaVA
结合视觉编码器和 Vicuna 的多模态模型,用于视觉和语言理解。
Llama
各种尺寸的指令调优图像推理生成模型集合。
DeepSeek
与 OpenAI-o1 性能相当的第一代推理模型。
API 模型
OpenAI
连接到 OpenAI 的 GPT 模型,包括 GPT-3.5 和 GPT-4。
DeepSeek
通过 API 访问 DeepSeek 强大的语言模型。
Anthropic
集成 Anthropic 的 Claude 模型,用于高级推理。
更多模型
支持 Gemini、Together、Perplexity 和其他领先的 AI 提供商。