作者 jonigl · jonigl/mcp-client-for-ollama
基于文本界面(TUI)的 MCP 服务器客户端,使用 Ollama 作为后端。支持代理模式、多服务器、模型切换、流式响应、工具管理、人工介入、思考模式、模型参数配置、MCP prompts、自定义系统提示词和偏好保存。面向本地 LLM 开发者。
基于文本界面(TUI)的 MCP 服务器客户端,使用 Ollama 作为后端。支持代理模式、多服务器、模型切换、流式响应、工具管理、人工介入、思考模式、模型参数配置、MCP prompts、自定义系统提示词和偏好保存。面向本地 LLM 开发者。
%APPDATA%\Claude\claude_desktop_config.json{
"mcpServers": {
"client-for-ollama": {
"command": "uvx",
"args": [
"mcp-client-for-ollama"
],
"_inferred": true
}
}
}
打开 Claude Desktop → Settings → Developer → Edit Config。保存后重启应用。
{
"mcpServers": {
"client-for-ollama": {
"command": "uvx",
"args": [
"mcp-client-for-ollama"
],
"_inferred": true
}
}
}
Cursor 使用与 Claude Desktop 相同的 mcpServers 格式。项目级配置优先于全局。
{
"mcpServers": {
"client-for-ollama": {
"command": "uvx",
"args": [
"mcp-client-for-ollama"
],
"_inferred": true
}
}
}
点击 Cline 侧栏中的 MCP Servers 图标,然后选 "Edit Configuration"。
{
"mcpServers": {
"client-for-ollama": {
"command": "uvx",
"args": [
"mcp-client-for-ollama"
],
"_inferred": true
}
}
}
格式与 Claude Desktop 相同。重启 Windsurf 生效。
{
"mcpServers": [
{
"name": "client-for-ollama",
"command": "uvx",
"args": [
"mcp-client-for-ollama"
]
}
]
}
Continue 使用服务器对象数组,而非映射。
{
"context_servers": {
"client-for-ollama": {
"command": {
"path": "uvx",
"args": [
"mcp-client-for-ollama"
]
}
}
}
}
加入 context_servers。Zed 保存后热重载。
claude mcp add client-for-ollama -- uvx mcp-client-for-ollama
一行命令搞定。用 claude mcp list 验证,claude mcp remove 卸载。