使用 ClickHouse MCP 服务器与 Ollama
本指南介绍如何使用 ClickHouse MCP 服务器与 Ollama。
安装 Ollama
Ollama 是一个用于在本机运行大语言模型(LLM)的库。 它提供了种类丰富的模型,并且非常易于使用。
可以从下载页面获取适用于 Mac、Windows 或 Linux 的 Ollama。
运行 Ollama 之后,它会在后台启动一个本地服务器,你可以通过该服务器来运行模型。
或者,也可以通过运行 ollama serve 手动启动服务器。
安装完成后,可以按如下方式将模型拉取到本机:
如果本地尚未存在该模型,将会将其拉取到本机。 下载完成后,你可以按如下方式运行该模型:
只有支持工具的模型才能与 MCP 服务器配合使用。
我们可以像这样列出已经下载的模型:
我们可以使用以下命令查看已下载模型的详细信息:
从该输出可以看出,默认的 qwen3 模型拥有稍多于 80 亿个参数。
配置 ClickHouse MCP 服务器
我们可以在 YAML 或 JSON 配置文件中通过 MCPHost 配置 MCP 服务器。 MCPHost 会按以下顺序在你的家目录中查找配置文件:
.mcphost.yml或.mcphost.json(首选).mcp.yml或.mcp.json(向后兼容)
它采用的语法与标准 MCP 配置文件的语法类似。
下面是一个 ClickHouse MCP 服务器配置示例,我们将其保存到 ~/.mcphost.json 文件中:
与标准的 MCP 配置文件相比,主要区别在于我们需要指定一个 type。
该类型用于指示 MCP 服务器所使用的传输方式。
local→ stdio 传输remote→ 流式传输(streamable)builtin→ 进程内传输(inprocess)
我们还需要配置以下环境变量:
原则上,可以在 MCP 配置文件的 environment 字段下提供这些变量,但我们发现这样做并不起作用。
运行 MCPHost
配置好 ClickHouse MCP 服务器后,可以通过运行以下命令来运行 MCPHost:
或者,如果您希望使用特定的配置文件:
如果您不提供 --model 参数,MCPHost 将在环境变量中查找 ANTHROPIC_API_KEY 并使用 anthropic:claude-sonnet-4-20250514 模型。
应该会看到以下输出:
可以使用 /servers 命令列出 MCP 服务器:
使用 /tools 命令列出可用的工具:
然后可以向模型询问有关 ClickHouse SQL 演练场中可用数据库/表的问题。
根据我们的经验,使用较小的模型时(默认的 qwen3 模型有 80 亿个参数),您需要更明确地说明希望它执行的操作。 例如,您需要明确要求它列出数据库和表,而不是直接要求它查询某个表。 您可以通过使用更大的模型(例如 qwen3:14b)来部分缓解此问题,但在消费级硬件上运行速度会更慢。