通过 OpenAPI 扩展数据库 ClickPipes
大多数用户不需要使用此 API
数据库 ClickPipes 的默认配置在大多数场景下开箱即用即可处理绝大部分工作负载。如果你认为你的工作负载需要扩展,请提交一个支持工单,我们会为你的使用场景提供最优配置指导。
扩展 API 适用于以下场景:
- 大规模初始加载(超过 4 TB)
- 尽可能快速地迁移中等规模的数据
- 在同一服务下支持超过 8 个 CDC ClickPipes
在尝试扩容之前,请先考虑:
- 确保源数据库具有足够的可用容量
- 在创建 ClickPipe 时,优先调整初始加载并行度和分区
- 检查源端是否存在可能导致 CDC 延迟的长时间运行事务
提升扩展级别会按比例增加 ClickPipes 的计算成本。 如果你仅为初始加载而扩容,务必在快照完成后及时缩容,以避免产生意外费用。有关定价的更多信息,请参阅 Postgres CDC 定价。
此流程的先决条件
在开始之前,您需要:
- 在目标 ClickHouse Cloud 服务上具有管理员权限的 ClickHouse API key。
- 在该服务中已经预配好的一个 DB ClickPipe(Postgres、MySQL 或 MongoDB)。CDC 基础设施会在创建第一个 ClickPipe 时一并创建,从那一刻起扩缩容相关端点即可使用。
扩展数据库 ClickPipes 的步骤
在执行任何命令之前,先设置以下环境变量:
获取当前扩缩容配置(可选):
设置所需的伸缩规模。支持的配置包括 1–24 个 CPU 核心,内存(GB)设置为 CPU 核心数的 4 倍:
等待配置生效(通常需要 3-5 分钟)。扩容完成后,GET 端点将显示更新后的数值: