HDFS 表引擎
该引擎通过允许通过 ClickHouse 管理 HDFS 上的数据,为 Apache Hadoop 生态系统提供集成能力。此引擎类似于 File 和 URL 引擎,但提供了 Hadoop 特有的功能。
此功能目前不由 ClickHouse 工程团队官方支持,且已知质量不佳。如遇任何问题,请自行修复并提交 Pull Request。
用法
引擎参数
URI- HDFS 中整个文件的 URI。URI的路径部分可以包含通配符模式。在这种情况下,该表将为只读。format- 指定可用文件格式之一。要执行SELECT查询,格式必须支持输入;要执行INSERT查询,格式必须支持输出。可用格式列在 Formats 部分。- [PARTITION BY expr]
PARTITION BY
PARTITION BY — 可选。在大多数情况下不需要分区键,即使需要,一般也不需要比“按月”更细的分区键。分区并不会加速查询(与 ORDER BY 表达式不同)。切勿使用过于细粒度的分区。不要按客户标识符或名称对数据进行分区(相反,应将客户标识符或名称设为 ORDER BY 表达式中的第一列)。
对于按月分区,使用 toYYYYMM(date_column) 表达式,其中 date_column 是类型为 Date 的日期列。此处的分区名采用 "YYYYMM" 格式。
示例:
1. 创建 hdfs_engine_table 表:
2. 填写文件:
3. 查询数据:
实现细节
-
读写操作可以并行进行。
-
不支持:
ALTER和SELECT...SAMPLE操作。- 索引。
- Zero-copy 复制是可用的,但不推荐使用。
Zero-copy 复制尚未准备好用于生产环境在 ClickHouse 22.8 及更高版本中,默认禁用 Zero-copy 复制。不建议在生产环境中使用此功能。
路径中的通配符(Globs)
多个路径组件可以包含通配符。文件要参与处理,必须实际存在并且与整个路径模式匹配。文件列表在执行 SELECT 时确定(而不是在 CREATE 时)。
*— 替换除/以外的任意数量的任意字符,包括空字符串。?— 替换任意单个字符。{some_string,another_string,yet_another_one}— 替换为字符串'some_string', 'another_string', 'yet_another_one'中的任意一个。{N..M}— 替换为从 N 到 M 范围内的任意数字(包含边界值)。
带有 {} 的结构类似于 remote 表函数。
示例
-
假设我们在 HDFS 上有几个 TSV 格式的文件,具有以下 URI:
- 'hdfs://hdfs1:9000/some_dir/some_file_1'
- 'hdfs://hdfs1:9000/some_dir/some_file_2'
- 'hdfs://hdfs1:9000/some_dir/some_file_3'
- 'hdfs://hdfs1:9000/another_dir/some_file_1'
- 'hdfs://hdfs1:9000/another_dir/some_file_2'
- 'hdfs://hdfs1:9000/another_dir/some_file_3'
-
有多种方式创建一个由这六个文件组成的表:
另一种方式:
该表由这两个目录中的所有文件构成(所有文件都应符合查询中描述的格式和 schema):
如果文件列表中包含带前导零的数字范围,请对每一位数字分别使用花括号的写法,或者使用 ?。
示例
创建一个表,该表使用名为 file000、file001、…、file999 的文件:
配置
与 GraphiteMergeTree 类似,HDFS 引擎支持通过 ClickHouse 配置文件进行扩展配置。可以使用两个配置项:全局级(hdfs)和用户级(hdfs_*)。系统会先应用全局配置,然后再应用用户级配置(如果存在)。
配置选项
libhdfs3 支持的选项
| 参数 | 默认值 |
|---|---|
| rpc_client_connect_tcpnodelay | true |
| dfs_client_read_shortcircuit | true |
| output_replace-datanode-on-failure | true |
| input_notretry-another-node | false |
| input_localread_mappedfile | true |
| dfs_client_use_legacy_blockreader_local | false |
| rpc_client_ping_interval | 10 * 1000 |
| rpc_client_connect_timeout | 600 * 1000 |
| rpc_client_read_timeout | 3600 * 1000 |
| rpc_client_write_timeout | 3600 * 1000 |
| rpc_client_socket_linger_timeout | -1 |
| rpc_client_connect_retry | 10 |
| rpc_client_timeout | 3600 * 1000 |
| dfs_default_replica | 3 |
| input_connect_timeout | 600 * 1000 |
| input_read_timeout | 3600 * 1000 |
| input_write_timeout | 3600 * 1000 |
| input_localread_default_buffersize | 1 * 1024 * 1024 |
| dfs_prefetchsize | 10 |
| input_read_getblockinfo_retry | 3 |
| input_localread_blockinfo_cachesize | 1000 |
| input_read_max_retry | 60 |
| output_default_chunksize | 512 |
| output_default_packetsize | 64 * 1024 |
| output_default_write_retry | 10 |
| output_connect_timeout | 600 * 1000 |
| output_read_timeout | 3600 * 1000 |
| output_write_timeout | 3600 * 1000 |
| output_close_timeout | 3600 * 1000 |
| output_packetpool_size | 1024 |
| output_heartbeat_interval | 10 * 1000 |
| dfs_client_failover_max_attempts | 15 |
| dfs_client_read_shortcircuit_streams_cache_size | 256 |
| dfs_client_socketcache_expiryMsec | 3000 |
| dfs_client_socketcache_capacity | 16 |
| dfs_default_blocksize | 64 * 1024 * 1024 |
| dfs_default_uri | "hdfs://localhost:9000" |
| hadoop_security_authentication | "simple" |
| hadoop_security_kerberos_ticket_cache_path | "" |
| dfs_client_log_severity | "INFO" |
| dfs_domain_socket_path | "" |
HDFS 配置参考 对部分参数可能有更详细的说明。
ClickHouse 附加配置
| 参数 | 默认值 |
|---|---|
| hadoop_kerberos_keytab | "" |
| hadoop_kerberos_principal | "" |
| libhdfs3_conf | "" |
限制
hadoop_security_kerberos_ticket_cache_path和libhdfs3_conf只能作为全局配置使用,不能针对单个用户设置
Kerberos 支持
如果 hadoop_security_authentication 参数的值为 kerberos,ClickHouse 将通过 Kerberos 进行认证。
相关参数见此处,hadoop_security_kerberos_ticket_cache_path 可能会有所帮助。
请注意,由于 libhdfs3 的限制,仅支持传统的旧式方案,
datanode 通信不会通过 SASL 进行安全保护(HADOOP_SECURE_DN_USER 是此类安全机制的可靠指示器)。可参考 tests/integration/test_storage_kerberized_hdfs/hdfs_configs/bootstrap.sh。
如果指定了 hadoop_kerberos_keytab、hadoop_kerberos_principal 或 hadoop_security_kerberos_ticket_cache_path,则会使用 Kerberos 身份验证。在这种情况下,hadoop_kerberos_keytab 和 hadoop_kerberos_principal 是必需的。
HDFS Namenode HA 支持
libhdfs3 支持 HDFS Namenode 高可用(HA)。
- 将
hdfs-site.xml从任一 HDFS 节点复制到/etc/clickhouse-server/。 - 在 ClickHouse 配置文件中添加如下片段:
- 然后使用
hdfs-site.xml中dfs.nameservices配置项的值,作为 HDFS URI 中的 NameNode 地址。例如,将hdfs://[email protected]:8020/abc/替换为hdfs://appadmin@my_nameservice/abc/。
虚拟列
_path— 文件路径。类型:LowCardinality(String)。_file— 文件名。类型:LowCardinality(String)。_size— 文件大小(字节)。类型:Nullable(UInt64)。如果大小未知,则该值为NULL。_time— 文件的最后修改时间。类型:Nullable(DateTime)。如果时间未知,则该值为NULL。
存储设置
- hdfs_truncate_on_insert - 允许在插入前截断文件。默认禁用。
- hdfs_create_new_file_on_insert - 如果格式带有后缀,允许在每次插入时创建一个新文件。默认禁用。
- hdfs_skip_empty_files - 允许在读取时跳过空文件。默认禁用。
另请参阅