跳到主要内容
跳到主要内容

HDFS 表引擎

Not supported in ClickHouse Cloud

该引擎通过允许通过 ClickHouse 管理 HDFS 上的数据,为 Apache Hadoop 生态系统提供集成能力。此引擎类似于 FileURL 引擎,但提供了 Hadoop 特有的功能。

此功能目前不由 ClickHouse 工程团队官方支持,且已知质量不佳。如遇任何问题,请自行修复并提交 Pull Request。

用法

ENGINE = HDFS(URI, format)

引擎参数

  • URI - HDFS 中整个文件的 URI。URI 的路径部分可以包含通配符模式。在这种情况下,该表将为只读。
  • format - 指定可用文件格式之一。要执行 SELECT 查询,格式必须支持输入;要执行 INSERT 查询,格式必须支持输出。可用格式列在 Formats 部分。
  • [PARTITION BY expr]

PARTITION BY

PARTITION BY — 可选。在大多数情况下不需要分区键,即使需要,一般也不需要比“按月”更细的分区键。分区并不会加速查询(与 ORDER BY 表达式不同)。切勿使用过于细粒度的分区。不要按客户标识符或名称对数据进行分区(相反,应将客户标识符或名称设为 ORDER BY 表达式中的第一列)。

对于按月分区,使用 toYYYYMM(date_column) 表达式,其中 date_column 是类型为 Date 的日期列。此处的分区名采用 "YYYYMM" 格式。

示例:

1. 创建 hdfs_engine_table 表:

CREATE TABLE hdfs_engine_table (name String, value UInt32) ENGINE=HDFS('hdfs://hdfs1:9000/other_storage', 'TSV')

2. 填写文件:

INSERT INTO hdfs_engine_table VALUES ('one', 1), ('two', 2), ('three', 3)

3. 查询数据:

SELECT * FROM hdfs_engine_table LIMIT 2
┌─name─┬─value─┐
│ one  │     1 │
│ two  │     2 │
└──────┴───────┘

实现细节

  • 读写操作可以并行进行。

  • 不支持:

    • ALTERSELECT...SAMPLE 操作。
    • 索引。
    • Zero-copy 复制是可用的,但不推荐使用。
    Zero-copy 复制尚未准备好用于生产环境

    在 ClickHouse 22.8 及更高版本中,默认禁用 Zero-copy 复制。不建议在生产环境中使用此功能。

路径中的通配符(Globs)

多个路径组件可以包含通配符。文件要参与处理,必须实际存在并且与整个路径模式匹配。文件列表在执行 SELECT 时确定(而不是在 CREATE 时)。

  • * — 替换除 / 以外的任意数量的任意字符,包括空字符串。
  • ? — 替换任意单个字符。
  • {some_string,another_string,yet_another_one} — 替换为字符串 'some_string', 'another_string', 'yet_another_one' 中的任意一个。
  • {N..M} — 替换为从 N 到 M 范围内的任意数字(包含边界值)。

带有 {} 的结构类似于 remote 表函数。

示例

  1. 假设我们在 HDFS 上有几个 TSV 格式的文件,具有以下 URI:

    • 'hdfs://hdfs1:9000/some_dir/some_file_1'
    • 'hdfs://hdfs1:9000/some_dir/some_file_2'
    • 'hdfs://hdfs1:9000/some_dir/some_file_3'
    • 'hdfs://hdfs1:9000/another_dir/some_file_1'
    • 'hdfs://hdfs1:9000/another_dir/some_file_2'
    • 'hdfs://hdfs1:9000/another_dir/some_file_3'
  2. 有多种方式创建一个由这六个文件组成的表:

CREATE TABLE table_with_range (name String, value UInt32) ENGINE = HDFS('hdfs://hdfs1:9000/{some,another}_dir/some_file_{1..3}', 'TSV')

另一种方式:

CREATE TABLE table_with_question_mark (name String, value UInt32) ENGINE = HDFS('hdfs://hdfs1:9000/{some,another}_dir/some_file_?', 'TSV')

该表由这两个目录中的所有文件构成(所有文件都应符合查询中描述的格式和 schema):

CREATE TABLE table_with_asterisk (name String, value UInt32) ENGINE = HDFS('hdfs://hdfs1:9000/{some,another}_dir/*', 'TSV')
注意

如果文件列表中包含带前导零的数字范围,请对每一位数字分别使用花括号的写法,或者使用 ?

示例

创建一个表,该表使用名为 file000file001、…、file999 的文件:

CREATE TABLE big_table (name String, value UInt32) ENGINE = HDFS('hdfs://hdfs1:9000/big_dir/file{0..9}{0..9}{0..9}', 'CSV')

配置

与 GraphiteMergeTree 类似,HDFS 引擎支持通过 ClickHouse 配置文件进行扩展配置。可以使用两个配置项:全局级(hdfs)和用户级(hdfs_*)。系统会先应用全局配置,然后再应用用户级配置(如果存在)。

<!-- HDFS 引擎类型的全局配置选项 -->
<hdfs>
  <hadoop_kerberos_keytab>/tmp/keytab/clickhouse.keytab</hadoop_kerberos_keytab>
  <hadoop_kerberos_principal>[email protected]</hadoop_kerberos_principal>
  <hadoop_security_authentication>kerberos</hadoop_security_authentication>
</hdfs>

<!-- 用户"root"的专用配置 -->
<hdfs_root>
  <hadoop_kerberos_principal>[email protected]</hadoop_kerberos_principal>
</hdfs_root>

配置选项

libhdfs3 支持的选项

参数默认值
rpc_client_connect_tcpnodelaytrue
dfs_client_read_shortcircuittrue
output_replace-datanode-on-failuretrue
input_notretry-another-nodefalse
input_localread_mappedfiletrue
dfs_client_use_legacy_blockreader_localfalse
rpc_client_ping_interval10 * 1000
rpc_client_connect_timeout600 * 1000
rpc_client_read_timeout3600 * 1000
rpc_client_write_timeout3600 * 1000
rpc_client_socket_linger_timeout-1
rpc_client_connect_retry10
rpc_client_timeout3600 * 1000
dfs_default_replica3
input_connect_timeout600 * 1000
input_read_timeout3600 * 1000
input_write_timeout3600 * 1000
input_localread_default_buffersize1 * 1024 * 1024
dfs_prefetchsize10
input_read_getblockinfo_retry3
input_localread_blockinfo_cachesize1000
input_read_max_retry60
output_default_chunksize512
output_default_packetsize64 * 1024
output_default_write_retry10
output_connect_timeout600 * 1000
output_read_timeout3600 * 1000
output_write_timeout3600 * 1000
output_close_timeout3600 * 1000
output_packetpool_size1024
output_heartbeat_interval10 * 1000
dfs_client_failover_max_attempts15
dfs_client_read_shortcircuit_streams_cache_size256
dfs_client_socketcache_expiryMsec3000
dfs_client_socketcache_capacity16
dfs_default_blocksize64 * 1024 * 1024
dfs_default_uri"hdfs://localhost:9000"
hadoop_security_authentication"simple"
hadoop_security_kerberos_ticket_cache_path""
dfs_client_log_severity"INFO"
dfs_domain_socket_path""

HDFS 配置参考 对部分参数可能有更详细的说明。

ClickHouse 附加配置

参数默认值
hadoop_kerberos_keytab""
hadoop_kerberos_principal""
libhdfs3_conf""

限制

  • hadoop_security_kerberos_ticket_cache_pathlibhdfs3_conf 只能作为全局配置使用,不能针对单个用户设置

Kerberos 支持

如果 hadoop_security_authentication 参数的值为 kerberos,ClickHouse 将通过 Kerberos 进行认证。 相关参数见此处hadoop_security_kerberos_ticket_cache_path 可能会有所帮助。 请注意,由于 libhdfs3 的限制,仅支持传统的旧式方案, datanode 通信不会通过 SASL 进行安全保护(HADOOP_SECURE_DN_USER 是此类安全机制的可靠指示器)。可参考 tests/integration/test_storage_kerberized_hdfs/hdfs_configs/bootstrap.sh

如果指定了 hadoop_kerberos_keytabhadoop_kerberos_principalhadoop_security_kerberos_ticket_cache_path,则会使用 Kerberos 身份验证。在这种情况下,hadoop_kerberos_keytabhadoop_kerberos_principal 是必需的。

HDFS Namenode HA 支持

libhdfs3 支持 HDFS Namenode 高可用(HA)。

  • hdfs-site.xml 从任一 HDFS 节点复制到 /etc/clickhouse-server/
  • 在 ClickHouse 配置文件中添加如下片段:
  <hdfs>
    <libhdfs3_conf>/etc/clickhouse-server/hdfs-site.xml</libhdfs3_conf>
  </hdfs>
  • 然后使用 hdfs-site.xmldfs.nameservices 配置项的值,作为 HDFS URI 中的 NameNode 地址。例如,将 hdfs://[email protected]:8020/abc/ 替换为 hdfs://appadmin@my_nameservice/abc/

虚拟列

  • _path — 文件路径。类型:LowCardinality(String)
  • _file — 文件名。类型:LowCardinality(String)
  • _size — 文件大小(字节)。类型:Nullable(UInt64)。如果大小未知,则该值为 NULL
  • _time — 文件的最后修改时间。类型:Nullable(DateTime)。如果时间未知,则该值为 NULL

存储设置

另请参阅