hdfs 表函数
基于 HDFS 中的文件创建一张表。此表函数类似于 url 和 file 表函数。
语法
参数
| Argument | Description |
|---|---|
URI | HDFS 中文件的相对 URI。文件路径在只读模式下支持以下通配符:*、?、{abc,def} 和 {N..M},其中 N、M 为数字,'abc', 'def' 为字符串。 |
format | 文件的格式。 |
structure | 表的结构。格式:'column1_name column1_type, column2_name column2_type, ...'。 |
返回值
一个具有指定结构的表,用于在指定文件中读取或写入数据。
示例
hdfs://hdfs1:9000/test 中的表,并从中选取前两行:
路径中的通配符
路径可以使用通配符匹配。文件必须匹配整个路径模式,而不仅仅是后缀或前缀。
*— 表示任意数量的字符(不包括/),也可以是空字符串。**— 表示某个文件夹及其子文件夹中的所有文件(递归)。?— 表示任意单个字符。{some_string,another_string,yet_another_one}— 替换为字符串'some_string'、'another_string'、'yet_another_one'中的任意一个。这些字符串中可以包含/符号。{N..M}— 表示任何满足>= N且<= M的数字。
使用 {} 的写法类似于 remote 和 file 表函数。
示例
- 假设我们在 HDFS 上有若干具有如下 URI 的文件:
- 'hdfs://hdfs1:9000/some_dir/some_file_1'
- 'hdfs://hdfs1:9000/some_dir/some_file_2'
- 'hdfs://hdfs1:9000/some_dir/some_file_3'
- 'hdfs://hdfs1:9000/another_dir/some_file_1'
- 'hdfs://hdfs1:9000/another_dir/some_file_2'
- 'hdfs://hdfs1:9000/another_dir/some_file_3'
- 查询这些文件中的行数:
- 查询这两个目录中所有文件的行数:
注意
如果你的文件列表中包含带前导零的数字范围,请对每一位数字分别使用花括号展开,或者使用 ?。
示例
查询名为 file000、file001、...、file999 的文件中的数据:
虚拟列
_path— 文件的路径。类型:LowCardinality(String)。_file— 文件名。类型:LowCardinality(String)。_size— 文件的大小(字节数)。类型:Nullable(UInt64)。如果大小未知,则该值为NULL。_time— 文件的最后修改时间。类型:Nullable(DateTime)。如果时间未知,则该值为NULL。
use_hive_partitioning 设置
当将 use_hive_partitioning 设置为 1 时,ClickHouse 会在路径(/name=value/)中检测 Hive 风格的分区方式,并允许在查询中将分区列作为虚拟列使用。这些虚拟列的名称与分区路径中的名称相同,但会以下划线 _ 开头。
示例
使用通过 Hive 风格分区创建的虚拟列
存储设置
- hdfs_truncate_on_insert - 允许在插入之前截断目标文件。默认关闭。
- hdfs_create_new_file_on_insert - 如果格式带有后缀,允许在每次插入时创建一个新文件。默认关闭。
- hdfs_skip_empty_files - 允许在读取时跳过空文件。默认关闭。