跳到主要内容
跳到主要内容

system.asynchronous_insert_log

在 ClickHouse Cloud 中进行查询

该系统表中的数据保存在 ClickHouse Cloud 中每个节点的本地。因此,如需获得所有数据的完整视图,需要使用 clusterAllReplicas 函数。更多详情请参阅此处

包含异步插入相关的信息。每条记录对应一条被缓冲到异步插入中的插入查询。

要开始记录日志,请在 asynchronous_insert_log 部分中配置参数。

数据刷新周期通过服务器设置中 asynchronous_insert_logflush_interval_milliseconds 参数进行配置。要强制刷新,请使用 SYSTEM FLUSH LOGS 查询。

ClickHouse 不会自动从该表中删除数据。更多详情请参见 Introduction

列:

  • hostname (LowCardinality(String)) — 执行查询的服务器主机名。
  • event_date (Date) — 发生异步插入的日期。
  • event_time (DateTime) — 异步插入执行完成的日期和时间。
  • event_time_microseconds (DateTime64) — 异步插入执行完成的日期和时间,精确到微秒。
  • query (String) — 查询字符串。
  • database (String) — 表所在数据库的名称。
  • table (String) — 表名。
  • format (String) — 格式名称。
  • query_id (String) — 初始查询的 ID。
  • bytes (UInt64) — 插入的字节数。
  • exception (String) — 异常信息。
  • status (Enum8) — 视图状态。取值:
    • 'Ok' = 1 — 插入成功。
    • 'ParsingError' = 2 — 解析数据时抛出的异常。
    • 'FlushError' = 3 — 刷新数据时抛出的异常。
  • flush_time (DateTime) — 发生刷新操作的日期和时间。
  • flush_time_microseconds (DateTime64) — 发生刷新操作的日期和时间,精确到微秒。
  • flush_query_id (String) — 刷新查询的 ID。

示例

查询:

SELECT * FROM system.asynchronous_insert_log LIMIT 1 \G;

结果:

主机名:                clickhouse.eu-central1.internal
事件日期:              2023-06-08
事件时间:              2023-06-08 10:08:53
事件时间_微秒:         2023-06-08 10:08:53.199516
查询:                  INSERT INTO public.data_guess (user_id, datasource_id, timestamp, path, type, num, str) FORMAT CSV
数据库:                public
表:                    data_guess
格式:                  CSV
查询_id:               b46cd4c4-0269-4d0b-99f5-d27668c6102e
字节:                  133223
异常:
状态:                  Ok
刷新时间:              2023-06-08 10:08:55
刷新时间_微秒:         2023-06-08 10:08:55.139676
刷新查询_id:           cd2c1e43-83f5-49dc-92e4-2fbc7f8d3716

另请参阅