system.dead_letter_queue
包含通过流式引擎接收且在解析时发生错误的消息信息。目前已为 Kafka 和 RabbitMQ 提供实现。
通过在特定引擎的 handle_error_mode 设置中指定 dead_letter_queue 来启用日志记录。
数据的刷新周期在服务器配置中 dead_letter_queue 部分的 flush_interval_milliseconds 参数中设置。若要强制刷新,请使用 SYSTEM FLUSH LOGS 查询。
ClickHouse 不会自动从该表中删除数据。更多细节参见 简介。
列:
table_engine(Enum8) - 流式引擎类型。可能的取值:Kafka和RabbitMQ。event_date(Date) - 消息消费日期。event_time(DateTime) - 消息消费的日期和时间。event_time_microseconds(DateTime64) - 具有微秒精度的消息消费时间。database(LowCardinality(String)) - 流式表所属的 ClickHouse 数据库。table(LowCardinality(String)) - ClickHouse 表名。error(String) - 错误文本。raw_message(String) - 消息体。kafka_topic_name(String) - Kafka 主题名称。kafka_partition(UInt64) - 该主题的 Kafka 分区。kafka_offset(UInt64) - 消息的 Kafka 偏移量。kafka_key(String) - 消息的 Kafka 键。rabbitmq_exchange_name(String) - RabbitMQ 交换机名称。rabbitmq_message_id(String) - RabbitMQ 消息 ID。rabbitmq_message_timestamp(DateTime) - RabbitMQ 消息时间戳。rabbitmq_message_redelivered(UInt8) - RabbitMQ 重新投递标志。rabbitmq_message_delivery_tag(UInt64) - RabbitMQ 投递标签。rabbitmq_channel_id(String) - RabbitMQ 通道 ID。
示例
查询:
结果:
另请参阅
- Kafka — Kafka 引擎
- system.kafka_consumers —
kafka_consumers系统表的描述,该表包含有关 Kafka 消费者的统计数据、错误等信息。