system.dead_letter_queue
ストリーミングエンジン経由で受信され、パース時にエラーが発生したメッセージに関する情報を保持します。現在は Kafka と RabbitMQ 向けに実装されています。
エンジン固有の handle_error_mode 設定に dead_letter_queue を指定することで、ロギングが有効になります。
データのフラッシュ間隔は、サーバー設定セクション dead_letter_queue の flush_interval_milliseconds パラメータで設定します。フラッシュを強制するには、SYSTEM FLUSH LOGS クエリを使用します。
ClickHouse はテーブルからデータを自動的には削除しません。詳細は Introduction を参照してください。
列:
table_engine(Enum8) - ストリームの種類。取りうる値:KafkaとRabbitMQ。event_date(Date) - メッセージを消費した日付。event_time(DateTime) - メッセージを消費した日時。event_time_microseconds(DateTime64) - マイクロ秒精度のメッセージ消費時刻。database(LowCardinality(String)) - ストリーミングテーブルが属する ClickHouse データベース。table(LowCardinality(String)) - ClickHouse テーブル名。error(String) - エラーの内容。raw_message(String) - メッセージ本文。kafka_topic_name(String) - Kafka トピック名。kafka_partition(UInt64) - トピックの Kafka パーティション。kafka_offset(UInt64) - メッセージの Kafka オフセット。kafka_key(String) - メッセージの Kafka キー。rabbitmq_exchange_name(String) - RabbitMQ Exchange 名。rabbitmq_message_id(String) - RabbitMQ メッセージ ID。rabbitmq_message_timestamp(DateTime) - RabbitMQ メッセージのタイムスタンプ。rabbitmq_message_redelivered(UInt8) - RabbitMQ の再配信フラグ。rabbitmq_message_delivery_tag(UInt64) - RabbitMQ の delivery tag。rabbitmq_channel_id(String) - RabbitMQ チャネル ID。
例
クエリ:
結果:
関連項目
- Kafka - Kafka エンジン
- system.kafka_consumers — Kafka コンシューマに関する統計情報やエラーなどの情報を含む
kafka_consumersシステムテーブルの説明です。