ClickStack は OpenTelemetry (OTel) collector を使用して、Kubernetes クラスターからログ、メトリクス、Kubernetes イベントを収集し、ClickStack に転送します。ネイティブな OTel ログ形式をサポートしており、ベンダー固有の追加設定は不要です。
このガイドでは、次の内容を扱います:
注記
アプリケーションレベルのメトリクスや APM/トレースを送信するには、対応する言語向けのインテグレーションをアプリケーションにも追加する必要があります。
本ガイドは、ClickStack OTel collector をゲートウェイとしてデプロイ済みであり、インジェスト API key によって保護されていることを前提としています。
OTel Helm チャートの設定ファイルを作成する
各ノードおよびクラスター全体の両方からログとメトリクスを収集するには、OpenTelemetry コレクターを 2 つデプロイする必要があります。1 つは各ノードからログとメトリクスを収集するデーモンセットとして、もう 1 つはクラスター全体からログとメトリクスを収集するデプロイメントとしてデプロイします。
API キー用 Secret の作成
HyperDX で作成した インジェスト API key を使用して、新しい Kubernetes Secret を作成します。これは、この後インストールするコンポーネントが ClickStack の OTel collector に対して安全にデータをインジェストするために使用されます。
kubectl create secret generic hyperdx-secret \
--from-literal=HYPERDX_API_KEY=<ingestion_api_key> \
さらに、ClickStack の OTel collector の場所を指定する ConfigMap を作成します:
kubectl create configmap -n=otel-demo otel-config-vars --from-literal=YOUR_OTEL_COLLECTOR_ENDPOINT=<OTEL_COLLECTOR_ENDPOINT>
# 例: kubectl create configmap -n=otel-demo otel-config-vars --from-literal=YOUR_OTEL_COLLECTOR_ENDPOINT=http://my-hyperdx-hdx-oss-v2-otel-collector:4318 \{#eg-kubectl-create-configmap-notel-demo-otel-config-vars-from-literalyour_otel_collector_endpointhttpmy-hyperdx-hdx-oss-v2-otel-collector4318}
デーモンセット構成の作成
デーモンセットは、クラスター内の各ノードからログとメトリクスを収集しますが、Kubernetes のイベントやクラスター全体のメトリクスは収集しません。
デーモンセットのマニフェストをダウンロードします:
curl -O https://raw.githubusercontent.com/ClickHouse/clickhouse-docs/refs/heads/main/docs/use-cases/observability/clickstack/example-datasets/_snippets/k8s_daemonset.yaml
k8s_daemonset.yaml
# daemonset.yaml
mode: daemonset
# kubeletstats の CPU / メモリ使用率メトリクスを利用するために必要
clusterRole:
create: true
rules:
- apiGroups:
- ''
resources:
- nodes/proxy
verbs:
- get
presets:
logsCollection:
enabled: true
hostMetrics:
enabled: true
# Kubernetes プロセッサーを構成し、Kubernetes メタデータを追加します。
# すべてのパイプラインに k8sattributes プロセッサーを追加し、必要なルールを ClusterRole に追加します。
# 詳細: https://opentelemetry.io/docs/kubernetes/collector/components/#kubernetes-attributes-processor
kubernetesAttributes:
enabled: true
# 有効にすると、関連付けられたポッドのすべてのラベルを抽出し、リソース属性として追加します。
# ラベルの正確な名前がキーになります。
extractAllPodLabels: true
# 有効にすると、関連付けられたポッドのすべてのアノテーションを抽出し、リソース属性として追加します。
# アノテーションの正確な名前がキーになります。
extractAllPodAnnotations: true
# コレクターを構成して、キューブレットの API サーバーからノード、ポッド、コンテナのメトリクスを収集します。
# metrics パイプラインに kubeletstats レシーバーを追加し、必要なルールを ClusterRole に追加します。
# 詳細: https://opentelemetry.io/docs/kubernetes/collector/components/#kubeletstats-receiver
kubeletMetrics:
enabled: true
extraEnvs:
- name: HYPERDX_API_KEY
valueFrom:
secretKeyRef:
name: hyperdx-secret
key: HYPERDX_API_KEY
optional: true
- name: YOUR_OTEL_COLLECTOR_ENDPOINT
valueFrom:
configMapKeyRef:
name: otel-config-vars
key: YOUR_OTEL_COLLECTOR_ENDPOINT
config:
receivers:
# 追加のキューブレット メトリクスを構成
kubeletstats:
collection_interval: 20s
auth_type: 'serviceAccount'
endpoint: '${env:K8S_NODE_NAME}:10250'
insecure_skip_verify: true
metrics:
k8s.pod.cpu_limit_utilization:
enabled: true
k8s.pod.cpu_request_utilization:
enabled: true
k8s.pod.memory_limit_utilization:
enabled: true
k8s.pod.memory_request_utilization:
enabled: true
k8s.pod.uptime:
enabled: true
k8s.node.uptime:
enabled: true
k8s.container.cpu_limit_utilization:
enabled: true
k8s.container.cpu_request_utilization:
enabled: true
k8s.container.memory_limit_utilization:
enabled: true
k8s.container.memory_request_utilization:
enabled: true
container.uptime:
enabled: true
exporters:
otlphttp:
endpoint: "${env:YOUR_OTEL_COLLECTOR_ENDPOINT}"
headers:
authorization: "${env:HYPERDX_API_KEY}"
compression: gzip
service:
pipelines:
logs:
exporters:
- otlphttp
metrics:
exporters:
- otlphttp
デプロイメント構成の作成
Kubernetes のイベントとクラスター全体のメトリクスを収集するために、別の OpenTelemetry コレクターをデプロイメントとしてデプロイする必要があります。
デプロイメント用マニフェストをダウンロードします:
curl -O https://raw.githubusercontent.com/ClickHouse/clickhouse-docs/refs/heads/main/docs/use-cases/observability/clickstack/example-datasets/_snippets/k8s_deployment.yaml
k8s_deployment.yaml
# deployment.yaml
mode: deployment
image:
repository: otel/opentelemetry-collector-contrib
tag: 0.123.0
# このコレクターは 1 つだけ稼働させます。複数あると重複したデータが生成されてしまいます
replicaCount: 1
presets:
kubernetesAttributes:
enabled: true
# 有効にすると、関連付けられたポッドのすべてのラベルを取得し、リソース属性として追加します。
# ラベルの正確な名前がキーになります。
extractAllPodLabels: true
# 有効にすると、関連付けられたポッドのすべてのアノテーションを取得し、リソース属性として追加します。
# アノテーションの正確な名前がキーになります。
extractAllPodAnnotations: true
# コレクターを構成して Kubernetes イベントを収集します。
# logs パイプラインに k8sobject receiver を追加し、デフォルトで Kubernetes イベントを収集します。
# 詳細: https://opentelemetry.io/docs/kubernetes/collector/components/#kubernetes-objects-receiver
kubernetesEvents:
enabled: true
# Kubernetes Cluster Receiver を構成して、クラスターレベルのメトリクスを収集します。
# metrics パイプラインに k8s_cluster receiver を追加し、必要なルールを ClusteRole に追加します。
# 詳細: https://opentelemetry.io/docs/kubernetes/collector/components/#kubernetes-cluster-receiver
clusterMetrics:
enabled: true
extraEnvs:
- name: HYPERDX_API_KEY
valueFrom:
secretKeyRef:
name: hyperdx-secret
key: HYPERDX_API_KEY
optional: true
- name: YOUR_OTEL_COLLECTOR_ENDPOINT
valueFrom:
configMapKeyRef:
name: otel-config-vars
key: YOUR_OTEL_COLLECTOR_ENDPOINT
config:
exporters:
otlphttp:
endpoint: "${env:YOUR_OTEL_COLLECTOR_ENDPOINT}"
compression: gzip
headers:
authorization: "${env:HYPERDX_API_KEY}"
service:
pipelines:
logs:
exporters:
- otlphttp
metrics:
exporters:
- otlphttp
OpenTelemetry collector のデプロイ
OpenTelemetry collector は、Kubernetes クラスターに
OpenTelemetry Helm チャート を使用してデプロイできます。
OpenTelemetry の Helm リポジトリを追加します:
helm repo add open-telemetry https://open-telemetry.github.io/opentelemetry-helm-charts # OTel Helmリポジトリを追加
上記の設定でチャートをインストールします:
helm install my-opentelemetry-collector-deployment open-telemetry/opentelemetry-collector -f k8s_deployment.yaml
helm install my-opentelemetry-collector-daemonset open-telemetry/opentelemetry-collector -f k8s_daemonset.yaml
これで、Kubernetes クラスターからのメトリクス、ログ、および Kubernetes イベントが HyperDX 上に表示されるようになっているはずです。
リソースタグをポッドに転送する(推奨)
アプリケーションレベルのログ、メトリクス、トレースを Kubernetes のメタデータ
(例: ポッド名、ネームスペースなど)と相関付けるために、OTEL_RESOURCE_ATTRIBUTES 環境変数を使用して
Kubernetes のメタデータをアプリケーションに転送する必要があります。
以下は、環境変数を使用して Kubernetes のメタデータをアプリケーションに
転送するデプロイメントの例です。
# my_app_deployment.yaml \{#deploymentyaml}
apiVersion: apps/v1
kind: Deployment
metadata:
name: app-deployment
spec:
replicas: 1
selector:
matchLabels:
app: app
template:
metadata:
labels:
app: app
# Kubernetes Attribute Processorと組み合わせることで、
# ポッドのログとメトリクスがサービス名に関連付けられることを保証します。
service.name: <MY_APP_NAME>
spec:
containers:
- name: app-container
image: my-image
env:
# ... その他の環境変数
# downward APIからK8sメタデータを収集してアプリに転送
- name: POD_NAME
valueFrom:
fieldRef:
fieldPath: metadata.name
- name: POD_UID
valueFrom:
fieldRef:
fieldPath: metadata.uid
- name: POD_NAMESPACE
valueFrom:
fieldRef:
fieldPath: metadata.namespace
- name: NODE_NAME
valueFrom:
fieldRef:
fieldPath: spec.nodeName
- name: DEPLOYMENT_NAME
valueFrom:
fieldRef:
fieldPath: metadata.labels['deployment']
# OTEL_RESOURCE_ATTRIBUTES経由でK8sメタデータをアプリに転送
- name: OTEL_RESOURCE_ATTRIBUTES
value: k8s.pod.name=$(POD_NAME),k8s.pod.uid=$(POD_UID),k8s.namespace.name=$(POD_NAMESPACE),k8s.node.name=$(NODE_NAME),k8s.deployment.name=$(DEPLOYMENT_NAME)