Surveiller des files d'attente de Kafka

Présentation

Dans les pipelines basés sur les événements, la mise en file dʼattente et les technologies de streaming telles que Kafka sont essentielles au bon fonctionnement de vos systèmes. Lʼéchange fiable et rapide de messages entre des services peut être difficile à assurer en raison du grand nombre de technologies et dʼéquipes quʼun tel environnement implique. Lʼintégration de Kafka et la solution APM de Datadog permettent à votre équipe de surveiller la santé et lʼefficacité de votre infrastructure et de vos pipelines.

L’intégration de Kafka

Visualisez les performances de votre cluster en temps réel corrélez les performances de Kafka avec le reste de vos applications en utilisant l’intégration de Kafka de Datadog. Datadog propose également une intégration de MSK.

Dashboard de Kafka

Surveillance de flux de données

La surveillance des flux de données de Datadog propose une méthode standardisée permettant à vos équipes de mesurer la santé des pipelines et la latence de bout en bout des événements traversant votre système. La visibilité en profondeur proposée par la surveillance des flux de données vous permet de repérer précisément des producteurs, consommateurs ou files dʼattentes non fonctionnels entraînant des retards et des ralentissements dans le pipeline. Vous pouvez découvrir des problèmes compliqués liés au pipeline, comme des messages bloqués, des partitions surchargées ou des consommateurs hors ligne. Vous pouvez également collaborer efficacement au sein dʼéquipes travaillant sur des infrastructures ou des apps.

Traces distribuées

Le tracing distribué de la solution APM vous permet de bénéficier d’une visibilité accrue sur les performances de vos services en mesurant le volume et la latence des requêtes. Créez des graphiques et des alertes pour surveiller les données de votre APM et visualisez l’activité d’une requête dans un flamegraph, comme dans l’exemple ci-dessous, afin de mieux comprendre les origines de la latence et des erreurs.

La span dʼun utilisateur de Kafka

La solution APM peut tracer automatiquement les requêtes entrantes et sortantes de clients Kafka. Cela signifie que vous pouvez recueillir des traces sans modifier votre code source. Datadog ajoute des en-têtes aux messages de Kafka afin de véhiculer le contexte de la trace entre le créateur et lʼutilisateur.

Vérifiez les bibliothèques Kafka qui sont compatibles dans nos pages relatives à la compatibilité.

Configuration

Pour tracer des applications Kafka, Datadog trace les appels de production et de consommation dans le SDK Kafka. Ainsi, pour surveiller Kafka, vous devez simplement configurer la solution APM dans vos services. Consultez la documentation relative à la collecte de trace dans lʼAPM pour bien débuter avec la solution APM et le tracing distribué.

Surveiller votre application dans la solution APM

Une configuration standard de Kafka montre une trace avec une span producer et une span consumer enfant. Tout travail générant une trace au niveau de la consommation est représenté par des spans enfants de la span consumer. Chaque span possède un ensemble de tags avec le préfixe messaging. Le tableau suivant décrit les tags que vous pouvez trouver dans des spans Kafka.

Pour une compréhension plus globale des métadonnées de spans dans Datadog, lisez la section Sémantique des tags de spans.
NomTypeDescription
messaging.systemstringKafka
messaging.destinationstringLe topic auquel le message est envoyé.
messaging.destination_kindstringQueue
messaging.protocolstringLe nom du protocole de transport.
messaging.protocol_versionstringLa version du protocole de transport.
messaging.urlstringLa chaîne de connexion au système de messagerie.
messaging.message_idstringLa valeur utilisée par le système de messagerie comme identifiant du message. Cette valeur est représentée sous forme de chaîne.
messaging.conversation_idstringLʼID de conversation de la conversation à laquelle le message appartient, représenté par une chaîne.
messaging.message_payload_sizenumberLa taille en octets de la charge utile du message sans compression.
messaging.operationstringUne chaîne identifiant le type de consommation du message.
Exemples : send (un message est envoyé à un producteur), receive (un message est reçu par un consommateur) ou process (un message précédemment reçu est traité par un consommateur).
messaging.consumer_idstring{messaging.kafka.consumer_group} - {messaging.kafka.client_id} Si les deux sont présents.
messaging.kafka.consumer_group si ce nʼest pas le cas.
messaging.kafka.message_keystringLes clés des messages dans Kafka servent à regrouper des messages similaires afin dʼassurer leur traitement sur la même partition.
Elles diffèrent des messaging.message_id car elles ne sont pas uniques.
messaging.kafka.consumer_groupstringNom du groupe de consommateurs Kafka qui gère le message. Ne sʼapplique quʼaux consommateurs et non aux producteurs.
messaging.kafka.client_idstringID de client du consommateur ou du producteur qui gère le message.
messaging.kafka.partitionstringLa partition à laquelle le message est envoyé.
messaging.kafka.tombstonestringUne valeur booléenne qui est « true » si le message est une tombstone.
messaging.kafka.client_idstringID de client du consommateur ou du producteur qui gère le message.

Cas particuliers

L’intégration de Kafka de Datadog fonctionne avec Kafka version 0.11+, qui prend en charge l’API Header. Cette API est utilisée pour injecter et extraire le contexte de tracing. Si vous utilisez un environnement à versions mixtes, le broker Kafka peut transmettre la version la plus récente de Kafka par erreur, et le traceur tente alors d’injecter des en-têtes qui ne sont pas pris en charge par le producer local. En outre, les consommateurs plus anciens ne sont pas en mesure de consommer le message à cause de la présence des en-têtes. Pour éviter ces problèmes, si vous utilisez un environnement Kafka à versions mixtes avec des versions antérieures à 0.11, désactivez la propagation du contexte avec la variable d’environnement suivante : DD_KAFKA_CLIENT_PROPAGATION_ENABLED=false.

La documentation client relative à Kafka .NET stipule quʼune application client typique de Kafka est conçue autour dʼune boucle de consommation, qui appelle la méthode Consume de façon répétée pour récupérer les entrées individuellement. La méthode Consume récupère des messages dans le système. Ainsi, la span consumer est crée par défaut lorsquʼun message est renvoyé et fermé avant de consommer le message suivant. La durée de la span représente donc le calcul effectué entre la consommation dʼun message et celle du suivant.

Lorsquʼun message nʼest pas entièrement traité avant de consommer le suivant, ou lorsque plusieurs messages sont consommés simultanément, vous pouvez indiquer false pour DD_TRACE_KAFKA_CREATE_CONSUMER_SCOPE_ENABLED dans votre application de consommation. Lorsque false est défini pour ce réglage, la span consumer est créée et immédiatement fermée. Si vous possédez des spans enfants à tracer, consultez la documentation relative à lʼextraction et à lʼinjection des en-têtes pour lʼinstrumentation personnalisée .NET pour extraire le contexte de la trace.

Le traceur .NET permet de tracer Confluent.Kafka depuis la version v1.27.0. LʼAPI de propagation de contexte de trace est disponible depuis la version v2.7.0.

Lʼintégration de Kafka permet de tracer le gem ruby-kafka. Consultez la documentation relative au traceur de Ruby pour lʼactiver.

Désactiver le tracing pour Kafka

Si vous souhaitez désactiver le tracing de Kafka pour une application, indiquez la valeur false pour DD_TRACE_KAFKA_ENABLED.

Pour aller plus loin

Documentation, liens et articles supplémentaires utiles:

PREVIEWING: mcretzman/DOCS-9337-add-cloud-info-byoti