Información general

Un procesador se ejecuta dentro de un pipeline para completar una acción de estructuración de datos y generar atributos para enriquecer tus logs.

Procesadores

En la sección de configuración de parámetros de logs, puedes configurar procesadores como el Analizador Grok o el [reasignador de datos(#remapper) para extraer, crear y reasignar atributos para enriquecer tus logs y mejorar las búsquedas con facetas.

Notas:

  • Los logs estructurados deben enviarse en un formato válido. Si la estructura contiene caracteres no válidos para el análisis, deben eliminarse en el nivel del Agent utilizando la función mask_sequences.

  • Una práctica recomendada es utilizar como máximo 20 procesadores por pipeline.

Analizador Grok

Crea reglas grok personalizadas para analizar el mensaje completo o un atributo específico de tu evento sin procesar. Para obtener más información, consulta la sección Análisis. Una práctica recomendada es utilizar como máximo 10 reglas de análisis en un procesador grok.

Define el procesador Grok en la página Pipelines:

Analizador Grok

Haz clic en Parse my logs (Analizar mis logs) para configurar un conjunto de tres reglas de análisis para los logs que circulan a través del pipeline subyacente. A partir de ahí, refina los nombres de los atributos y, si es necesario, añade nuevas reglas para otros tipos de logs. Esta función requiere que los logs correspondientes se indexen y fluyan. Puedes desactivar temporalmente o reducir los filtros de exclusión para que esto funcione correctamente.

Selecciona una muestra haciendo clic en ella para activar su evaluación con la regla de análisis y mostrar el resultado en la parte inferior de la pantalla.

Se pueden guardar hasta cinco muestras con el procesador y cada muestra puede tener hasta 5000 caracteres de longitud. Todas las muestras presentan un estado (match o no match), que destaca si una de las reglas de análisis del analizador grok coincide con la muestra.

Utiliza el endpoint de API de pipeline para logs de Datadog con la siguiente carga útil JSON del analizador Grok:

{
  "type": "grok-parser",
  "name": "Parsing Log message",
  "is_enabled": true,
  "source": "message",
  "samples": ["sample log 1", "sample log 2"],
  "grok": {"support_rules": "<SUPPORT_RULES>", "match_rules": "<MATCH_RULES>"}
}
ParámetroTipoObligatorioDescripción
typeCadenaTipo de procesador.
nameCadenaNoNombre del procesador.
is_enabledBooleanoNoSi los procesadores están habilitados o no. Por defecto: false.
sourceCadenaNombre del atributo de log a analizar. Por defecto: message.
samplesMatriz de cadenasNoLista de (hasta 5) muestras de logs para este analizador grok.
grok.support_rulesCadenaLista de reglas de compatibilidad para tu analizador grok.
grok.match_rulesCadenaLista de reglas de coincidencia para tu analizador grok.

Reasignador de fechas de logs

A medida que Datadog recibe logs, les coloca una marca de tiempo utilizando el valor o los valores de cualquiera de estos atributos predeterminados:

  • timestamp
  • date
  • _timestamp
  • Timestamp
  • eventTime
  • published_date

Si tus logs tienen fechas en un atributo que no están en este lista, utiliza el procesador del reasignador de fechas de logs para definir la marca de tiempo oficial del log como su atributo de fecha:

Los formatos de fecha reconocidos son: ISO8601, UNIX (formato EPOCH en milisegundos) y RFC3164.

Si tus logs no tienen una marca de tiempo que se ajuste a los formatos enumerados anteriormente, utiliza el procesador de Grok para extraer la hora epoch de la marca de tiempo para un atributo nuevo. El reasignador de fechas utiliza el atributo recién definido.

Para ver cómo se puede analizar un formato personalizado de fecha y hora en Datadog, consulta Análisis de fechas.

Notas:

  • Los eventos de logs pueden enviarse dentro de las 18 horas pasadas y las 2 futuras.
  • A partir de la norma ISO 8601-1:2019, el formato básico es T[hh][mm][ss] y el formato ampliado es T[hh]:[mm]:[ss]. Las versiones anteriores omitían la T (que representa la hora) en ambos formatos.
  • Si tus logs no contienen ninguno de los atributos predeterminados y no has definido su propio atributo de fecha, Datadog coloca una marca de tiempo con la fecha de recepción en los logs.
  • Si se aplican varios procesadores de reasignación de fechas de logs a un determinado log del pipeline, se tiene en cuenta el último (según el orden del pipeline).

Define el procesador de reasignación de fechas de logs en la página Pipelines:

Definir un atributo de fecha
Hora y fecha en el panel lateral del Explorador de logs

Utiliza el endpoint de API de pipeline para logs de Datadog con la siguiente carga útil JSON del reasignador de fechas de logs:

{
  "type": "date-remapper",
  "name": "Define <SOURCE_ATTRIBUTE> como fecha oficial del log",
  "is_enabled": false,
  "sources": ["<SOURCE_ATTRIBUTE_1>"]
}
ParámetroTipoObligatorioDescripción
typeCadenaTipo de procesador.
nameCadenanoNombre del procesador.
is_enabledBooleanonoSi los procesadores están habilitados o no. Por defecto: false.
sourcesMatriz de cadenasMatriz de atributos de origen.

Reasignador de estados de logs

Utiliza el procesador de reasignación de estados para asignar atributos como estado oficial a tus logs. Por ejemplo, añade un nivel de gravedad de log a tus logs con el reasignador de estado.

Nivel de gravedad del log tras la reasignación

Cada valor de estado entrante se asigna de la siguiente manera:

  • Los números enteros de 0 a 7 asignan según las normas de gravedad de syslog.
  • Las cadenas que empiezan por emerg o f (sin distinción entre mayúsculas y minúsculas) asignan a emerg (0).
  • Las cadenas que empiezan por a (sin distinción entre mayúsculas y minúsculas) asignan a alert (1).
  • Las cadenas que empiezan por c (sin distinción entre mayúsculas y minúsculas) asignan a critical (2).
  • Las cadenas que empiezan por e (sin distinción entre mayúsculas y minúsculas) que no coinciden con emerg asignan a error (3)
  • Las cadenas que empiezan por w (sin distinción entre mayúsculas y minúsculas) asignan a warning (4).
  • Las cadenas que empiezan por n (sin distinción entre mayúsculas y minúsculas) asignan a notice (5).
  • Las cadenas que empiezan por i (sin distinción entre mayúsculas y minúsculas) asignan a info (6).
  • Las cadenas que empiezan por d, t, v, trace o verbose (sin distinción entre mayúsculas y minúsculas) asignan a debug (7).
  • Las cadenas que empiezan por o o s, o que coinciden con OK o Success (sin distinción entre mayúsculas y minúsculas) asignan a OK.
  • Todos los demás se asignan a info (6).

Nota: Si se aplican varios procesadores de reasignación de estado de log a un determinado log del pipeline, sólo se tendrá en cuenta el primero (según el orden del pipeline).

Define el procesador de reasignación de estados de logs en la página Pipelines:

Reasignación de la gravedad de logs

Utiliza el endpoint de API de pipeline para logs de Datadog con la siguiente carga útil JSON del reasignador de estados de logs:

{
  "type": "status-remapper",
  "name": "Define <SOURCE_ATTRIBUTE> como el estado oficial del log",
  "is_enabled": true,
  "sources": ["<SOURCE_ATTRIBUTE>"]
}
ParámetroTipoObligatorioDescripción
typeCadenaTipo de procesador.
nameCadenaNoNombre del procesador.
is_enabledBooleanoNoSi los procesadores están habilitados o no. Por defecto: false.
sourcesMatriz de cadenasMatriz de atributos de origen.

Reasignador de servicios

El procesador de reasignación de servicios asigna uno o más atributos a tus logs como servicio oficial.

Nota: Si se aplican varios procesadores de reasignación de servicios a un determinado log del pipeline, sólo se tendrá en cuenta el primero (según el orden del pipeline).

Define el procesador de reasignación de servicios de logs en la página Pipelines:

Procesador de reasignación de servicios

Utiliza el endpoint de API de pipeline para logs de Datadog con la siguiente carga útil JSON del reasignador de servicios de logs:

{
  "tipo": "servicio-remapper",
  "name": "Define <SOURCE_ATTRIBUTE> como servicio oficial del log",
  "is_enabled": true,
  "sources": ["<SOURCE_ATTRIBUTE>"]
}
ParámetroTipoObligatorioDescripción
typeCadenaTipo de procesador.
nameCadenaNoNombre del procesador.
is_enabledBooleanoNoSi los procesadores están habilitados o no. Por defecto: false.
sourcesMatriz de cadenasMatriz de atributos de origen.

Reasignador de mensajes de logs

message es un atributo clave en Datadog. Su valor se muestra en la columna Content (Contenido) del Explorador de los para proporcionar contexto sobre el log. Puedes utilizar la barra de búsqueda para encontrar un log mediante el mensaje del log.

Utiliza el procesador de reasignación de mensajes de logs para definir uno o más atributos como mensaje oficial del log. Define más de un atributo para los casos en los que los atributos no existan y haya una alternativa disponible. Por ejemplo, si los atributos de mensaje definidos son attribute1, attribute2 y attribute3, y attribute1 no existe, se utiliza attribute2. Del mismo modo, si attribute2 no existe, se utiliza attribute3.

Para definir los atributos de los mensajes, utiliza primero el procesador de creación de cadenas para crear un nuevo atributo de cadena para cada uno de los atributos que quieras utilizar. A continuación, utiliza el reasignador de mensajes de logs para reasignar los atributos de cadena como mensaje.

Nota: Si se aplican varios procesadores de reasignación de mensajes de logs a un determinado log del pipeline, sólo se tendrá en cuenta el primero (según el orden del pipeline).

Define el procesador de reasignación de mensajes de logs en la página Pipelines:

Procesador de mensajes

Utiliza el endpoint de API de pipeline para logs de Datadog con la siguiente carga útil JSON del reasignador de mensajes de logs:

{
  "type": "message-remapper",
  "name": "Define <SOURCE_ATTRIBUTE> como mensaje oficial del log",
  "is_enabled": true,
  "sources": ["msg"]
}
ParámetroTipoObligatorioDescripción
typeCadenaTipo de procesador.
nameCadenaNoNombre del procesador.
is_enabledBooleanoNoSi los procesadores están habilitados o no. Por defecto: false.
sourcesMatriz de cadenasMatriz de atributos de origen. Por defecto: msg.

Reasignador

El procesador de reasignación reasigna cualquier atributo o etiqueta de origen a otro atributo u otra etiqueta de destino. Por ejemplo, reasigna user por firstname para dirigir tus logs en el Explorador de logs:

Atributo tras la reasignación

Las restricciones de nombre de etiquetas/atributos se explican en la documentación sobre atributos y etiquetas. Algunas restricciones adicionales, aplicadas como : o ,, no están permitidas en los nombres de etiquetas/atributos de destino.

Si el objetivo del reasignador es un atributo, el reasignador también puede intentar convertir el valor a un nuevo tipo (String, Integer o Double). Si la conversión no es posible, se conserva el tipo original.

Nota: El separador decimal para Double debe ser ..

Define el procesador de reasignación en la página de Pipelines. Por ejemplo, reasigna user a user.firstname.

Procesador de reasignación de atributos

Utiliza el endpoint de API de pipeline para logs de Datadog con la siguiente carga útil JSON del reasignador:

{
  "type": "attribute-remapper",
  "name": "Remap <SOURCE_ATTRIBUTE> to <TARGET_ATTRIBUTE>",
  "is_enabled": true,
  "source_type": "attribute",
  "sources": ["<SOURCE_ATTRIBUTE>"],
  "target": "<TARGET_ATTRIBUTE>",
  "target_type": "tag",
  "target_format": "integer",
  "preserve_source": false,
  "override_on_conflict": false
}
ParámetroTipoObligatorioDescripción
typeCadenaTipo de procesador.
nameCadenaNoNombre del procesador.
is_enabledBooleanoNoSi los procesadores están habilitados o no. Por defecto: false.
source_typeCadenaNoDefine si la fuente es el attribute o la tag del log. Por defecto: attribute.
sourcesMatriz de cadenasMatriz de atributos o etiquetas de origen
targetCadenaNombre final de atributo o etiqueta al que reasignar las fuentes.
target_typeCadenaNoDefine si el objetivo es el attribute o la tag del log. Por defecto: attribute.
target_formatCadenaNoDefine si el valor del atributo debe convertirse a otro tipo. Valores posibles: auto, string o integer. Valor por defecto: auto. Si se configura como auto, no se aplica ninguna conversión.
preserve_sourceBooleanoNoElimina o conserva el elemento de origen reasignado. Por defecto: false.
override_on_conflictBooleanoNoAnula o no el elemento de destino, si ya está configurado. Por defecto: false.

Analizador de URL

El procesador del analizador de URL extrae los parámetros de consulta y otros parámetros importantes de una URL. Cuando está configurado, se generan los siguientes atributos:

Procesador de URL

Define el procesador del analizador de URL en la página Pipelines:

Cuadro del procesador de URL
{
  "type": "url-parser",
  "name": "Analiza la URL del atributo http.url.",
  "is_enabled": true,
  "sources": ["http.url"],
  "target": "http.url_details"
}
ParámetroTipoObligatorioDescripción
typeCadenaTipo de procesador.
nameCadenaNoNombre del procesador.
is_enabledBooleanoNoSi los procesadores están habilitados o no. Por defecto: false.
sourcesMatriz de cadenasNoMatriz de atributos de origen. Por defecto: http.url.
targetCadenaNombre del atributo principal que contiene todos los detalles extraídos de sources. Por defecto: http.url_details.

Analizador del agente de usuario

El procesador del analizador del agente de usuario toma un atributo useragent y extrae datos del sistema operativo, del navegador, del dispositivo y otros datos del usuario. Cuando está configurado, se generan los siguientes atributos:

Procesador de agente de usuario

Nota: Si tus logs contienen agentes de usuario codificados (por ejemplo, logs IIS), configura este procesador para decodificar la URL antes del análisis.

Define el procesador del agente de usuario en la página Pipelines:

Cuadro del procesador de agente de usuario

Utiliza el endpoint de API de pipeline para logs de Datadog con la siguiente carga útil JSON del analizador de agente de usuario:

{
  "type": "user-Agent-parser",
  "name": "Analiza <SOURCE_ATTRIBUTE> para extraer toda su información de agente de usuario",
  "is_enabled": true,
  "sources": ["http.useragent"],
  "target": "http.useragent_details",
  "is_encoded": false
}
ParámetroTipoObligatorioDescripción
typeCadenaTipo de procesador.
nameCadenaNoNombre del procesador.
is_enabledBooleanoNoSi los procesadores están habilitados o no. Por defecto: false.
sourcesMatriz de cadenasNoMatriz de atributos de origen. Por defecto: http.useragent.
targetCadenaNombre del atributo principal que contiene todos los detalles extraídos de sources. Por defecto: http.useragent_details.
is_encodedBooleanoNoDefine si el atributo de origen está codificado con URL o no. Por defecto: false.

Procesador de categorías

Utiliza el procesador de categorías para añadir un nuevo atributo (sin espacios ni caracteres especiales en el nombre del nuevo atributo) a un log que coincida con una consulta de búsqueda proporcionada. A continuación, utiliza categorías para crear grupos para una vista analítica (por ejemplo, grupos de URL, grupos de máquinas, entornos, y buckets de tiempos de respuesta).

Notas:

  • La sintaxis de la consulta es la que aparece en la barra de búsqueda del Explorador de logs. Esta consulta puede hacerse sobre cualquier atributo o etiqueta de log, sea o no una faceta. También se pueden utilizar comodines en la consulta.
  • Una vez que el log ha coincidido con una de las consultas del procesador, se detiene. Asegúrate de que estén bien ordenados, en caso de que un log pueda coincidir con varias consultas.
  • Los nombres de las categorías deben ser únicos.
  • Una vez definidas las categorías en el procesador de categorías, puedes asignarlas al estado del log utilizando el Reasignador de estados de logs.

Define el procesador de categorías en la página Pipelines. Por ejemplo, para categorizar tus logs de acceso web basándote en el valor del rango de código de estado ("OK" for a response code between 200 and 299, "Notice" for a response code between 300 and 399, ...), añade este procesador:

Procesador de categorías

Este procesador genera el siguiente resultado:

Resultado del procesador de categorías

Utiliza el endpoint de API de pipeline para logs de Datadog con la siguiente carga útil JSON del procesador de categorías:

{
  "tipo": "category-processor",
  "name": "Asigna un valor personalizado al atributo <TARGET_ATTRIBUTE>",
  "is_enabled": true
  "categories": [
    {"filter": {"query": "<QUERY_1>"}, "name": "<VALUE_TO_ASSIGN_1>"},
    {"filter": {"query": "<QUERY_2>"}, "name": "<VALUE_TO_ASSIGN_2>"}
  ],
  "target": "<TARGET_ATTRIBUTE>"
}
ParámetroTipoObligatorioDescripción
typeCadenaTipo de procesador.
nameCadenaNoNombre del procesador.
is_enabledBooleanoNoSi los procesadores están habilitados o no. Por defecto: false
categoriesMatriz de objetosMatriz de filtros para hacer coincidir o no un log y su name correspondiente, para asignar un valor personalizado al log.
targetCadenaNombre del atributo de destino cuyo valor está definido por la categoría coincidente.

Procesador aritmético

Utiliza el procesador aritmético para añadir un nuevo atributo (sin espacios ni caracteres especiales en el nombre del nuevo atributo) a un log con el resultado de la fórmula proporcionada. Esto reasigna diferentes atributos de tiempo con diferentes unidades en un único atributo, o computa operaciones en atributos del mismo log.

Una fórmula de procesador aritmético puede utilizar paréntesis y operadores aritméticos básicos: -, +, *, /.

Por defecto, si falta un atributo se omite un cálculo. Selecciona Replace missing attribute by 0 (Sustituir atributo omitido por 0) para rellenar automáticamente los valores de atributos omitidos con 0 y asegurarte de que se realiza el cálculo.

Notas:

  • Un atributo puede aparecer como ausente, si no se encuentra en los atributos del log o si no puede convertirse en un número.
  • Cuando se utiliza el operador -, añade espacios antes y después, ya que los nombres de atributos como start-time pueden contener guiones. Por ejemplo, la siguiente fórmula debe incluir espacios espacios antes y después del operador -: (end-time - start-time) / 1000.
  • Si el atributo de destino ya existe, se sobrescribe con el resultado de la fórmula.
  • Los resultados se redondean al noveno decimal. Por ejemplo, si el resultado de la fórmula es 0.1234567891, el valor real almacenado para el atributo es 0.123456789.
  • Si necesitas escalar una unidad de medida, utiliza el filtro para escalas.

Define el procesador aritmético en la página Pipelines:

Procesador aritmético

Utiliza el endpoint de API de pipeline para logs de Datadog con la siguiente carga útil JSON del procesador aritmético:

{
  "type": "arithmetic-processor",
  "name": "<PROCESSOR_NAME>",
  "is_enabled": true,
  "expression": "<ARITHMETIC_OPERATION>",
  "target": "<TARGET_ATTRIBUTE>",
  "is_replace_missing": false
}
ParámetroTipoObligatorioDescripción
typeCadenaTipo de procesador.
nameCadenaNoNombre del procesador.
is_enabledBooleanoNoSi los procesadores están habilitados o no. Por defecto: false.
expressionCadenaOperación aritmética entre uno o varios atributos de logs.
targetCadenaNombre del atributo que contiene el resultado de la operación aritmética.
is_replace_missingBooleanoNoSi true, sustituye todos los atributos que faltan de expression por 0, false omite la operación si falta un atributo. Por defecto: false.

Procesador del creador de cadenas

Utilice el procesador del creador de cadenas para añadir un nuevo atributo (sin espacios ni caracteres especiales) a una log con el resultado de la plantilla proporcionada. Esto permite agregar diferentes atributos o cadenas sin procesar en un único atributo.

La plantilla está definida tanto por texto sin formato como por bloques con la sintaxis %{attribute_path}.

Notas:

  • Este procesador sólo acepta atributos con valores o una matriz de valores en el bloque (consulta los ejemplos de la sección de la interfaz de usuario a continuación).
  • Si no se puede utilizar un atributo (objeto o matriz de objetos), se sustituye por una cadena vacía o se omite toda la operación en función de tu selección.
  • Si ya existe un atributo de destino, se sobrescribe con el resultado de la plantilla.
  • Los resultados de una plantilla no pueden superar los 256 caracteres.

Define el procesador del creador de cadenas en la página Pipelines:

Procesador del creador de cadenas

Con el siguiente log, utiliza la plantilla Request %{http.method} %{http.url} was answered with response %{http.status_code} para devolver un resultado. Por ejemplo:

{
  "http": {
    "method": "GET",
    "status_code": 200,
    "url": "https://app.datadoghq.com/users"
  },
  "array_ids": [123, 456, 789],
  "array_users": [
    {"first_name": "John", "last_name": "Doe"},
    {"first_name": "Jack", "last_name": "London"}
  ]
}

Devuelve lo siguiente:

La solicitud GET https://app.datadoghq.com/users ha sido respondida con 200

Nota: http es un objeto y no puede utilizarse en un bloque (%{http} falla), mientras que %{http.method}, %{http.status_code} o %{http.url} devuelven el valor correspondiente. Los bloques pueden utilizarse en matrices de valores o en un atributo específico de una matriz.

  • Por ejemplo, añadir el bloque %{array_ids} devuelve:

    123,456,789
    
  • %{array_users} no devuelve nada porque es una lista de objetos. Sin embargo, %{array_users.first_name} devuelve una lista de los first_name contenidos en la matriz:

    John,Jack
    

Utiliza el endpoint de API de pipeline para logs de Datadog con la siguiente carga útil JSON del procesador del creador de cadenas:

{
  "type": "string-builder-processor",
  "name": "<PROCESSOR_NAME>",
  "is_enabled": true,
  "template": "<STRING_BUILDER_TEMPLATE>",
  "target": "<TARGET_ATTRIBUTE>",
  "is_replace_missing": true
}
ParámetroTipoObligatorioDescripción
typeCadenaTipo de procesador.
nameCadenaNoNombre del procesador.
is_enabledBooleanoNoSi el procesador está habilitado o no, por defecto es false.
templateCadenaUna fórmula con uno o más atributos y texto sin formato.
targetCadenaEl nombre del atributo que contiene el resultado de la plantilla.
is_replace_missingBooleanoNoSi es true, sustituye todos los atributos que faltan de template por una cadena vacía. Si es false, omite la operación para los atributos que faltan. Por defecto: false.

Analizador GeoIP

El analizador GeoIP toma un atributo de una dirección IP y extrae información de continente, país, subdivisión o ciudad (si está disponible) en la ruta del atributo de destino.

Procesador GeoIP

La mayoría de los elementos contienen un atributo name y iso_code (o code para continente). subdivision es el primer nivel de subdivisión que utiliza el país, como “Estados” para Estados Unidos o “Departamentos” para Francia.

Por ejemplo, el analizador GeoIP extrae una localización del atributo network.client.ip y lo almacena en el atributo network.client.geoip:

Ejemplo de GeoIP

Utiliza el endpoint de API de pipeline para logs de Datadog con la siguiente carga útil JSON del analizador GeoIP:

{
  "type": "geo-ip-parser",
  "name": "Analiza los elementos de geolocalización del atributo network.client.ip",
  "is_enabled": true,
  "sources": ["red.client.ip"],
  "target": "red.client.geoip"
}
ParámetroTipoObligatorioDescripción
typeCadenaTipo de procesador.
nameCadenaNoNombre del procesador.
is_enabledBooleanoNoSi los procesadores están habilitados o no. Por defecto: false.
sourcesMatriz de cadenasNoMatriz de atributos de origen. Por defecto: network.client.ip.
targetCadenaNombre del atributo principal que contiene todos los detalles extraídos de sources. Por defecto: network.client.geoip.

Procesador de búsqueda

Utiliza el procesador de búsqueda para definir una reasignación entre un atributo de log y un valor legible por el ser humano guardado en una tabla de referencia o en la tabla de asignación de procesadores.

Por ejemplo, puedes utilizar el procesador de búsqueda para asignar un ID interno de servicio a un nombre de servicio legible por el ser humano. También puedes utilizarlo para comprobar si la dirección MAC que acaba de intentar conectarse al entorno de producción pertenece a tu lista de máquinas robadas.

El procesador de búsqueda realiza las siguientes acciones:

  • Comprueba si el log actual contiene el atributo de origen.
  • Comprueba si el valor del atributo de origen existe en la tabla de asignación.
    • Si existe, crea el atributo de destino con el valor correspondiente en la tabla.

    • Opcionalmente, si no encuentra el valor en la tabla de asignación, crea un atributo de destino con el valor auxiliar predeterminado, configurado en el campo fallbackValue. Puedes introducir manualmente una lista de pares source_key,target_value o cargar un archivo CSV en la pestaña Manual Mapping (Asignación manual).

      Procesador de búsqueda

      El límite de tamaño de la tabla de asignaciones es de 100 Kb. Este límite se aplica a todos los procesadores de consulta de la plataforma. Sin embargo, las tablas de referencia admiten archivos de mayor tamaño.

    • Opcionalmente, si no encuentra el valor en la tabla de asignaciones, crea un atributo de destino con el valor de la tabla de referencia. Puedes seleccionar un valor para una tabla de referencias en la pestaña Reference Table (Tabla de referencias).

      Procesador de búsqueda

Utiliza el endpoint de API de pipeline para logs de Datadog con la siguiente carga útil JSON del procesador de búsqueda:

{
  "type": "lookup-processor",
  "name": "<PROCESSOR_NAME>",
  "is_enabled": true,
  "source": "<SOURCE_ATTRIBUTE>",
  "target": "<TARGET_ATTRIBUTE>",
  "lookup_table": ["key1,value1", "key2,value2"],
  "default_lookup": "<DEFAULT_TARGET_VALUE>"
}
ParámetroTipoObligatorioDescripción
typeCadenaTipo de procesador.
nameCadenaNoNombre del procesador.
is_enabledBooleanoSi el procesador está habilitado o no. Por defecto: false.
sourceCadenaAtributo de origen utilizado para realizar la búsqueda.
targetCadenaNombre del atributo que contiene el valor correspondiente en la lista de asignaciones o la default_lookup si no se encuentra en la lista de asignaciones.
lookup_tableMatriz de cadenasTabla de asignación de valores para el atributo de origen y sus valores de atributo de destino asociados, con el formato [ “source_key1,target_value1”, “source_key2,target_value2” ].
default_lookupCadenaNoValor para configurar el atributo de destino, si no se encuentra el valor de origen en la lista.

Reasignador de trazas

Existen dos formas de mejorar la correlación entre trazas y logs de aplicaciones:

  1. Sigue la documentación sobre cómo inyectar un ID de rastreo en logs de aplicaciones. Por defecto, las integraciones de logs se encargan del resto de la configuración.

  2. Utilice el procesador del reasignador de trazas para definir un atributo de log como su ID de rastreo asociado.

Define el procesador del reasignador de trazas en la página Pipelines. Introduce la ruta de atributo del ID de rastreo en el cuadro del procesador, de la siguiente manera:

Procesador del ID de rastreo

Utiliza el endpoint de API de pipeline para logs de Datadog con la siguiente carga útil JSON del reasignador de trazas:

{
  "type": "rastrear-id-remapper",
  "name": "Define dd.trace_id como id de rastreo oficial asociado a este log",
  "is_enabled": true,
  "sources": ["dd.trace_id"]
}
ParámetroTipoObligatorioDescripción
typeCadenaTipo de procesador.
nameCadenaNoNombre del procesador.
is_enabledBooleanoNoSi los procesadores están habilitados o no. Por defecto: false.
sourcesMatriz de cadenasNoMatriz de atributos de origen. Por defecto: dd.trace_id.

Nota: rastrear Los ID de rastreo y de tramo (span) no se muestran en tus logs o en tus atributos de logs en la interfaz de usuario.

Leer más


*Logging without Limits es una marca registrada de Datadog, Inc.
PREVIEWING: esther/docs-9518-update-example-control-sensitive-log-data