Empezando con el Continuous Profiler

La generación de perfiles puede hacer que tus servicios sean más rápidos, baratos y fiables. Sin embargo, si es la primera vez que utilizas un generador de perfiles, puede resultarte confuso.

En esta guía, te explicamos en qué consiste la generación de perfiles, te ofrecemos el ejemplo de un servicio con un problema de rendimiento, y utilizamos el Continuous Profiler de Datadog para entender y solucionar el problema.

Información general

Los generadores de perfiles recopilan datos sobre el programa mientras este se ejecuta para reflejar la cantidad de “trabajo” que realiza cada función. Por ejemplo, si la monitorización de la infraestructura demuestra que los servidores de tu aplicación están usando el 80 % de su CPU, es posible que no sepas a qué se debe. Por este motivo, la generación de perfiles ofrece un desglose del trabajo. Por ejemplo:

FunciónUso de la CPU
doSomeWork48 %
renderGraph19 %
Otro13 %

Esta información es importante cuando se trabaja para solucionar problemas de rendimiento, dado que hay muchos programas que pasan demasiado tiempo en unos pocos lugares, lo que no siempre es evidente. Averiguar qué partes de un programa deben optimizarse constituye una gran pérdida de tiempo para los ingenieros, que a cambio obtienen resultados poco satisfactorios. Si utilizas un generador de perfiles, puedes identificar exactamente qué partes del código hay que optimizar.

Si has usado una herramienta de APM, es posible que la generación de perfiles te parezca un rastreador “más detallado” que ofrece una imagen pormenorizada del código sin necesidad de recurrir a la instrumentación.

El Continuous Profiler de Datadog puede rastrear varios tipos de “trabajo”, como el uso de la CPU, la cantidad y los tipos de objetos que se asignan en la memoria, el tiempo de espera para adquirir bloqueos, la cantidad de E/S de la red o archivo, y más. Los tipos de perfiles disponibles dependen del lenguaje cuyo perfil se esté generando.

Configuración

Requisitos previos

Antes de empezar, asegúrate de que cumples los siguientes requisitos previos:

  1. docker-compose
  2. Una cuenta de Datadog y una clave de API. Si necesitas una cuenta de Datadog, regístrate para disfrutar de una prueba gratuita.

Instalación

El repositorio dd-continuous-profiler-example ofrece un ejemplo de servicio con un problema de rendimiento para experimentar. Se incluye una API para realizar búsquedas en una “base de datos” de 5000 películas.

Instala y ejecuta el servicio del ejemplo:

clonar git https://github.com/DataDog/dd-continuous-profiler-example.git
cd dd-continuous-profiler-example
echo "DD_API_KEY=YOUR_API_KEY" > docker.env
docker-compose up -d

Validación

Una vez que se hayan creado los contenedores y estén en ejecución, podrás explorar el contenedor “toolbox”:

docker exec -it dd-continuous-profiler-example-toolbox-1 bash

Usa la API con:

curl -s http://movies-api-java:8080/movies?q=wars | jq

También existe una versión Python del servicio del ejemplo denominada movies-api-py. Si optas por utilizarla, ajusta los comandos del tutorial como corresponda.

Generar datos

Usa la herramienta ApacheBench, ab, para generar tráfico. Ejecútala con 10 clientes HTTP simultáneos y envía las solicitudes cada 20 segundos. En el contenedor “toolbox”, ejecuta:

ab -c 10 -t 20 http://movies-api-java:8080/movies?q=the

Resultado del ejemplo:

...
Latencias declaradas por ab:
Porcentaje de solicitudes atendidas en un tiempo determinado (ms)
  50 %    464
  66 %    503
  75 %    533
  80 %    553
  90 %    614
  95 %    683
  98 %    767
  99 %    795
 100 %    867 (solicitud más larga)

Investigar

Lee el perfil

Utiliza la Búsqueda de perfiles para encontrar el perfil que estuvo activo durante el intervalo de tiempo en el que generaste el tráfico. Es posible que tarde alrededor de un minuto en cargarse. El perfil que tiene el test de carga presenta un uso superior de la CPU:

Lista de perfiles

Cuando lo abras, la visualización del perfil será parecida a esta:

Gráfico de llamas

Esto es un gráfico de llamas. Lo más importante de todo lo que muestra es la cantidad de CPU que usa cada método (dado que estamos ante un perfil de CPU) y cómo se invocaron estos métodos. Por ejemplo, en la segunda fila empezando por arriba, verás que Thread.run() invocó a QueuedThreadPool$2.run() (entre otras cosas), que a su vez invocó a QueuedThreadPool.runjob(Runnable), que invocó a ReservedTheadExecutor$ReservedThread.run(), y así sucesivamente.

Al ampliar una zona de la parte inferior del gráfico de llamas, aparece un cuadro de información que indica que la CPU dedicó aproximadamente 309 ms (el 0,90 %) de su tiempo a la función parse():

Cuadro parse() del gráfico de llamas

String.length() se encuentra justo debajo de la función parse(), lo que significa que la invoca parse(). Pasa el cursor por encima de String.length() para ver que la CPU le dedicó alrededor de 112 ms de su tiempo:

Cuadro String.length() del gráfico de llamas

Eso quiere decir que se le dedicaron 197 milisegundos directamente a parse(): 309 ms - 112 ms. La representación visual es la parte del cuadro parse() que no tiene nada debajo.

Cabe destacar que el gráfico de llamas no representa la progresión del tiempo. Si nos fijamos en esta parte del perfil, Gson$1.write() no se ejecutó antes que TypeAdapters$16.write(), pero puede ser que tampoco lo haya hecho después.

Sección del gráfico de llamas con cuadros write() unos al lado de otros

Es probable que se hayan ejecutado de forma simultánea o que el programa haya invocado varias veces uno, luego el otro, y así sucesivamente. El gráfico de llamas fusiona todas las veces que un programa ejecutó la misma serie de funciones para que puedas ver en un pestañeo qué partes del código usaron más CPU, sin un montón de campos diminutos que se muestran cada vez que se invoca una función.

Aleja la imagen y fíjate en que alrededor del 87 % del uso de la CPU se produjo en el método replyJSON(). Más abajo, la gráfica muestra replyJSON(), y los métodos que invoca se terminan bifurcando en cuadro rutas de código principales (“stack traces”) que ejecutan funciones relacionadas con el orden y el parseo de fechas:

Gráfico de llamas con flechas que señalan las stack traces que están debajo de replyJSON()

Además, puedes observar que una parte del perfil de la CPU se representa de este modo:

Vista de la recopilación de elementos no usados en el gráfico de llamas

Tipos de perfiles

La CPU dedicó casi un 6 % del tiempo a la recopilación de elementos no usados, lo que indica que podría estar produciendo una gran cantidad de basura. Por tanto, conviene revisar el tipo de perfil correspondiente a la Memoria asignada:

Selector de tipos de perfiles

En un perfil de tipo “Memoria asignada”, el tamaño de los cuadros indica la cantidad de memoria asignada por cada función, así como el stack de llamada que provocó que la función efectuase dicha asignación. Como puedes observar a continuación, en este perfil de un minuto, el método replyJSON() y otros métodos invocados asignaron 17,47 GiB, la mayoría relacionados con el mismo código de parseo de fechas que hemos visto en el perfil de la CPU de arriba:

Gráfico de llamas del perfil de asignación con flechas que señalan las stack traces que están debajo de replyJSON()

Solución

Corrige el código

Revisa el código y fíjate en lo que ocurre. En el gráfico de llamas de la CPU, verás que las rutas de código costosas pasan por una función lambda en la línea 66 que, a su vez, invoca a LocalDate.parse():

Gráfico de llamas al pasar el ratón por encima de lambda de orden

Esto se corresponde con esta parte del código en dd-continuous-profiler-example, donde se invoca a LocalDate.parse():

estático privado de java<Movie> sortByDescReleaseDate[Película<Movie> de flujo (stream)] {
  devolver movies.sorted(Comparator.comparing((Película m) -> {
    // Problema: Parseo de una fecha y hora para cada elemento que se clasificará.
    // Solución de ejemplo:
    //   Ya que la fecha está en formato ISO (aaaa-mm-dd), ese se ordena bien con la clasificación de cadenas normal.
    //   `return m.releaseDate`
    intentar {
      devolver LocalDate.parse(m.releaseDate);
    } capturar (Excepción e) {
      devolver LocalDate.MIN;
    }
  }).inverso());
}

Esta es la lógica de ordenación que se aplica en la API, en la que los resultados se reflejan en orden descendente según la fecha de lanzamiento. Para ello, la API usa la fecha de lanzamiento en formato LocalDate a modo de clave de ordenación. Para ahorrar tiempo, podrías almacenar el parámetro LocalDate en caché para que solo se parsee la fecha de lanzamiento de cada película en vez de todas las solicitudes. No obstante, existe una solución mejor: parsear las fechas con el formato de la ISO 8601 (aaaa-mm-dd) para que se puedan ordenar como segmentos y no como parseos.

Reemplaza las secciones try y catch por return m.releaseDate; de esta forma:

estático privado de java<Movie> sortByDescReleaseDate[Película<Movie> de Flujo (stream)] {
  devolver movies.sorted(Comparator.comparing((Película m) -> {
    devolver m.releaseDate;
  }).reversed());
}

Después, vuelve a crear y reinicia el servicio:

docker-compose crear movies-api-java
docker-compose up -d

Repite el test

Para comprobar la exactitud de los resultados, vuelve a generar tráfico:

docker exec -it dd-continuous-profiler-example-toolbox-1 bash
ab -c 10 -t 20 http://movies-api-java:8080/movies?q=the

Resultado del ejemplo:

Latencias declaradas por ab:
Porcentaje de solicitudes atendidas en un margen de tiempo determinado (ms)
  50 %     82
  66 %    103
  75 %    115
  80 %    124
  90 %    145
  95 %    171
  98 %    202
  99 %    218
 100 %    315 (solicitud más larga)

p99 pasó de 795 ms a 218 ms y, por lo general, esta velocidad es entre cuatro y seis veces más rápida que antes.

Localiza el perfil que contiene el nuevo test de carga y fíjate en el perfil de la CPU. Las partes replyJSON del gráfico de llamas presentan un porcentaje de uso de la CPU mucho más pequeño que el test de carga anterior:

Gráfico de llamas con stack traces replyJSON() optimizadas

Haz una limpieza

Cuando termines de explorar, ejecuta el siguiente comando para hacer una limpieza:

docker-compose down

Recomendaciones

Ahorrar dinero

Esta mejora del uso de la CPU puede traducirse en un ahorro de dinero. Si hubiera sido un servicio real, esta pequeña mejora podría haberte permitido reducir a la mitad el número de servidores, lo que supondría un ahorro de miles de dólares al año. No está nada mal para algo que llevó 10 minutos de trabajo.

Mejora tu servicio

Esta guía solo ha tratado la generación de perfiles de forma superficial, pero debería servirte para empezar. Habilita el generador de perfiles para tus servicios.

Leer más

PREVIEWING: rtrieu/product-analytics-ui-changes