Usa la integración de Anthropic para monitorizar, solucionar problemas y evaluar tus aplicaciones impulsadas por LLM, como chatbots o herramientas de extracción de datos, con los modelos de Anthropic.
Si creas aplicaciones de LLM, usa la observabilidad de LLM para investigar la causa raíz de los problemas,
monitorizar el rendimiento operativo y evaluar la calidad, la privacidad y la seguridad de tus aplicaciones de LLM.
La integración de Anthropic permite el rastreo automático de las llamadas de mensajes de chat realizadas por el SDK de Python de Anthropic, al capturar la latencia, errores, mensajes de entrada/salida y uso de tokens durante las operaciones de Anthropic.
Se rastrean los siguientes métodos para operaciones sincrónicas y asincrónicas de Anthropic:
Mensajes de chat (incluidas las llamadas transmitidas): Anthropic().messages.create(), AsyncAnthropic().messages.create()
Mensajes de chat transmitidos: Anthropic().messages.stream(), AsyncAnthropic().messages.stream()
No se requiere configuración adicional para estos métodos.
Valida que la observabilidad de LLM capture tramos de manera adecuada al comprobar los logs de tu aplicación a fin de verificar si se crean de forma correcta. También puedes ejecutar el siguiente comando para comprobar el estado de la integración dd-trace:
ddtrace-run --info
Busca el siguiente mensaje para confirmar la configuración: