Monitoriza, soluciona problemas y evalúa tus aplicaciones impulsadas por LLM, como chatbots o herramientas de extracción de datos,
con Amazon Bedrock.
Si creas aplicaciones de LLM, usa la observabilidad de LLM para investigar la causa raíz de los problemas,
monitorizar el rendimiento operativo y evaluar la calidad, la privacidad y la seguridad de tus aplicaciones de LLM.
Amazon Bedrock es un servicio totalmente gestionado que pone a disposición modelos fundacionales (FMs) de Amazon y de empresas emergentes
de IA líderes a través de una API, de modo que puedas elegir entre varios FMs para encontrar el modelo que mejor
se adapte a tu caso de uso.
Habilita esta integración para ver todas tus métricas de Bedrock en Datadog.
La integración de Amazon Bedrock se habilita de manera automática cuando se configura la observabilidad de LLM. Esto captura latencia, errores, mensajes de entrada y salida, así como el uso de tokens para llamadas de Amazon Bedrock.
Se rastrean los siguientes métodos tanto para operaciones sincrónicas como transmitidas de Amazon Bedrock:
InvokeModel()
InvokeModelWithResponseStream()
No se requiere configuración adicional para estos métodos.
Valida que la observabilidad de LLM capture tramos de manera adecuada al comprobar los logs de tu aplicación a fin de verificar si se crean de forma correcta. También puedes ejecutar el siguiente comando para comprobar el estado de la integración ddtrace:
ddtrace-run --info
Busca el siguiente mensaje para confirmar la configuración:
Si tienes problemas durante la configuración, habilita el registro de depuración al pasar la marca --debug:
ddtrace-run --debug
Aquí se muestran todos los errores relacionados con la instrumentación o transmisión de datos, incluidos los problemas con las trazas de Amazon Bedrock.