Maintenant que l'application de chatbot fonctionne, vous pouvez également utiliser Elastic Observability pour surveiller l'application. Elastic est 100% OpenTelemetry native en ingérant et en conservant les données OTel sans nécessiter de traduction de données.

Nous avons déjà configuré l'application Chatbot avec OpenTelemetry (en utilisant EDOT).

Comment obtenir des traces ?

Configurez OTEL_SDK_DISABLED=false dans votre fichier .env l'application enverra des logs, des métriques et des traces au déploiement Elastic local.

Voir les détails dans la section OpenTelemetry du README de l'application Chatbot.

Le traçage fonctionnera pour tous les LLM - OpenAI, Azure OpenAI, AWS Bedrock, Google Vertex AI.

Tableau de bord LLM

Vous pouvez également voir les performances du LLM grâce aux intégrations LLM Observability pour OpenAI, Azure OpenAI, Google VertexAI et AWS Bedrock.

Il est facile de les activer en ajoutant l'intégration sur Elastic.

En savoir plus sur OTel et LLM Obs sur Elastic Observability Labs.

Précédemment

Historique du chat

Suivant

Conclusion

Prêt à créer des expériences de recherche d'exception ?

Une recherche suffisamment avancée ne se fait pas avec les efforts d'une seule personne. Elasticsearch est alimenté par des data scientists, des ML ops, des ingénieurs et bien d'autres qui sont tout aussi passionnés par la recherche que vous. Mettons-nous en relation et travaillons ensemble pour construire l'expérience de recherche magique qui vous permettra d'obtenir les résultats que vous souhaitez.

Jugez-en par vous-même