Nachdem Ihre Chatbot-App nun läuft, können Sie Elastic Observability auch zur Überwachung der Anwendung nutzen. Elastic ist zu 100 % OpenTelemetry-nativ, da es OTel-Daten ohne Datenübersetzung aufnimmt und speichert.
Wir haben die Chatbot-App bereits mit OpenTelemetry (mittels EDOT) konfiguriert.

Wie erhalte ich Spuren?
Konfigurieren Sie OTEL_SDK_DISABLED=false in Ihrer .env-Datei. Wenn die Datei verwendet wird, sendet die App Protokolle, Metriken und Traces an die lokale Elastic-Bereitstellung.
Weitere Details finden Sie im Abschnitt „OpenTelemetry“ der README-Datei der Chatbot-App.
Tracing funktioniert für alle LLMs - OpenAI, Azure OpenAI, AWS Bedrock, Google Vertex AI.
LLM-Dashboard
Sie können auch sehen, wie gut das LLM funktioniert, indem Sie die LLM Observability-Integrationen für OpenAI, Azure OpenAI, Google VertexAI und AWS Bedrock nutzen.
Diese Funktionen lassen sich ganz einfach durch Hinzufügen der Integration auf Elastic aktivieren.
Lesen Sie mehr über OTel und LLM Obs auf Elastic Observability Labs.
Vorher
ChatverlaufNächste
Fazit