Erstellung eines LLM-Agenten-Newsrooms mit A2A-Protokoll und MCP in Elasticsearch: Teil II

Erfahren Sie, wie Sie einen spezialisierten hybriden LLM-Agenten-Newsroom aufbauen, indem Sie das A2A-Protokoll für die Agentenzusammenarbeit und MCP für den Werkzeugzugriff in Elasticsearch verwenden.

Agent Builder ist ab sofort als technische Vorschau verfügbar. Starten Sie mit einer Elastic Cloud-Testversion und lesen Sie die Dokumentation zum Agent Builder hier.

A2A und MCP: Der Code in Aktion

Dies ist der Begleitartikel zum Artikel „Erstellung eines LLM-Agent-Newsrooms mit A2A-Protokoll und MCP in Elasticsearch!“, in dem die Vorteile der Implementierung von A2A- und MCP-Architekturen innerhalb desselben Agenten erläutert wurden, um die einzigartigen Vorteile beider Frameworks voll auszuschöpfen. Ein Repository steht zur Verfügung, falls Sie die Demo selbst ausführen möchten.

Lassen Sie uns gemeinsam durchgehen, wie unsere Redakteure mithilfe von A2A und MCP zusammenarbeiten, um einen Nachrichtenartikel zu erstellen. Das zugehörige Repository, um die Agenten in Aktion zu sehen, finden Sie hier.

Schritt 1: Aufgabenstellung für die Geschichte

Der Nachrichtenchef (in der Rolle des Auftraggebers) vergibt eine Story:

Schritt 2: Der Reporter bittet um Recherche

Der Reporteragent erkennt, dass er Hintergrundinformationen benötigt und delegiert diese über A2A an den Rechercheagenten :

Schritt 3: Der Reporter bittet den Archivar um historischen Kontext.

Der Reporteragent erkennt, dass ein historischer Kontext die Geschichte stärken würde. Es delegiert über A2A an den Archivagenten (basierend auf dem A2A-Agenten von Elastic), um das Elasticsearch-basierte Artikelarchiv des Newsrooms zu durchsuchen:

Schritt 4: Der Archivierungsagent verwendet den Elastic A2A-Agenten mit MCP.

Der Archive Agent verwendet den A2A Agent von Elastic, der wiederum MCP nutzt, um auf die Elasticsearch-Tools zuzugreifen. Dies veranschaulicht die Hybridarchitektur, bei der A2A die Zusammenarbeit von Agenten ermöglicht, während MCP den Zugriff auf Werkzeuge bereitstellt:

Der Archivagent empfängt umfassende historische Daten vom A2A-Agenten von Elastic und sendet sie an den Reporter zurück:

Dieser Schritt demonstriert, wie sich der A2A-Agent von Elastic in den Workflow der Nachrichtenredaktion integriert. Der Archive Agent (ein speziell für Redaktionen entwickelter Agent) koordiniert sich mit dem A2A Agent von Elastic (einem Drittanbieter-Spezialisten), um die leistungsstarken Such- und Analysefunktionen von Elasticsearch optimal zu nutzen. Der Elastic-Agent nutzt intern MCP für den Zugriff auf Elasticsearch-Tools, was die klare Trennung zwischen Agentenkoordination (A2A) und Toolzugriff (MCP) verdeutlicht.

Schritt 5: Der Forscher nutzt MCP-Server

Der Forschungsagent greift auf mehrere MCP-Server zu, um Informationen zu sammeln:

Schritt 6: Der Forscher übermittelt die Daten an den Reporter.

Der Rechercheagent sendet die umfassenden Rechercheergebnisse über A2A zurück:

Schritt 7: Der Reporter schreibt einen Artikel

Der Reporteragent nutzt die Forschungsdaten und seine eigenen LLM-Fähigkeiten, um den Artikel zu schreiben. Beim Schreiben nutzt der Reporter die MCP-Server für Stil und Vorlagen:

Schritt 8: Geringes Vertrauen löst erneute Recherche aus

Der Reporteragent prüft den Entwurf und stellt fest, dass eine Behauptung nur geringes Vertrauen genießt. Es sendet eine weitere Anfrage an den Forschungsagenten:

Der Forscher überprüft die Behauptung mithilfe von Faktencheck-Servern von MCP und liefert aktualisierte Informationen zurück:

Schritt 9: Der Reporter überarbeitet den Text und reicht ihn beim Redakteur ein.

Der Reporter integriert die verifizierten Fakten und sendet den fertigen Entwurf per A2A an den Redaktionsagenten :

Schritt 10: Redaktionelle Überprüfungen mithilfe von MCP-Tools

Der Redaktionsagent nutzt mehrere MCP-Server zur Überprüfung des Artikels:

Der Redakteur genehmigt den Artikel und leitet ihn weiter:

Schritt 11: Der Herausgeber veröffentlicht über CI/CD

Schließlich veröffentlicht der Druckeragent den genehmigten Artikel mithilfe der MCP-Server für die CMS- und CI/CD-Pipeline:

Der Verlag bestätigt die Veröffentlichung via A2A:

Hier ist die vollständige Abfolge des A2A-Workflows im zugehörigen Repository unter Verwendung der oben beschriebenen Agenten.

#AusZuAktionProtokollBeschreibung
1BenutzerNachrichtenchefGeschichte zuweisenHTTP POSTDer Nutzer gibt Thema und Blickwinkel der Geschichte vor.
2NachrichtenchefInternGeschichte erstellen-Erstellt einen Story-Datensatz mit eindeutiger ID
3NachrichtenchefReporterDelegiertenzuweisungA2ASendet die Story-Aufgabe über das A2A-Protokoll.
4ReporterInternAuftrag annehmen-Interne Zuordnung der Lagerbestände
5ReporterMCP-ServerGliederung erstellenMCP/HTTPErstellt Gliederungen für Artikel und Forschungsfragen
6aReporterForscherForschungsanfrageA2ASendet Fragen (parallel zu 6b)
6bReporterArchivarArchiv durchsuchenA2A JSONRPCDurchsucht historische Artikel (parallel zu 6a)
7ForscherMCP-ServerForschungsfragenMCP/HTTPNutzt Anthropic über MCP, um Fragen zu beantworten
8ForscherReporterForschung zurückgebenA2AAntworten zur Renditeforschung
9ArchivarElasticsearchSuchindexES REST-APIAbfragen zum Nachrichtenarchivindex
10ArchivarReporterZurück zum ArchivA2A JSONRPCGibt historische Suchergebnisse zurück
11ReporterMCP-ServerArtikel generierenMCP/HTTPErstellt einen Artikel mit Recherche-/Archivkontext
12ReporterInternEntwurf speichern-Speichert den Entwurf intern.
13ReporterNachrichtenchefEntwurf einreichenA2AReicht den fertigen Entwurf ein
14NachrichtenchefInternUpdate zur Geschichte-Speichert den Entwurf, aktualisiert den Status auf "draft_submitted"
15NachrichtenchefEditorEntwurf prüfenA2AAutomatische Weiterleitung an den Redakteur zur Überprüfung
16EditorMCP-ServerRezensionsartikelMCP/HTTPAnalysiert Inhalte mithilfe von Anthropic über MCP
17EditorNachrichtenchefRückgabeprüfungA2ASendet redaktionelles Feedback und Vorschläge
18NachrichtenchefInternLadenbewertung-Feedback der Ladenredaktion
19NachrichtenchefReporterÄnderungen anwendenA2AFeedback zur Routenbewertung an den Reporter
20ReporterMCP-ServerÄnderungen anwendenMCP/HTTPÜberarbeitet den Artikel basierend auf dem Feedback
21ReporterInternEntwurf aktualisieren-Aktualisiert den Entwurf mit den Überarbeitungen
22ReporterNachrichtenchefRückgabe überarbeitetA2AArtikel über die Rückgabe überarbeitet
23NachrichtenchefInternUpdate zur Geschichte-Die Geschäfte haben den Entwurf überarbeitet, der Status lautet nun „überarbeitet“.
24NachrichtenchefHerausgeberArtikel veröffentlichenA2AAutomatische Weiterleitung zum Herausgeber
25HerausgeberMCP-ServerTags generierenMCP/HTTPErstellt Tags und Kategorien
26HerausgeberElasticsearchIndexartikelES REST-APIIndexiert Artikel im Nachrichtenarchivindex
27HerausgeberDateisystemMarkdown speichernDatei-E/ASpeichert den Artikel als .md-Datei Datei in /articles
28HerausgeberNachrichtenchefVeröffentlichung bestätigenA2ARückgabestatus: Erfolgreich
29NachrichtenchefInternUpdate zur Geschichte-Aktualisiert den Status der Story auf „veröffentlicht“.

Fazit

Sowohl A2A als auch MCP spielen eine wichtige Rolle im modernen erweiterten LLM-Infrastrukturparadigma. A2A bietet Flexibilität für komplexe Multiagentensysteme, jedoch potenziell geringere Portabilität und höhere operative Komplexität. MCP bietet einen standardisierten Ansatz für die Tool-Integration, der einfacher zu implementieren und zu warten ist, ist jedoch nicht für die Orchestrierung mehrerer Agenten ausgelegt.

Die Wahl ist nicht binär. Wie unser Beispiel aus der Redaktion zeigt, kombinieren die anspruchsvollsten und effektivsten LLM-gestützten Systeme oft beide Ansätze: Agenten koordinieren und spezialisieren sich über A2A-Protokolle, während sie über MCP-Server auf ihre Tools und Ressourcen zugreifen. Diese Hybridarchitektur bietet die organisatorischen Vorteile von Multiagentensystemen sowie die Standardisierungs- und Ökosystemvorteile von MCP. Dies deutet darauf hin, dass möglicherweise gar keine Wahlmöglichkeit besteht: Man könnte einfach beide als Standardansatz verwenden.

Es liegt an Ihnen als Entwickler oder Architekt, die beste Mischung beider Lösungen zu testen und zu ermitteln, um das richtige Ergebnis für Ihren spezifischen Anwendungsfall zu erzielen. Das Verständnis der Stärken, Grenzen und geeigneten Anwendungsbereiche der einzelnen Ansätze ermöglicht es Ihnen, effektivere, wartungsfreundlichere und skalierbare KI-Systeme zu entwickeln.

Egal, ob Sie eine digitale Nachrichtenredaktion, eine Kundenserviceplattform, einen Forschungsassistenten oder eine andere LLM-gestützte Anwendung entwickeln – die sorgfältige Berücksichtigung Ihrer Koordinierungsbedürfnisse (A2A) und Ihrer Anforderungen an den Werkzeugzugriff (MCP) wird Sie auf den Weg zum Erfolg führen.

Weitere Ressourcen

Zugehörige Inhalte

Sind Sie bereit, hochmoderne Sucherlebnisse zu schaffen?

Eine ausreichend fortgeschrittene Suche kann nicht durch die Bemühungen einer einzelnen Person erreicht werden. Elasticsearch wird von Datenwissenschaftlern, ML-Ops-Experten, Ingenieuren und vielen anderen unterstützt, die genauso leidenschaftlich an der Suche interessiert sind wie Sie. Lasst uns in Kontakt treten und zusammenarbeiten, um das magische Sucherlebnis zu schaffen, das Ihnen die gewünschten Ergebnisse liefert.

Probieren Sie es selbst aus