Elastic und Red Hat: Die eigene KI-Fabrik mit GPU-Beschleunigung von NVIDIA skalieren
Versorgen Sie Ihre souveräne KI-Fabrik mit Elastic, beschleunigt mit der Geschwindigkeit von NVIDIA-GPUs auf cuVS und die Flexibilität von Red Hat AI, um unternehmensweite RAG- und agentenbasierte KI-Workflows in jeder Umgebung zu ermöglichen.
.png)
Zusammenfassung
- Die Elastic Vektor-Indexierung mit NVIDIA cuVS ist jetzt mit OpenShift auf der Red Hat AI-Plattform verfügbar.
- Elasticsearch und Red Hat AI, integriert mit NVIDIA, bieten Unternehmen eine umfassende Plattform , die mit nativen Kubernetes-Workloads kompatibel ist.
- Zusammen ermöglichen GPU-beschleunigte Suche und Hochleistungsrechenleistung sichere und skalierbare RAG-Deployments in hybriden Cloud-Umgebungen.
Während generative KI-Lösungen die Pilotphase allmählich verlassen, beginnen Unternehmen, die KI-Fabrik als eine standardisierte, wiederholbare Infrastruktur zum Ausführen von KI-Workloads in großem Maßstab in Erwägung zu ziehen. Eine produktionsbereite KI-Fabrik umfasst leistungsstarke Modelle, Echtzeit-Wissensabruf für den Kontext, agentenbasierte Argumentation und Schutzmaßnahmen, die proprietäre Daten schützen.
Unternehmen benötigen diese KI-Lösungen überall dort, wo ihr Unternehmen tätig ist: On-Prem, in der Cloud oder in einer hybriden Umgebung.
Gemeinsam machen Elastic und Red Hat das möglich. Die GPU-beschleunigte Vektorsuche von Elastic mit NVIDIA cuVS steht jetzt mit OpenShift auf der KI-Plattform von Red Hat zur Verfügung. Diese Zusammenarbeit stattet Unternehmen mit einer produktionsbereiten Grundlage aus, um skalierbare Suche, Retrieval Augmented Generation (RAG) und intelligente KI-Agenten in ihren jeweils eigenen Umgebungen bereitzustellen.
Warum die Indexierungsgeschwindigkeit von RAG bis zur agentischen KI wichtig ist
Erfolgreiche KI-Deployments in Unternehmen gewinnen Kontext aus Petabytes von unstrukturierten, unternehmenseigenen Daten. Kernstück dieser RAG-Pipelines ist die Vektorsuche. Mit zunehmendem Datenvolumen wird der Aufbau dieser Vektorindizes jedoch oft zu einem Engpass, der die Deployments verzögert und hohe Gemeinkosten verursacht.
Durch die Integration mit NVIDIA cuVS für GPU-beschleunigtes Indexieren entlastet Elastic die rechenintensiven Aufgaben während der Ingestion. Die Ergebnisse sind bemerkenswert:
Bis zu 12-mal schnellere Indexierungsgeschwindigkeiten
Bis zu 7-mal schnelleres Force-Merging
Geringere CPU-Auslastung
Als empfohlene Vektordatenbank des validierten Designs der NVIDIA Enterprise AI Factory steuert Elastic die Engine für autonome Agenten, um mit den relevantesten Daten effektiv argumentieren und handeln zu können. Beschleunigtes Indexieren bedeutet, dass Ihre Agenten Entscheidungen auf Basis Ihrer Echtzeit-Unternehmensdaten in großem Maßstab treffen.
Red Hat AI ist die richtige Plattform für die GPU-Beschleunigung von Elastic
Red Hat AI bietet die Kubernetes-native Grundlage, die Unternehmen benötigen, um KI-Workloads von den Datenabruf-Pipelines für das Modelltraining bis zur Inferenz zu operationalisieren. Elastic mit NVIDIA-Beschleunigung in Kombination mit dem Red Hat AI-Stack schließt eine entscheidende Lücke für Kunden, denen eine eigene KI wichtig ist.
Durch den Einsatz von Elastic Agent Builder und Elastic Workflows können Entwickler nun autonome Agenten in ihrer Red Hat-KI auf OpenShift AI erstellen. Diese Agenten rufen Informationen ab und lösen in Ihrer Hybrid-Cloud operative Workflows aus, während Ihre Daten und Modelle in Ihrer Umgebung bleiben.
„Red Hat OpenShift bietet Unternehmen die wesentliche Kubernetes-native Grundlage zum Operationalisieren und Skalieren von KI-Workloads in jeder beliebigen hybriden Cloud-Umgebung“, so Katie Giglio, Senior Director, Ecosystem Development, Red Hat. „Indem wir eine GPU-beschleunigte Suche von Elastic auf Red Hat OpenShift und Red Hat AI mit der Geschwindigkeit von NVIDIA ermöglichen, stellen wir gemeinsam eine produktionsbereite, offene Plattform zur Verfügung, die es Kunden ermöglicht, sichere, hochleistungsfähige RAG und autonome KI-Agenten aufzubauen und dabei die vollständige Kontrolle über ihre Datenhoheit zu behalten.“
Bereitstellung überall mit den Daten im eigenen Haus
Die Zusammenarbeit zwischen Elastic und Red Hat mit NVIDIA gibt Organisationen, die strengen Vorschriften zur Datensouveränität unterliegen, die Flexibilität, ihre Daten unabhängig von deren Speicherort zu verwalten.
Red Hat AI bietet die Grundlage zum Hosten und Absichern von Modellen.
Elastic stellt die Kontextebene und das Agenten-Framework bereit.
Die KI-Infrastruktur von NVIDIA sorgt für die Leistungsbeschleunigung.
Gemeinsame Kunden können KI-Systeme mit agentischen Fähigkeiten nahtlos bereitstellen und operationalisierte AgentOps-Praktiken anwenden
Elastic mit Red Hat AI stellt sicher, dass proprietäre Geschäftsdaten und Modelle in der Umgebung Ihrer Wahl bereitgestellt werden: Ihrem eigenen Rechenzentrum, Ihren Cloud-Regionen oder einer hybriden Architektur.
Elastic und Red Hat KI in Aktion
Stellen Sie sich ein Finanzinstitut vor, das sich mit der regulatorischen Komplexität und den Infrastrukturkosten für den Einsatz eines kundenorientierten KI-Assistenten auseinandersetzen muss. Um effektiv zu sein, muss dieser KI-Assistent als Agent ausgeführt werden, der in der Lage ist, Kundenkontoinformationen zu überprüfen und verdächtige Aktivitäten in Echtzeit zu melden.
Mit der GPU-beschleunigten Suche von Elastic auf der Red Hat AI-Plattform kann dieses Finanzinstitut nun:
neue relevante Daten bis zu 12-mal schneller indexieren, sobald Kundeneinträge aktualisiert werden
- autonome Agenten ausführen, die Millionen von Vektoren durchsuchen, um relevanten Kontext abzurufen und in Echtzeit Maßnahmen zu ergreifen
- die gesamte KI-Pipeline innerhalb einer einzigen verwalteten Plattform bereitstellen und skalieren
- die volle Kontrolle über die Datensouveränität behalten und geschützt bleiben
Erste Schritte mit Elastic auf Red Hat AI
Elasticsearch mit GPU-Beschleunigung ist heute auf der Red Hat AI-Plattform verfügbar. Egal, ob Sie die erste RAG-Anwendung entwickeln oder eine KI-Fabrik im globalen Maßstab bereitstellen – die Kombination aus Elastic, Red Hat und NVIDIA liefert die Leistung und Flexibilität, die für moderne KI-Lösungen auf Open-Source-Basis erforderlich sind.
Die Entscheidung über die Veröffentlichung der in diesem Blogeintrag beschriebenen Leistungsmerkmale und Features sowie deren Zeitpunkt liegt allein bei Elastic. Es ist möglich, dass noch nicht verfügbare Leistungsmerkmale oder Features nicht rechtzeitig oder überhaupt nicht veröffentlicht werden.
In diesem Blogpost haben wir möglicherweise generative KI-Tools von Drittanbietern verwendet oder darauf Bezug genommen, die von ihren jeweiligen Eigentümern betrieben werden. Elastic hat keine Kontrolle über die Drittanbieter-Tools und übernimmt keine Verantwortung oder Haftung für ihre Inhalte, ihren Betrieb oder ihre Anwendung sowie für etwaige Verluste oder Schäden, die sich aus Ihrer Anwendung solcher Tools ergeben. Gehen Sie vorsichtig vor, wenn Sie KI-Tools mit personenbezogenen, sensiblen oder vertraulichen Daten verwenden. Alle von Ihnen eingegebenen Daten können für das Training von KI oder andere Zwecke verwendet werden. Es gibt keine Garantie dafür, dass von Ihnen bereitgestellte Informationen sicher oder vertraulich behandelt werden. Setzen Sie sich vor Gebrauch mit den Datenschutzpraktiken und den Nutzungsbedingungen generativer KI-Tools auseinander.
Elastic, Elasticsearch und zugehörige Marken sind Marken, Logos oder eingetragene Marken von Elasticsearch N.V. in den Vereinigten Staaten und anderen Ländern. Alle anderen Unternehmens- und Produktnamen sind Marken, Logos oder eingetragene Marken ihrer jeweiligen Eigentümer.