Elastic & NVIDIA: KI-Apps schneller bereitstellen, ohne die IT-Infrastruktur zu belasten

Beseitigen Sie Engpässe. Skalieren Sie klüger. Kontrollieren Sie die Kosten. Mit Elastic und NVIDIA erhalten Sie die Leistung einer GPU-beschleunigten Vektordatenbank für Hochleistungs-KI.

Entfesseln Sie die KI-Leistung mit GPU-beschleunigter Vektorsuche

Elasticsearch arbeitet mit NVIDIA zusammen, um die GPU-Leistung in Ihre Sucharchitektur zu bringen. Durch die Nutzung der cuVS-Bibliothek und des CAGRA-Algorithmus hat Elasticsearch massive Parallelität freigesetzt, um eine schnelle und extrem latenzarme Indizierung für Ihre anspruchsvollsten Retrieval Augmented Generation (RAG)-Pipelines und KI-Anwendungen zu ermöglichen.

Indexieren Sie auf GPUs für maximalen Durchsatz. Suchen Sie auf CPUs für Kosteneffizienz. Optimieren Sie sowohl Leistung als auch Preis.

Die Zahlen

  • 12x
    Steigerung des Indexierungsdurchsatzes
  • 7x
    Reduzierung der Merge-Latenz
  • 5x
    Kostenbereinigter Durchsatz im Vergleich zur reinen CPU-Nutzung

Elasticsearch-Vektordatenbank mit NVIDIA cuVS: Besser zusammen

  • Beschleunigen Sie Ihre KI-Fabrik

    Starten Sie die Hochleistungssuche und agentische KI mit vorgefertigten Blaupausen schneller. Elasticsearch ist die empfohlene Vektordatenbank für das von NVIDIA Enterprise AI Factory validierte Design und bietet ein zuverlässiges On-Prem-Framework für die Skalierung.

  • Beschleunigen Sie die Indexierungsgeschwindigkeit

    Indexieren Sie Ihre Daten in großem Maßstab ohne Engpässe. Die Integration von NVIDIA cuVS liefert einen bis zu 12-fachen Anstieg des Indexdurchsatzes und ein 7-fach schnelleres Force-Merging, sodass Sie riesige Datenmengen mit beispielloser Effizienz bewältigen können.

  • Maximieren Sie den Wert der Infrastruktur

    Verlagern Sie das rechenintensive Indexieren auf GPUs, um die CPU-Belastung zu verringern und Ressourcen zurückzugewinnen. Kostenbereinigt bietet die GPU-Beschleunigung einen 5× höheren Durchsatz und 6× schnellere Force-Merges, sodass Sie mit Ihrem vorhandenen Hardware-Budget eine überragende Leistung erzielen.

  • Verbessern Sie die Abfrageleistung

    Bewältigen Sie riesige Anfragemengen mit nahezu sofortigen Reaktionszeiten. Die NVIDIA-beschleunigte Suche von Elastic stellt sicher, dass Ihre Infrastruktur mit der nächsten Generation von GenAI skaliert und die schnelle Abfrage für komplexe agentische Workflows ermöglicht.

FÜR UNTERNEHMEN

Das Beste von Elastic und NVIDIA, optimiert für Sie

  • Offen und unternehmenstauglich

    Bauen Sie mit Zuversicht auf der Grundlage von Open-Source-Innovation auf. Die GPU-Beschleunigung wird durch die unter Apache 2.0 lizenzierte NVIDIA cuVS-Bibliothek ermöglicht und über ein unter ELv2 lizenziertes Plugin in Elasticsearch integriert, wodurch offene Flexibilität mit Support auf Unternehmensniveau kombiniert wird.

  • Unbegrenzte Indexierungsskala

    Indexieren Sie Ihre Daten in großem Maßstab ohne Engpässe. Die Integration von NVIDIA cuVS sorgt für einen 12-fachen Anstieg des Indexierungsdurchsatzes und 7-fach schnelleres Force-Merging, sodass Sie riesige Datenmengen mit beispielloser Effizienz bewältigen können.

  • Elastic-Skalierung mit Kubernetes

    Skalieren Sie Ihre Beschleunigung genauso einfach wie Ihren Cluster. Durch das Mapping von Elasticsearch-Prozessen auf einzelne GPUs per Kubernetes-Orchestrierung können große Indexierungs-Workloads auf mehrere Server verteilt werden, um maximalen parallelen Durchsatz zu erreichen.

  • Nahtlose CPU-GPU-Synergie

    Holen Sie sich das Beste aus beiden Welten. Elastic nutzt GPUs für das, was sie am besten können – Bulk-Arithmetik für die Graphenkonstruktion –, während die Suche auf der CPU bleibt. Dies stellt sicher, dass Ihre leistungsstarken HNSW-Graphen in Rekordzeit erstellt werden, aber für die Standardabrufe zugänglich bleiben.

Häufig gestellte Fragen

Ist GPU-beschleunigte Vektor-Indexierung für Elasticsearch als Open Source verfügbar?

Ja, der Code für die GPU-beschleunigte Vektor-Indexierung ist Open Source (unter einer Doppellizenz: AGPL und ELv2). Elasticsearch stellt das GPU-beschleunigte Vektor-Indexierungs-Feature über ein Plugin bereit, das unter der ELv2-Lizenz lizenziert und im Enterprise-Abonnement verfügbar ist. NVIDIA cuVS, die Bibliothek, die die GPU-Indexierungs-Features in Elasticsearch ermöglicht, ist ebenfalls als Open Source unter der Apache-2.0-Lizenz verfügbar.

Was soll ich tun, wenn ich auf Probleme stoße oder Vorschläge habe?

Falls es Probleme gibt, probieren Sie unsere Fehlerbehebungsanweisungen. Wenn Ihr Problem weiterhin besteht, erstellen Sie ein Problem auf Elasticsearch GitHub, falls es ein spezifisches Elasticsearch-Problem ist. Wenn das Problem NVIDIA cuVS und seine Abhängigkeiten betrifft, eröffnen Sie ein Problem auf dem NVIDIA cuVS GitHub. Wenn Sie ein Enterprise-Abonnement haben, kontaktieren Sie uns über die Elastic-Kundensupport-Kanäle, um eine Lösung zu erhalten. Nutzen Sie dieselben Kanäle für Vorschläge und Feature-Anfragen.

Wie installiere ich NVIDIA cuVS auf einem Elasticsearch-Daten-Node, um die GPU-Vektor-Indexierung zu ermöglichen?

Sie können NVIDIA cuVS als vorkompiliertes Paket über Tarball von NVIDIA-Kanälen für Datenbanknutzer oder über pip- oder conda-Paketmanager für Data-Science-Nutzer installieren. Sie können cuVS auch aus dem Quellcode erstellen und das Binärpaket selbst pflegen. Weitere Informationen finden Sie auf der NVIDIA cuVS-Installationsseite. Für Nutzer mit einem NVIDIA KI Enterprise (NVAIE)-Abonnement mit Ihren GPUs wird ein CVE-Fix-unterstützter cuVS-Tarball mit Supportgarantien für CVEs in einigen Monaten über den NGC-Katalog verfügbar sein. Wenden Sie sich für weitere Informationen an das NVAIE-Supportteam oder Ihren NVIDIA-Vertriebsmitarbeiter.

Kann die Vektorindizierung über mehrere GPUs auf einem oder mehreren Servern skaliert werden?

Ja, Sie können ein Container-Orchestrierungssystem wie Kubernetes verwenden, um jeden Elasticsearch-Prozess einer verfügbaren GPU zuzuordnen. Jeder Elasticsearch-Prozess sollte exklusiv eine einzelne GPU nutzen. Dadurch entspricht die Skalierung auf mehrere GPUs der Skalierung von Knoten im Cluster.

Ist die Größe des Vektorindex durch den verfügbaren GPU-Speicher begrenzt?

Wir unterstützen den Aufbau von Indizes, die größer sind als der GPU-Speicher (auch bekannt als Out-of-Core), indem wir sie in Batches erstellen. Insgesamt bringt die GPU-Indexierung keine zusätzlichen Einschränkungen mit sich, die über die bereits vorhandenen CPU-basierten Indexierungen hinausgehen.

Ist GPU-Beschleunigung für die Vektorsuche verfügbar?

Nein, nur die Konstruktion des HNSW-Indexes ist heute GPU-beschleunigt. Der resultierende HNSW-Graph wird dann in den Host-(CPU-)Speicher geladen, und der Vektorabruf läuft auf der CPU. Die Begründung für diese Entscheidung ist der enorme Vorteil, den GPUs bei Massenvektoroperationen haben. Eine weitere Ausweitung der GPU-Nutzung wird in Betracht gezogen, wenn sich die Technologie und die Anwendungsfälle weiterentwickeln.

Wie bewerte ich die Leistung und die Kostenvorteile der GPU-Vektorindexierung?

Sie können das Rally-Tool von Elastic verwenden, um die Auswirkungen von GPUs auf den Indexdurchsatz, die Merge-Latenz sowie die Genauigkeit und Latenz/Durchsatz der Vektorsuche zu bewerten. Sehen Sie sich Anweisungen und Best Practices an, um E2e-Vektor-Indexierungs-Benchmarking auf GPUs über Rally auszuführen.

Welche Element- und Indextypen werden unterstützt?

Elasticsearch unterstützt mehrere verschiedene Indexierparameter. Sowohl der hnsw- als auch der int8_hnsw-Wert werden für den Parameter index_options.type unterstützt. Für den element_type wird nur float unterstützt. Derzeit werden keine weiteren Index- und Elementtypen unterstützt.