Höherer Durchsatz und geringere Latenz: Elastic Cloud Serverless auf AWS erhält einen deutlichen Leistungsschub.

Wir haben die AWS-Infrastruktur für Elasticsearch Serverless auf neuere, schnellere Hardware upgegradet. Erfahren Sie, wie dieser enorme Leistungsschub schnellere Abfragen, besseres Skalieren und niedrigere Kosten liefert.

Entlasten Sie sich von Betriebsaufgaben mit Elastic Cloud Serverless. Skalieren Sie automatisch, bewältigen Sie Lastspitzen und konzentrieren Sie sich auf die Entwicklung – starten Sie eine 14-tägige kostenlose Testversion, um es selbst zu testen!

Mithilfe dieser Anleitungen können Sie ein KI-gestütztes Sucherlebnis entwickeln oder in Geschäftssystemen und Software suchen.

Elastic Cloud Serverless ist bereits die endgültige Lösung für Entwickler:innen, die effiziente Such- und KI-Anwendungen ohne die operative Belastung der Infrastruktur entwickeln möchten. Jetzt heben wir die Performance Ihrer serverlosen Projekte auf ein ganz neues Niveau.

Wir haben ein umfassendes Infrastruktur-Upgrade für alle Elastic Cloud Serverless-Projekte abgeschlossen, die auf AWS laufen und auf neuere, schnellere Hardware migriert wurden. Diese Änderung wurde automatisch auf alle Serverless-Projekte ausgerollt. Es bietet einen höheren Durchsatz und geringere Latenz für Serverless-Projekte mit Elasticsearch, Elastic Observability und Elastic Security auf AWS.

Wichtigste Leistungsvorteile für Entwickler:innen

Die neue AWS-Hardwareinfrastruktur bildet die Grundlage für alles, was Sie mit Elastic Cloud Serverless tun, und führt zu spürbaren Vorteilen hinsichtlich der Geschwindigkeit und Reaktionsfähigkeit Ihrer Anwendungen.

Reduzierte Abfragelatenz … erhöhter Durchsatz

Die verbesserte Hardware steigert die Geschwindigkeit der Rechenressourcen erheblich, sodass Ihre Suchanfragen schneller als je zuvor verarbeitet werden.

  • Suchen und Vektorsuche: Egal, ob Sie traditionelle Volltextabfragen durchführen oder modernste Vektorsuche für Ihre generative KI- und Retrieval-Augmented-Generation (RAG)-Anwendungen verwenden – Sie werden eine deutliche Verringerung der Latenzzeit feststellen. Interne Benchmarkings zeigten einen durchschnittlichen Rückgang der Suchlatenz um 35 %.
  • Schnellere Indexierung: Die Ingestion-Raten sind optimiert, sodass Sie riesige Datenmengen und komplexe Dokumente mit erhöhtem Durchsatz indexieren können. Das ist besonders wichtig für Anwendungen, die Daten nahezu in Echtzeit anzeigen müssen. Interne Benchmarkings zeigten einen durchschnittlichen Anstieg des Indexierungsdurchsatzes um 26 %.

Konstante Leistung unter Last

Elastic Cloud Serverless ist so konzipiert, dass es sich dynamisch in Echtzeit an die Nachfrage anpasst und die Latenz minimiert, unabhängig von Ihrer Arbeitslast. Mit diesem Hardware-Upgrade ist das Skalieren nun leistungsfähiger und reaktionsschneller.

  • Problemloser Umgang mit Spitzen: Egal, ob Sie mit einem plötzlichen Anstieg des Nutzerverkehrs oder einem massiven Batch-Ingest konfrontiert sind – die neue Infrastruktur stellt sicher, dass Ihre Such- und Indexierungsressourcen effizienter skaliert werden, um eine gleichbleibend niedrige Latenz zu gewährleisten.
  • Optimierte Entkopplung von Rechenleistung und Speicher: Die Serverless-Architektur trennt Rechenleistung und Speicher, wodurch Workloads unabhängig voneinander skaliert werden können, um optimale Leistung und Kosteneffizienz zu gewährleisten. Die schnellere Hardware verbessert die Computerschicht und maximiert die Effizienz dieses entkoppelten Designs.

Hinter den Kulissen: Ergebnisse interner Benchmarks

Um die Auswirkungen unseres AWS-Infrastruktur-Upgrades zu quantifizieren, führte das Elastic-Engineering-Team ein umfassendes internes Benchmarking mit einer Reihe von Serverless-Workloads durch. Diese Workloads lieferten empirische Beweise für Leistungsverbesserungen, die Sie in Ihren Anwendungen erwarten können, unabhängig von Ihrem Anwendungsfall.

Der Benchmarking-Ansatz

Wir konzentrierten unsere Tests auf die wichtigsten Kennzahlen, die das Entwicklererlebnis und die Anwendungsreaktionsfähigkeit direkt beeinflussen: Reaktionszeit (also Latenz) und Durchsatz bei Such- und Indexierungsoperationen.

  • Getestete Arbeitslasten: Die Tests umfassten Suchvorgänge mit hoher Parallelität, wie sie typisch für benutzerorientierte Anwendungen sind, komplexe Vektorsuchanfragen sowie die Erfassung/Indexierung großer Datenmengen für Anwendungsfälle im Bereich Beobachtbarkeit und Sicherheit. Insbesondere nutzte unsere Testmethodik öffentlich verfügbare Datensätze für Rally, das Benchmarking-Tool von Elastic.
    • wikipediaEin Datensatz, der aus einem Snapshot des Wikipedia-Textinhalts abgeleitet wurde, um die allgemeine Textsuchleistung zu messen.
    • MSMARCO-Passage-RankingEin Datensatz, abgeleitet von Microsofts Machine Reading Comprehension (MS MARCO), um die Suchleistung auf spärlichen Vektorfeldern zu messen.
    • OpenAI_Vector: Ein Datensatz, der aus BEIRs NQ abgeleitet und mit Einbettungen angereichert wurde, die vom text-embedding-ada-002-Modell von OpenAI generiert wurden, um die Suchleistung auf dichten Vektorfeldern zu messen.
  • Messung: Wir verglichen die Leistung der alten und neuen Infrastruktur und maßen die Latenz im 99. Perzentil (P99), um den Worst-Case, die Tail-Latenz-Performance und die Operationen pro Sekunde zu erfassen. Jeder Track wurde für jedes Hardware-Profil fünfmal ausgeführt, um die Konsistenz der Ergebnisse zu gewährleisten.
  • Das Ziel: Unser Ziel war es, die Fähigkeit der Infrastruktur zu validieren, um eine konstant schnellere und vorhersehbarere Leistung zu liefern, selbst in Phasen schneller automatischer Skalierung.

Zusammenfassung der Leistungsdaten

Die Ergebnisse bestätigen deutliche Verbesserungen in Effizienz und Geschwindigkeit. Diese Vorteile schlagen sich direkt in kürzeren Reaktionszeiten für Ihre Benutzer:innen und niedrigeren Betriebskosten nieder, da Sie die gleiche Menge an Arbeit mit weniger Rechenressourcen erledigen können.

Die folgenden Tabellen zeigen die quantitativen Verbesserungen. Höhere Werte sind besser für den Durchsatz; niedrigere Werte sind besser für die Latenz.

Suche nach Benchmark-Ergebnissen:

BenchmarkVergleichAlte InfrastrukturNeue InfrastrukturDifferential
„Wikipedia“ (Klartext)Durchsatz der Suchvorgänge (Operationen/s)7291.107+52 %
„Wikipedia“ (Klartext)Latenz der Suchoperation (p99, ms)5635-37 %
„MSMARCO-Passage-Ranking“ (dünnbesetzte Vektoren)Durchsatz der Suchvorgänge (Operationen/s)2231+40 %
„MSMARCO-Passage-Ranking“ (dünnbesetzte Vektoren)Latenz der Suchoperation (p99, ms)10867-38 %
`OpenAI_Vector` (dichte Vektoren)Durchsatz der Suchvorgänge (Operationen/s)475624+31 %
`OpenAI_Vector` (dichte Vektoren)Latenz der Suchoperation (p99, ms)3522-37 %

Indexieren der Benchmark-Ergebnisse:

BenchmarkVergleichAlte InfrastrukturNeue InfrastrukturDifferential
„Wikipedia“ (Klartext)Durchsatz der Suchvorgänge (Operationen/s)2.8453220+13 %
„Wikipedia“ (Klartext)Latenz der Suchoperation (p99, ms)17691120-37 %
„MSMARCO-Passage-Ranking“ (dünnbesetzte Vektoren)Durchsatz der Suchvorgänge (Operationen/s)7.0878900+26 %
„MSMARCO-Passage-Ranking“ (dünnbesetzte Vektoren)Latenz der Suchoperation (p99, ms)824677-18 %
`OpenAI_Vector` (dichte Vektoren)Durchsatz der Suchvorgänge (Operationen/s)2.9723187+7 %
`OpenAI_Vector` (dichte Vektoren)Latenz der Suchoperation (p99, ms)294629440 %

Der zusätzliche Bonus: Kostenreduzierung

Unser Fokus liegt zwar auf der Bereitstellung einer Performance mit geringer Latenz, aber die Effizienz der neuen Hardware hat auch einen direkten, positiven Einfluss auf die Kosten von Elasticsearch-Projekten.

Die Preisgestaltung von Elasticsearch Serverless basiert auf der Nutzung, das heißt, Sie zahlen nur für die Ingest- und Suchressourcen, die Sie verbrauchen. Da die neuere, schnellere Hardware effizienter ist, werden Ihre Arbeitslasten oft mit weniger Ressourcen erledigt, was bei den meisten Projekten zu einer erheblichen Kostenreduzierung führt. Sie erhalten eine Premium-Leistungssteigerung ohne den Premium-Preis – die Definition von optimierter Effizienz.

Was bedeutet das für Sie als Entwickler:in?

Dieses Infrastruktur-Upgrade wird vollständig von Elastic verwaltet, sodass Sie keinen Finger rühren müssen – keine Migrationen und keine Konfigurationsänderungen. Die Verbesserung erfolgt sofort und automatisch bei all Ihren AWS-basierten Serverless-Projekten.

Dieses Upgrade ermöglicht Ihnen Folgendes:

  • Erstellen Sie schnellere Anwendungen: Konzentrieren Sie sich auf die Geschwindigkeit der Features, da Sie wissen, dass Ihre zugrundeliegende Such-Platform die Geschwindigkeit bietet, die Ihre Benutzer:innen erwarten.
  • Innovation mit Zuversicht: Stellen Sie neue Such-, Beobachtbarkeits- und Sicherheitsfeatures – einschließlich komplexer KI-Features wie Vektorsuche und Relevanzranking – mit der Gewissheit bereit, dass die Platform die Last mit maximaler Leistung bewältigen kann.
  • Vereinfachen Sie Ihren Stack: Nutzen Sie einen vollständig verwalteten Service, der Infrastrukturmanagement, Kapazitätsplanung und Skalierung übernimmt, damit Sie sich auf Ihren Code und Ihre Daten konzentrieren können.

Zugehörige Inhalte

Sind Sie bereit, hochmoderne Sucherlebnisse zu schaffen?

Eine ausreichend fortgeschrittene Suche kann nicht durch die Bemühungen einer einzelnen Person erreicht werden. Elasticsearch wird von Datenwissenschaftlern, ML-Ops-Experten, Ingenieuren und vielen anderen unterstützt, die genauso leidenschaftlich an der Suche interessiert sind wie Sie. Lasst uns in Kontakt treten und zusammenarbeiten, um das magische Sucherlebnis zu schaffen, das Ihnen die gewünschten Ergebnisse liefert.

Probieren Sie es selbst aus