logo

KI-gestützte Suche für Ihre Anwendungen

Die Elasticsearch Relevance Engine™ (ESRE) wurde speziell für KI-gestützte Suchanwendungen entwickelt. Mit ESRE können Sie semantische Suchfunktionen mit überragender Relevanz sofort (ohne fachspezifische Anpassung) einsetzen, eigene LLMs (Large Language Models) integrieren, hybride Sucherlebnisse implementieren und externe oder eigene Transformationsmodelle nutzen.

Video thumbnail
Sehen Sie sich an, wie einfach sich die Elasticsearch Relevance Engine einrichten lässt.
„Quick Start“-Video ansehen
Nutzen Sie ESRE, um komplexe RAG-basierte Anwendungen zu erstellen.
Für Schulung registrieren
Nutzen Sie beim Einsatz von GKI-Modellen private, interne Daten als Kontext, um Nutzer:innen aktuelle und zuverlässige Antworten auf ihre Fragen zu geben.
Video ansehen

KI für alle Entwickler:innen

Bessere Suche mit KI

Versehen Sie Ihre Anwendung mithilfe von ESRE mit erweiterten KI-Relevanzfunktionen – ganz ohne Vorkenntnisse. ESRE bietet sowohl für Anfänger als auch für alte KI-Hasen eine Vielzahl nützlicher Funktionen. Mit den Funktionen in ESRE können Sie ganz nach Gusto und mit großer Flexibilität Suchanwendungen bereitstellen, die Machine Learning und generative KI nutzen.

  • Die semantische Suche ist Neuland für Sie?

    Anwendungen mit Funktionen für die semantische Suche zu versehen sollte nicht entsprechend qualifizierten Expert:innen vorbehalten bleiben. Mit dem „Elastic Learned Sparse Encoder“-Modell erhalten Sie out of the box Funktionen für die semantische Suche, die zum Besten gehören, was es auf diesem Gebiet gibt. Die einfache Bereitstellung ermöglicht es Ihnen, schnell Funktionen für die semantische Suche bereitzustellen, ohne langwierige Schulungen absolvieren zu müssen, und ein Machine-Learning-Modell zu pflegen.

  • Kennen Sie sich mit Einbettungen und Suchvektoren aus?

    Wandeln Sie unstrukturierte Daten in Vektoreinbettungen um und durchsuchen Sie sie mithilfe der ANN-Suche (Approximate Nearest Neighbor, geschätzter nächster Nachbar) effizient. Kombinieren Sie Ihre eigenen fachspezifischen Daten in Kontextfenstern, um die Relevanz der menschlichen Antworten ähnelnden Ausgaben von LLMs zu verbessern.

  • Eigene Transformationsmodelle integrieren

    Mit der Eland Python-Bibliothek können Sie eigene trainierte Machine-Learning-Modelle integrieren oder ein externes Modell aus einem öffentlichen Repository wie HuggingFace nutzen. Wählen Sie aus einer Vielzahl unterstützter Architekturen eine passende Lösung aus.

Elasticsearch Relevance Engine

Elasticsearch – All-in-one-Kraftwerk für die Vektorsuche

Erstellen Sie Einbettungen. Speichern, durchsuchen und verwalten Sie Vektoren. Erstellen Sie semantische Suchanwendungen mit dem Learned Sparse Encoder Machine-Learning-Modell von Elastic. Ingestieren Sie Datentypen jeder Art. Sorgen Sie für die Unterstützung dynamischer LLMs.

  • Hybrides Ranking mit RRF

    RRF (Reciprocal Rank Fusion) ist eine Methode, um Dokument-Rankings aus verschiedenen Abrufsystemen miteinander zu kombinieren. In nicht allzu langer Zeit wird RRF in der Lage sein, Ergebnisse aus spärlichen Vektormodellen wie BM25 und dem Elastic-Abrufmodell zu einer beispiellosen Zero-Shot-Ranking-Methode zu kombinieren. Mit dem hybriden Ranking mit RRF können Sie Suchergebnisse aus unterschiedlichen Abrufmodulen mit weniger Aufwand optimieren.

  • Elastic Learned Sparse Encoder

    Unser neues Modell bietet out of the box und ganz ohne fachspezifische Anpassung hochrelevante semantische Sucherlebnisse. Diese Lösung ist beim Konfigurieren Ihrer Suchanwendung mit einem Klick verfügbar. Der Elastic Learned Sparse Encoder ergänzt Abfragen mit verwandten Schlüsselwörtern und Relevanzbewertungen, damit sie einfacher interpretiert und sofort eingesetzt werden können.

  • Retrieval Augmented Generation (RAG)

    Füttern Sie Ihre LLMs nicht nur mit öffentlichen Trainingsdaten, sondern trainieren Sie sie auch mit unternehmensspezifischen privaten Daten. Nutzen Sie Elasticsearch für hochrelevante Kontextfenster, die auf Ihre proprietären Daten zurückgreifen, um LLM-Ausgaben und -Relevanz zu verbessern. Verwenden Sie generative KI mit APIs und Plugins und integrieren Sie das LLM Ihrer Wahl.

  • Vektordatenbank

    Profitieren Sie von einem umfassenden Vektorsucherlebnis in großem Stil – speichern und durchsuchen Sie Einbettungen nicht nur, sondern erstellen Sie eigene! Erfassen Sie mit Einbettungen für dichte Abrufmethoden die Bedeutung und den Kontext von unstrukturierten Daten, inklusive Text und Bilder. Sichern Sie Ihre Einbettungen auf Dokumentenebene ab, damit Ihre Daten nicht in die falschen Hände gelangen.

  • Eigene Transformationsmodelle integrieren

    Integrieren Sie Ihr eigenes proprietäres Transformationsmodell in Elastic. Oder laden Sie vorab trainierte Modelle aus externen Repositorys wie dem HuggingFace-Modell-Hub hoch, das eine Vielzahl von Architekturen unterstützt, wie etwa BERT, BART oder ELECTRA.

  • Datenintegrationen und Ingestionsbibliotheken

    Datenindexierung mit vertrauten Tools wie Elastic Agent oder Logstash Eine ständig wachsende Liste an Integrationen (z. B. Confluence, S3 oder Google Drive) Native Datenbank-Connectors (z. B. MySQL oder MongoDB) Ein Web-Crawler für Online-Quellen Kibana-APIs oder mit vertrauten Frameworks selbst erstellte Connectors für benutzerdefinierte App-Daten

Chris Brown, Chief Product Officer, Relativity

„Ich bin begeistert von den Vorteilen, die wir unseren Kunden dank unseren Investitionen in die Nutzung von Elasticsearch in RelativityOne bieten können. Wir sind gerade dabei, mit der ESRE zu experimentieren, und sehen ein großes Potenzial für die Bereitstellung nützlicher, KI-augmentierter Suchergebnisse für unsere Kunden.“

Chris BrownChief Product Officer, Relativity

Häufig gestellte Fragen

Was ist die Elasticsearch Relevance Engine?

Die Elasticsearch Relevance Engine enthält verschiedene Funktionen, mit denen Entwickler:innen KI-Suchanwendungen erstellen können, wie etwa:

  • Branchenführende erweiterte Relevanz-Ranking-Funktionen, inklusive herkömmliche Schlüsselwortsuche mit BM25 als Basis für eine relevante Hybridsuche in allen Fachgebieten
  • Umfassende Vektordatenbankfunktionen mit Speicherung und Abruf von Vektoren sowie der Fähigkeit, Einbettungen zu erstellen
  • Elastic Learned Sparse Encoder, unser neues Machine-Learning-Modell für semantische Suchanwendungen für eine Reihe von Fachgebieten Hybrides Ranking (RRF) zur Kombination von vektor- und textgebundenen Suchfunktionen für optimale Suchrelevanz in einer Vielzahl von Fachgebieten
  • Unterstützung für die Integration externer Transformationsmodelle wie etwa OpenAI GPT‑3 und OpenAI GPT‑4 über deren APIs
  • Eine komplette Suite aus Dateningestions-Tools wie etwa Datenbank-Connectoren, Datenintegrationen von Drittanbietern, Web-Crawler und APIs zur Erstellung benutzerdefinierter Connectoren
  • Entwicklungstools zur Erstellung von Suchanwendungen für alle Arten von Daten: Text, Bilder, Zeitreihen, Geodaten, Multimedia und vieles mehr