Integrationen

Verbinden Sie sich nahtlos mit führenden KI- und Machine-Learning-Plattformen, um Ihre Suchfunktionen zu verbessern und leistungsstarke, intelligente Anwendungen mit Elasticsearch zu entwickeln

Alibaba Cloud

Alibaba Cloud

Alibaba Cloud (www.alibabacloud.com) wurde 2009 gegründet und ist das digitale Technologie- und Intelligenzrückgrat der Alibaba Group. Es bietet Kunden auf der ganzen Welt eine komplette Suite aus Cloud-Diensten, darunter elastisches Computing, Datenbanken, Speicher, Netzwerkvirtualisierungsdienste, umfangreiche Datenverarbeitung, Sicherheit, Big Data-Analysen, maschinelles Lernen und KI-Dienste. Laut Gartner ist Alibaba nach Umsatz in US-Dollar seit 2018 der führende IaaS-Anbieter im asiatisch-pazifischen Raum. Laut IDC hat das Unternehmen seit 2018 auch seine Position als einer der weltweit führenden Anbieter von öffentlichen Cloud-IaaS-Diensten behauptet.

Modellanbieter

Amazon Bedrock

Amazon Bedrock

Amazon Bedrock ist ein vollständig verwalteter Service, der über eine einzige API eine Auswahl leistungsstarker Basismodelle (FMs) von führenden KI-Unternehmen wie AI21 Labs, Anthropic, Cohere, Meta, Mistral AI, Stability AI und Amazon bietet, zusammen mit einer breiten Palette an Funktionen, die Sie benötigen, um generative KI-Anwendungen mit Sicherheit, Datenschutz und verantwortungsvoller KI zu erstellen.

Modellanbieter

Anthropic

Anthropic

Anthropic ist ein KI-Labor, bei dessen Forschung und Produkten die Sicherheit an erster Stelle steht. Als gemeinnütziges Unternehmen setzt sich Anthropic dafür ein, dass die Welt die transformative KI sicher bewältigt. Sein multidisziplinäres Team entwickelt zuverlässige, interpretierbare und steuerbare KI-Systeme. Das Flaggschiffprodukt von Anthropic ist Claude, eine Familie grundlegender KI-Modelle, die für Unternehmensanwendungen entwickelt wurden. Mehr über Anthropic erfahren Sie unter anthropic.com.

Modellanbieter

Cohere

Cohere

Cohere entwickelt Modelle für Anwendungsfälle wie Einbettungen und Reranking, die von Unternehmen genutzt werden, um produktionsreife, skalierbare und effiziente KI-gestützte Anwendungen zu erstellen.

Modellanbieter

Google Vertex AI

Google Vertex AI

Google Vertex AI ist eine vollständig verwaltete, einheitliche KI-Entwicklungsplattform für die Entwicklung und Nutzung generativer KI. Vertex KI bietet Zugang zu Vertex KI Studio, Agent Builder und über 150 Basismodellen, einschließlich Gemini 1.5 Pro und Gemini 1.5 Flash.

Modellanbieter

Hugging Face

Hugging Face

Open-Source-Hub für KI/ML-Modelle und -Tools. Integrieren Sie Hugging Face und Elasticsearch nahtlos anhand der Transformers-Bibliothek oder durch ein Bereitstellen verfügbarer Modelle direkt in Elasticsearch.

Modellanbieter

IBM watsonx

IBM watsonx

Die IBM® watsonx™ KI- und Datenplattform umfasst Kernkomponenten und KI-Assistenten, die entwickelt wurden, um die Wirkung von KI mithilfe vertrauenswürdiger Daten zu skalieren und zu beschleunigen. Die Plattform bietet eine Reihe von Modellen für maschinelles Lernen (ML), darunter auch Modelle für Texteinbettungen und Textvervollständigung.

Modellanbieter

Jina AI

Jina AI

Jina AI entwickelt und verteilt kompakte, hochleistungsfähige Such-Basismodelle für die mehrsprachige Text- und Bildverarbeitung.

Modellanbieter

LangChain

LangChain

Entdecken Sie die Synergie von LangChain bei Elastic und erfahren Sie, wie Sie den LangChain ElasticsearchStore nutzen, den LangChain Self-Query-Retriever verwenden, den LangChain ElasticsearchRetriever anwenden und mehr.

RAG-Entwicklungs-Frameworks

LlamaIndex

LlamaIndex

Verwenden Sie LlamaIndex mit Elastic als Datenquelle, Einbettungsmodell, Vektorspeicher, Indexspeicher, KV-Speicher oder Dokumentenspeicher.

RAG-Entwicklungs-Frameworks

Microsoft Azure AI

Microsoft Azure AI

Der Azure OpenAI-Dienst von Microsoft bietet REST-API-Zugriff auf die leistungsstarken Sprachmodelle von OpenAI, die leicht an Ihre spezifischen Aufgaben angepasst werden können. Der Modellkatalog in Azure KI Studio bietet zahllose Modelle von Modellanbietern wie Azure OpenAI Service, Mistral, Meta, Cohere, Nvidia und Hugging Face, einschließlich Modellen, die von Microsoft trainiert wurden

Modellanbieter

Mistral

Mistral

Mistral KI bietet offene, effiziente, hilfreiche und vertrauenswürdige KI-Modelle durch bahnbrechende Innovationen.

Modellanbieter

OpenAI

OpenAI

Integrieren Sie OpenAI in Elastic, indem Sie die Einbettungsmodelle von OpenAI, die Chat-Vervollständigungs-API oder andere fortgeschrittene Integrationsoptionen nutzen.

Modellanbieter

Red Hat

Red Hat

Red Hat Openshift AI ist eine flexible, skalierbare KI- und ML-Platform, die es Unternehmen ermöglicht, KI-gestützte Anwendungen in großem Maßstab über hybride Cloud-Umgebungen hinweg zu erstellen und zu skalieren.

Modellanbieter

Unstructured.io

Unstructured.io

Unstructured bietet Tools zum Einspeisen und zur Vorverarbeitung unstrukturierter Dokumente für Retrieval-Augmented Generation (RAG) und Fine-Tuning.

Unstructured bietet die folgenden Produkte an:

  • Unstrukturierte API – Der schnellste Einstieg in die Dokumenttransformation.
  • Platform – Eine vollständig codefreie Unternehmensplattform, um alle Ihre Daten RAG-fähig zu machen.
  • Open Source – Am besten für das Prototyping.

ETL und Datenvorbereitung

Vectorize.io

Vectorize.io

Verwenden Sie Vectorize, um Ihre RAG-Workflows mit Elasticsearch als Vektordatenbank zu optimieren.

ETL und Datenvorbereitung

Aryn

Aryn

Aryn ist ein KI-gestütztes System zur Dokumentenanalyse und ETL für komplexe, unstrukturierte Daten wie PDFs, HTML, Präsentationen und mehr. Es kann über 30 Dateiformate verarbeiten und Tabellen, Bilder und mehr in hoher Qualität extrahieren. Sie können Aryn verwenden, um Dokumente zu unterteilen, Metadaten zu extrahieren, Vektoreinbettungen zu erstellen und Ihre Elasticsearch-Vektor- und Keyword-Indizes mit hochwertigen Daten zu laden.

RAG-Entwicklungs-Frameworks

NVIDIA

NVIDIA

NVIDIA cuVS ist eine Open-Source-Bibliothek für GPU-beschleunigte Vektorsuche und Daten-Clustering, die schnellere Vektorsuchen und Indexerstellungen ermöglicht.

NVIDIA NIM™ bietet Container zum Selbsthosten von GPU-beschleunigten Inferenz-Microservices für vortrainierte und angepasste KI-Modelle in Clouds, Rechenzentren, RTX™ AI-PCs und Workstations. NIM-Microservices stellen branchenübliche APIs für die einfache Integration in KI-Anwendungen, Entwicklungs-Frameworks und Workflows bereit. Basierend auf voroptimierten Inferenz-Engines von NVIDIA und der Community, einschließlich NVIDIA® TensorRT™ und TensorRT-LLM, optimieren NIM-Microservices die Reaktionslatenz und den Durchsatz für jede Kombination aus Basismodell und GPU.

Modellanbieter

Sind Sie bereit, hochmoderne Sucherlebnisse zu schaffen?

Eine ausreichend fortgeschrittene Suche kann nicht durch die Bemühungen einer einzelnen Person erreicht werden. Elasticsearch wird von Datenwissenschaftlern, ML-Ops-Experten, Ingenieuren und vielen anderen unterstützt, die genauso leidenschaftlich an der Suche interessiert sind wie Sie. Lasst uns in Kontakt treten und zusammenarbeiten, um das magische Sucherlebnis zu schaffen, das Ihnen die gewünschten Ergebnisse liefert.

Probieren Sie es selbst aus