Jina AI-Modelle

Modernste Modelle für jede Phase der Retrieval-Pipeline

Die KI-Modelle von Jina AI wurden speziell für das Retrieval entwickelt und bieten eine Genauigkeit und Geschwindigkeit, die 5-mal so große Modelle übertrifft. Mehrsprachig, multimodal und jetzt nativ auf Elasticsearch.

Lernen Sie die KI-Modelle von Jina kennen

Unsere Frontier-Modelle bilden die Suchgrundlage für hochwertige Such- und Retrieval-Augmented-Generation-(RAG)-Systeme der Unternehmensklasse.

  • Reader

    Wandeln Sie komplexe Dokumente, Webseiten und PDFs in saubere, strukturierte Eingaben für Suchen und große Sprachmodelle (LLMs) um.

  • Einbettungen

    Verbessern Sie Such- und RAG-Systeme mit multimodalen und mehrsprachigen Einbettungen für Text, Bilder und Code.

  • Reranker

    Maximieren Sie die Relevanz mit einem erstkassigen Reranker, der Präzision für kritische Anwendungen wie RAG, KI-Assistenten und Agenten liefert.

Kompaktes Design, präzise Ergebnisse

Von Rohdaten zu hochpräzisen Ergebnissen in einer API.

  • Multimodale Suche in 30 Sprachen

    Die Modelle von Jina arbeiten mit Text, Bildern und Code. Jina-vlm ermöglicht das Suchen von visuellen Inhalten neben Text und Dokumenten. 30 Sprachen werden nativ unterstützt, und die sprachübergreifende Suche funktioniert direkt ohne Anpassung.

  • Die besten Ergebnisse, nicht nur die nächstgelegenen

    Die Reranking-Modelle von Jina sind nachweislich führend. Erzielen Sie zusätzliche Präzision mit Rerankern, die jeden Kandidaten anhand der ursprünglichen Anfrage neu bewerten und dabei tiefgreifende Analysen verwenden, um die relevantesten Antworten an die Spitze zu bringen.

  • Intelligentes Training, kleinere Modelle

    Die Modelle von Jina werden für Aufgaben trainiert, die für den Abruf wichtig sind: das richtige Dokument und die beste Antwort aus unübersichtlichen Quellen zu finden. Deshalb erreichen sie die Leistung größerer Modelle oder übertreffen sie sogar – und das zu einem Bruchteil der Kosten.

  • Semantische Suche ohne Konfiguration

    Ordnen Sie beliebige Felder als semantic_text zu, und Elasticsearch generiert automatisch Einbettungen. Auf EIS bieten Jina-Modelle standardmäßig sofort einsatzbereite mehrsprachige und multimodale semantische Suche ohne jegliche Konfiguration.

  • Ein API-Aufruf, das ist alles

    Kombinieren Sie die traditionelle Schlüsselwortsuche mit Jinas semantischer Suche in einer einzigen Abfrage. Verwenden Sie einen API-Aufruf mit reziproker Rangfusion, um das Beste beider Ansätze zu vereinen.

  • Schlank in jeder Größenordnung

    Kombinieren Sie Jina-Einbettungen mit der Vektorquantisierung von Elastic (BBQ), um den Speicher mit minimalem Genauigkeitsverlust um bis zu 95 % zu reduzieren. Erhöhen Sie die Präzision auf das Maximum, wenn Genauigkeit am wichtigsten ist.

Unsere Forschung

Die Modelle von Jina basieren auf Forschung, die auf führenden Konferenzen für Machine Learning (ML), wie CVPR, NeurIPS und EMNLP, präsentiert wurde. Entdecken Sie, wie unsere Frontier-Suchmodelle in unseren neuesten Veröffentlichungen von Grund auf trainiert wurden.
  • Jina-embeddings-v5-text: Aufgabenorientierte Einbettungs-Distillation

    Wir führen ein neuartiges Trainingsverfahren ein, das Modelldestillationstechniken mit aufgabenspezifischem Kontrastverlust kombiniert, um kompakte, leistungsstarke Einbettungsmodelle zu erzeugen.

  • Einbettungsinversion mittels bedingter maskierter Diffusion-Sprachmodelle

    Wir betrachten die Einbettungsinversion als bedingte maskierte Diffusion, bei der alle Token parallel durch iteratives Denoising wiederhergestellt werden statt durch sequentielle autoregressive Generierung.

  • Einbettungskompression mittels sphärischer Koordinaten

    Wir präsentieren eine Komprimierungsmethode für Unit-Norm-Embeddings, die eine 1,5-fache Komprimierung erreicht, 25 % besser als die beste bisherige verlustfreie Methode.

Werden Sie Teil unserer Open-Source-Community

Die Modelle von Jina sind Openweight-Modelle und kostenlos auf Hugging Face erhältlich, mit Millionen monatlicher Downloads. Der Code ist öffentlich auf GitHub verfügbar. Die Community hat direkten Zugang zu unseren Entwicklern.

Häufig gestellte Fragen

Was sind Jina-Suchmodelle?

Jina-Modelle sind Open-Source-Modelle mit Frontier-KI für den Abruf. Dazu gehören Embedding-Modelle für Vektoren, Reranker für Präzision und Reader zum Extrahieren und Strukturieren von Inhalten aus URLs und Dokumenten.

Brauche ich KI- oder Machine-Learning-Expertise, um sie zu nutzen?

Nein. Verwenden Sie das Feld semantic_text von Elasticsearch, und die KI-Verarbeitung erfolgt automatisch. Die Modelle von Jina machen Ihre Inhalte semantisch durchsuchbar – keine Modellkonfiguration oder ML-Expertise erforderlich.

Wie kann ich anfangen?

Jina-Modelle sind auf Elastic Inference Service auf Elastic Cloud verfügbar und in allen Testversionen enthalten. Beginnen Sie semantic_text oder suchen Sie auf den Modellunterseiten nach Codebeispielen, API-Referenzen und Tutorials.

Welche Jina-Modelle sind heute verfügbar?

Unser neuestes v5-text (nano/small) umfasst 32K-Kontext, Matrjoschka-Dimensionen und die neueste Architektur – neben Jina-embeddings-v3 und Reranker v2 und v3 – alle verfügbar auf Elastic Inference Service.

Wie viele Sprachen werden unterstützt?

Jina-embeddings-v5-text unterstützt über 30 Sprachen – eine Abfrage in einer Sprache findet relevante Inhalte, die in einer anderen geschrieben sind, ohne dass Übersetzungs-Pipelines erforderlich sind.

Wie hängt das mit ELSER zusammen?

ELSER deckt die semantische Suche in englischer Sprache ab. Jina erweitert die Funktionalität um mehrsprachige Unterstützung für über 30 Sprachen mit führender Genauigkeit – beide arbeiten innerhalb des hybriden Frameworks von Elasticsearch.

Ist dies ein separates Produkt?

Nein. Die Jina-Suchmodelle im Elastic Inference Service stehen allen Elastic Cloud-Nutzern mit verbrauchsabhängigen Preisen zur Verfügung – keine separate Lizenz, kein Abonnement und kein API-Schlüssel erforderlich.

Wie hängt das mit der Vektordatenbank-Seite von Elastic zusammen?

Die Vektordatenbank-Seite behandelt, wie Vektoren skaliert gespeichert und gesucht werden. Diese Seite behandelt die KI-Modelle, die sie generieren und neu anordnen. Zusammen: Speicher, Rechenleistung und Anwendung.