Une API. Tous les types de données. Une pertinence exceptionnelle.

Elasticsearch vous permet de conjuguer la précision par mots-clés et le rappel sémantique. Vos résultats sont donc toujours pertinents, indépendamment du type de données.

Recherche hybride avec Elasticsearch : des mots-clés au contexte

Recherchez chaque type de données dans un seul datastore, et soutenez la génération augmentée de récupération (RAG) et les agents avec des résultats équilibrant la précision BM25F et la compréhension sémantique. Démarrez rapidement grâce à d’excellents réglages par défaut et à une API facile à utiliser, puis personnalisez selon vos besoins.

  • Un datastore distribué pour toutes vos données

    La recherche est l’élément clé de la base de données vectorielle la plus performante. Elasticsearch déploie aisément la recherche hybride sur des milliards de documents, assurant une pertinence inégalée, une prise en charge polyvalente des modèles et un excellent rapport coût-performance, le tout dans une seule et même plateforme. Interrogez l'ensemble via ES|QL : jointures, analyses et plus encore.

  • Simple à démarrer et puissant à personnaliser

    Bénéficiez de l'élégance et de la vitesse d'une API unique pour créer une recherche hybride qui conjugue les correspondances de termes exactes et le sens contextuel, en utilisant des filtres, des amplifications, un classement et un reclassement. Commencez vite et configurez avec un contrôle total.

  • Texte, géo ou multimodal — hybride pour chaque type de données

    Elasticsearch permet à la recherche hybride de s'adapter à la combinaison qu’il vous faut. Associez le lexique et les vecteurs, la géolocalisation et le sémantique, ou le texte et les images pour répondre à votre cas d’utilisation, et produisez des résultats d’une grande précision et pertinence.

Pourquoi les développeurs choisissent Elasticsearch

Procurez-vous les meilleurs outils pour la précision, l’explicabilité et la maîtrise. La recherche lexicale est performante pour les requêtes structurées, les termes inhabituels et les données externes. La recherche sémantique ajoute une dimension floue et de la récupération lorsque les correspondances exactes ne sont pas optimales. Contrôlez leur synergie en paramétrant la notation, les filtres et les boosts.

Recherche lexicale
Pour des requêtes exactes, structurées et explicables
Recherche vectorielle
Pour une rechercher flexible, sémantique et à rappel élevé
Recherche hybride
Pour une pertinence de niveau production issue des deux approches
Notation qui a du sens

Utilisez la notation BM25F avec un contrôle total sur la pondération des champs et l’amplification des termes — aucun modèle n’est requis.

Récupérez des résultats sémantiquement liés via les champs dense_vector ou semantic_text.

Combinez les résultats via reciprocal_rank_fusion ou <options> dans l'API rank.

Contrôle total de votre requête DSL

Optimisez la pertinence en utilisant les combined_fields, le boost, le flou (fuzziness), les synonymes et les analyseurs.

Apportez vos propres embeddings ou utilisez l’inférence intégrée avec ELSER, OpenAI, etc.

Utilisez une requête hybride unique avec filtres partagés, poids et logique de reclassement.

Des filtres qui fonctionnent tout simplement

Bénéficiez d'une prise en charge native des filtres geo, term, range et ACL — rapide et stable à grande échelle.

ACORN-1 permet un kNN filtré rapide même sur de grands ensembles de données avec prise en charge de la clause de filtre .

Le niveau de filtrage partagé opère sur les deux récupérateurs — aucun assemblage de pipeline n'est requis.
Capacités de débogage et d'inspection

Utilisez explain, profile et le champ _rank_features pour comprendre comment les documents obtiennent leur score.

Les scores vectoriels sont pleinement visibles — vous avez la possibilité d’examiner les calculs de similarité ou les contributions de pondération.
Gagnez en visibilité pour le débogage de bout en bout sur les deux parcours de recherche, y compris l'influence de chaque reclasseur.
Idéal lorsque...
Vous avez besoin de précision, de filtrage et de contrôle — pour les logs, le catalogue, les identifiants et la conformité.
Vous gérez des requêtes vagues, de nouveaux termes, des dérives sémantiques ou des formulations inconnues.
Vous voulez des résultats robustes, ajustables et explicables — même lorsque les requêtes deviennent inhabituelles.
Notation qui a du sens
Contrôle total de votre requête DSL
Des filtres qui fonctionnent tout simplement
Capacités de débogage et d'inspection
Idéal lorsque...
Recherche lexicale
Pour des requêtes exactes, structurées et explicables
Recherche vectorielle
Pour une rechercher flexible, sémantique et à rappel élevé
Recherche hybride
Pour une pertinence de niveau production issue des deux approches

Utilisez la notation BM25F avec un contrôle total sur la pondération des champs et l’amplification des termes — aucun modèle n’est requis.

Récupérez des résultats sémantiquement liés via les champs dense_vector ou semantic_text.

Combinez les résultats via reciprocal_rank_fusion ou <options> dans l'API rank.

Optimisez la pertinence en utilisant les combined_fields, le boost, le flou (fuzziness), les synonymes et les analyseurs.

Apportez vos propres embeddings ou utilisez l’inférence intégrée avec ELSER, OpenAI, etc.

Utilisez une requête hybride unique avec filtres partagés, poids et logique de reclassement.

Bénéficiez d'une prise en charge native des filtres geo, term, range et ACL — rapide et stable à grande échelle.

ACORN-1 permet un kNN filtré rapide même sur de grands ensembles de données avec prise en charge de la clause de filtre .

Le niveau de filtrage partagé opère sur les deux récupérateurs — aucun assemblage de pipeline n'est requis.

Utilisez explain, profile et le champ _rank_features pour comprendre comment les documents obtiennent leur score.

Les scores vectoriels sont pleinement visibles — vous avez la possibilité d’examiner les calculs de similarité ou les contributions de pondération.
Gagnez en visibilité pour le débogage de bout en bout sur les deux parcours de recherche, y compris l'influence de chaque reclasseur.
Vous avez besoin de précision, de filtrage et de contrôle — pour les logs, le catalogue, les identifiants et la conformité.
Vous gérez des requêtes vagues, de nouveaux termes, des dérives sémantiques ou des formulations inconnues.
Vous voulez des résultats robustes, ajustables et explicables — même lorsque les requêtes deviennent inhabituelles.

Ajustez votre parcours de pertinence

Avec Elasticsearch, vous maîtrisez la pertinence à tous les niveaux, de l’absence de configuration à la personnalisation totale. Explorez l’intégralité du parcours de réglage sur Elasticsearch Labs.

  • Commencez par rechercher lexicalement

    Utilisez BM25F : la technologie originale sans LLM.

  • Ajoutez la recherche hybride

    Pour les requêtes complexes, combinez ELSER ou E5 avec la recherche lexicale afin d’obtenir un meilleur rappel.

  • Mode expert

    Utilisez des reclasseurs, des récupérateurs et BBQ pour transférer des pipelines de récupération spécifiques au domaine.

Le meilleur de sa catégorie ? Intégré

Grâce aux intégrations natives à tous les principaux produits d'IA, vos applications vont plus loin, plus vite.

A four-column ecosystem diagram displaying the logos of leading AI and machine learning partners across Model Providers, Platform Providers, MLOps and orchestration tools, and Open Standard API clients. The visual shows Elastic connecting natively to the full AI stack to enhance search and power intelligent applications.

Questions fréquentes

Qu’est-ce que la recherche hybride ?

La recherche hybride allie la précision des mots-clés (lexicale) à la similarité des vecteurs (sémantique). L’utilisateur obtient des résultats pertinents même si la requête ne correspond pas à une expression exacte du texte.