Elastic et NVIDIA vous aident à déployer des applications d'IA plus rapidement sans surcharger votre infrastructure IT

Supprimez les goulots d'étranglement. Scalez plus intelligemment. Contrôlez les coûts. Avec Elastic et NVIDIA, vous bénéficiez de la puissance d'une base vectorielle accélérée par GPU pour une IA haute performance.

Libérez la puissance de l'IA grâce à la recherche vectorielle accélérée par GPU

Elasticsearch s'associe à NVIDIA pour intégrer la puissance des GPU à votre pile de recherche. Grâce à la bibliothèque cuVS et à l'algorithme CAGRA, Elasticsearch exploite un parallélisme massif pour offrir une indexation rapide et à très faible latence, idéale pour vos pipelines de génération augmentée par récupération (RAG) et vos applications d'IA les plus exigeantes.

Adoptez l'indexation et la recherche sur GPU pour un débit et une rentabilité optimale. Optimisez à la fois les performances et les coûts.

En chiffres

  • 12x
    Augmentation du débit d'indexation
  • 7x
    Réduction de la latence de fusion
  • 5x
    Débit ajusté en fonction des coûts par rapport à l'utilisation du processeur seul

Base vectorielle Elasticsearch avec NVIDIA cuVS : l'union fait la force

  • Accélérez votre usine d'IA

    Déployez rapidement des solutions de recherche haute performance et d'IA agentique grâce à des blueprints préconçus. Elasticsearch est la base vectorielle recommandée pour la conception validée NVIDIA Enterprise AI Factory, offrant un framework sur site fiable et évolutif.

  • Boostez la vitesse d'indexation

    Indexez vos données à grande échelle sans goulots d'étranglement. L'intégration de NVIDIA cuVS offre un débit d'indexation jusqu'à 12 fois supérieur et une fusion forcée 7 fois plus rapide, vous permettant de traiter des volumes de données massifs avec une efficacité sans précédent.

  • Maximiser la valeur des infrastructures

    Déchargez les calculs d'indexation complexes vers les GPU afin de réduire la charge processeur et libérer des ressources. Ajustée en fonction des coûts, l'accélération GPU offre un débit 5 fois supérieur et des fusions forcées 6 fois plus rapides, vous garantissant des performances optimales avec votre budget matériel actuel.

  • Améliorez les performances des requêtes

    Traitez d'énormes volumes de requêtes avec des temps de réponse quasi instantanés. La recherche accélérée par NVIDIA d'Elastic garantit que votre infrastructure évolue avec la prochaine génération d'IA générative, offrant la vitesse de récupération nécessaire aux workflows agentiques complexes.

Pour les entreprises

Le meilleur d’Elastic et de NVIDIA, optimisé pour vous

  • Ouvert et prêt pour l'entreprise

    Développez en toute confiance sur une base d'innovation open source. L'accélération GPU est assurée par la bibliothèque NVIDIA cuVS sous licence Apache 2.0 et intégrée à Elasticsearch via un plug-in sous licence ELv2, combinant flexibilité et support de niveau entreprise.

  • Échelle d'indexation illimitée

    Indexez vos données à grande échelle sans goulets d'étranglement. L'intégration de NVIDIA cuVS offre un rendement d'indexation 12 fois supérieur et une fusion de forces 7 fois plus rapide, vous permettant de gérer d'énormes volumes de données avec une efficacité sans précédent.

  • Scaling d'Elastic avec Kubernetes

    Scalez votre accélération aussi facilement que vous scalez votre cluster. En associant les processus Elasticsearch à des GPU individuels via l'orchestration Kubernetes, vous pouvez répartir de grandes charges de travail d'indexation sur plusieurs serveurs pour un débit parallèle maximal.

  • Synergie CPU-GPU transparente

    Profitez du meilleur des deux mondes. Elastic utilise les GPU pour ce qu'ils font de mieux : l'arithmétique en masse pour la construction de graphes, tout en maintenant la recherche sur le processeur. Cela garantit que vos graphes HNSW haute performance sont créés en un temps record, tout en restant accessibles pour une récupération standard.

Questions fréquentes

L'indexation vectorielle accélérée par GPU pour Elasticsearch est-elle disponible en open source ?

Oui, le code implémentant l'indexation vectorielle accélérée par GPU est open source (sous une double licence : AGPL et ELv2). Elasticsearch expose cette fonctionnalité via un plugin sous licence ELv2, disponible avec l'abonnement Entreprise. La bibliothèque NVIDIA cuVS, qui gère l'indexation sur GPU dans Elasticsearch, est également disponible en open source sous licence Apache 2.0.

Que dois-je faire si je rencontre des problèmes ou si j'ai des suggestions ?

En cas de problème, suivez nos instructions de dépannage. Si le problème persiste, créez un ticket d'assistance sur le GitHub d'Elasticsearch s'il s'agit d'un problème spécifique à Elasticsearch. Si le problème concerne NVIDIA cuVS et ses dépendances, créez un ticket sur le GitHub de NVIDIA cuVS. Si vous disposez d'un abonnement Entreprise, contactez-nous via les canaux de support technique client d'Elastic pour obtenir de l'aide. Utilisez ces mêmes canaux pour vos suggestions et demandes de fonctionnalités.

Comment installer NVIDIA cuVS sur un nœud de données Elasticsearch pour activer l'indexation vectorielle avec GPU ?

Vous pouvez installer NVIDIA cuVS en tant que package précompilé via l'archive tar disponible sur les canaux NVIDIA pour les utilisateurs de bases de données ou via les gestionnaires de packages pip ou conda pour les utilisateurs de science des données. Vous pouvez également compiler cuVS à partir des sources et gérer vous-même le binaire. Pour plus d'informations, consultez la page d'installation de NVIDIA cuVS. Pour les utilisateurs disposant d'un abonnement NVIDIA AI Enterprise (NVAIE) avec leurs GPU, une archive cuVS prenant en charge les correctifs CVE et accompagnée de garanties de support pour les CVE sera disponible dans quelques mois via le catalogue NGC. Contactez l'équipe de support NVAIE ou votre représentant commercial NVIDIA pour plus d'informations.

L'indexation vectorielle peut-elle scaler sur plusieurs GPU répartis sur un ou plusieurs serveurs ?

Oui, vous pouvez utiliser un système d'orchestration de conteneurs comme Kubernetes pour associer chaque processus Elasticsearch à un GPU disponible. Chaque processus Elasticsearch doit avoir l'usage exclusif d'un seul GPU. Le scaling pour utiliser plusieurs GPU se résume donc à scaler les nœuds dans le cluster.

La taille de l'index vectoriel est-elle limitée par la mémoire GPU disponible ?

Nous prenons en charge la création d'index plus volumineux que la mémoire GPU (également appelés index hors-cœur) en les générant par lots. Globalement, l'indexation GPU n'introduit aucune limitation supplémentaire par rapport à l'indexation sur processeur.

L'accélération GPU est-elle disponible pour la recherche vectorielle ?

Non, seule la construction de l'index HNSW est actuellement accélérée par GPU. Le graphe HNSW qui en résulte est ensuite chargé dans la mémoire de l'hôte (processeur), et la recherche vectorielle s'effectue sur le processeur. Ce choix se justifie par l'immense avantage des GPU pour les opérations vectorielles en masse. L'extension future de l'utilisation des GPU sera envisagée en fonction de l'évolution de la technologie et des cas d'utilisation.

Comment évaluer les performances et les avantages en termes de coûts de l'indexation vectorielle sur GPU ?

Vous pouvez utiliser l'outil Rally d'Elastic pour évaluer l'impact des GPU sur le débit d'indexation, la latence de fusion forcée, ainsi que la précision et la latence/le débit de recherche vectorielle. Consultez les instructions et les bonnes pratiques pour effectuer un benchmarking d'indexation vectorielle E2E sur des GPU via Rally.

Quels types d’éléments et d’index sont pris en charge ?

Elasticsearch prend en charge plusieurs paramètres d'indexation différents. Les valeurs hnsw et int8_hnsw sont toutes deux prises en charge pour le paramètre index_options.type. Pour le paramètre element_type, seule les valeurs float sont acceptées. Pour l'instant, aucun autre type d'index ou d'élément n'est pris en charge.