NVIDIA cuVS est une bibliothèque open source pour la recherche vectorielle accélérée par GPU et le clustering de données qui permet des recherches vectorielles et des créations d'index plus rapides.
La plateforme prend en charge l’analyse de données évolutive, améliore l’efficacité de la recherche sémantique et aide les développeurs à accélérer les systèmes existants ou à en créer de nouveaux de A à Z.
cuVS est intégré aux principales bibliothèques et bases de données. Il gère donc les mises à jour de code complexes à mesure que de nouvelles architectures NVIDIA et versions de NVIDIA® CUDA® sont lancées, ce qui assure des performances optimales et une évolutivité fluide.
NVIDIA NIM™ met à disposition des conteneurs pour héberger en local des microservices d’inférence accélérés par GPU pour les modèles d’IA pré-entraînés et personnalisés, compatibles avec les clouds, les centres de données, les PC IA RTX™ et les stations de travail. Les microservices NIM offrent des API standard pour une intégration facile dans les applications d’IA, les frameworks de développement et les workflows. Les microservices NIM sont construits sur des moteurs d’inférence pré-optimisés de NVIDIA et de la communauté, notamment NVIDIA® TensorRT™ et TensorRT-LLM. Ils optimisent ainsi le temps de latence des réponses et le débit pour chaque combinaison de modèle de base et de GPU.
- Découvrez la recherche vectorielle accélérée par GPU dans Elasticsearch avec NVIDIA
- Base de données vectorielle Elasticsearch avec NVIDIA NIM
En savoir plus
- Session NVIDIA GTC 2025 : Transférer la recherche vectorielle à grande échelle vers le GPU avec Apache Lucene.