NVIDIA cuVS es una biblioteca de código abierto para la búsqueda de vectores acelerada por GPU y la agrupación de datos que permite realizar búsquedas de vectores y construcciones de índices más rápidas.
Admite análisis de datos con escalabilidad, mejora la eficiencia de la búsqueda semántica y ayuda a los desarrolladores a acelerar los sistemas existentes o a crear nuevos desde cero.
Integrado con bibliotecas y bases de datos clave, cuVS gestiona actualizaciones complejas de código a medida que se lanzan nuevas arquitecturas de NVIDIA y versiones de NVIDIA® CUDA®, lo que asegura un máximo rendimiento y una escalabilidad fluida.
NVIDIA NIM™ proporciona contenedores para autoalojar microservicios de inferencia acelerados por GPU para modelos de IA preentrenados y personalizados en clouds, centros de datos, PCs y estaciones de trabajo con RTX™ AI. Los microservicios de NIM exponen las API estándar de la industria para una integración sencilla en aplicaciones de IA, marcos de trabajo de desarrollo y flujos de trabajo. Basados en motores de inferencia preoptimizados de NVIDIA y la comunidad, incluidos NVIDIA® TensorRT™ y TensorRT-LLM, los microservicios NIM optimizan la latencia de respuesta y el rendimiento para cada combinación de modelo base y GPU.
- La búsqueda vectorial acelerada por GPU en Elasticsearch con NVIDIA: Capítulo I
- NVIDIA NIM con base de datos vectorial de Elasticsearch
- Indexación vectorial hasta 12 veces más rápida en Elasticsearch con NVIDIA cuVS: aceleración de GPU: Capítulo 2
- Procesamiento de datos no estructurados con NVIDIA NeMo Retriever, Unstructured y Elasticsearch
Más información
- Sesión de NVIDIA GTC 2025: Lleve la búsqueda vectorial a gran escala a la GPU con Apache Lucene.