Banco de dados vetorial

3 de dezembro de 2025

Indexação Vetorial Até 12x Mais Rápida no Elasticsearch com NVIDIA cuVS: Aceleração por GPU - Capítulo 2

Descubra como o Elasticsearch alcança uma taxa de indexação quase 12x maior com indexação vetorial acelerada por GPU e NVIDIA cuVS.

Indexação Vetorial Até 12x Mais Rápida no Elasticsearch com NVIDIA cuVS: Aceleração por GPU - Capítulo 2
Busca multimodal de picos de montanhas com Elasticsearch e SigLIP-2

Busca multimodal de picos de montanhas com Elasticsearch e SigLIP-2

Aprenda como implementar buscas multimodais de texto para imagem e de imagem para imagem usando embeddings SigLIP-2 e busca vetorial kNN do Elasticsearch. Objetivo do projeto: encontrar fotos do pico do Monte Ama Dablam tiradas durante uma trilha no Everest.

Melhorando a relevância de modelos de incorporação multilíngues com reclassificação de busca híbrida.

Melhorando a relevância de modelos de incorporação multilíngues com reclassificação de busca híbrida.

Aprenda como melhorar a relevância dos resultados de busca do modelo de incorporação multilíngue E5 usando o reranker do Cohere e a busca híbrida no Elasticsearch.

Implantação de um modelo de incorporação multilíngue no Elasticsearch

Implantação de um modelo de incorporação multilíngue no Elasticsearch

Aprenda como implantar um modelo de incorporação multilíngue e5 para busca vetorial e recuperação multilíngue no Elasticsearch.

Filtragem de pesquisa vetorial: Mantenha a relevância

3 de setembro de 2025

Filtragem de pesquisa vetorial: Mantenha a relevância

Realizar uma busca vetorial para encontrar os resultados mais semelhantes a uma consulta não é suficiente. Muitas vezes, é necessário usar filtros para refinar os resultados da pesquisa. Este artigo explica como funciona a filtragem para busca vetorial no Elasticsearch e no Apache Lucene.

Mapeamento de embeddings para tipos de campo do Elasticsearch: semantic_text, dense_vector, sparse_vector

Mapeamento de embeddings para tipos de campo do Elasticsearch: semantic_text, dense_vector, sparse_vector

Discutindo como e quando usar semantic_text, dense_vector ou sparse_vector, e como eles se relacionam com a geração de embeddings.

Como implementar a Quantização Binária Aprimorada (BBQ) em seu caso de uso.

Como implementar a Quantização Binária Aprimorada (BBQ) em seu caso de uso.

Descubra por que você implementaria a Quantização Binária Aprimorada (BBQ) em seu caso de uso e como fazê-lo.

Elasticsearch BBQ vs. OpenSearch FAISS: Comparação de desempenho de pesquisa vetorial

15 de abril de 2025

Elasticsearch BBQ vs. OpenSearch FAISS: Comparação de desempenho de pesquisa vetorial

Uma comparação de desempenho entre o Elasticsearch BBQ e o OpenSearch FAISS.

Banco de dados vetorial Elasticsearch para aterramento nativo na plataforma Vertex AI do Google Cloud

9 de abril de 2025

Banco de dados vetorial Elasticsearch para aterramento nativo na plataforma Vertex AI do Google Cloud

Descubra como o Elasticsearch, o primeiro mecanismo de ancoragem nativo de terceiros para o Vertex AI do Google Cloud, permite criar experiências GenAI personalizadas, ancorando modelos Gemini em dados corporativos.

Pronto para criar buscas de última geração?

Uma pesquisa suficientemente avançada não se consegue apenas com o esforço de uma só pessoa. O Elasticsearch é impulsionado por cientistas de dados, especialistas em operações de aprendizado de máquina, engenheiros e muitos outros que são tão apaixonados por buscas quanto você. Vamos nos conectar e trabalhar juntos para construir a experiência de busca mágica que lhe trará os resultados desejados.

Experimente você mesmo(a)