Generación aumentada de recuperación: un problema de búsqueda
Search es una infraestructura crítica para trabajar con modelos de lenguaje grande (LLM) y construir las mejores experiencias de AI generativa. Tienes una sola oportunidad para indicarle a un LLM que genere la respuesta correcta con tus datos, por lo que la relevancia es fundamental. Haz que tus LLM despeguen con generación aumentada de recuperación (RAG) y Elastic.

Prueba este aprendizaje práctico a tu propio ritmo para aprender a construir una aplicación RAG
Prueba el aprendizaje prácticoIncorpora RAG en tus aplicaciones y prueba diferentes LLM con una base de datos vectorial
Descubre más en los Elasticsearch LabsSigue esta guía para implementar una app de chatbot RAG.
Ve la guíaPrepara tus datos para RAG
RAG amplía el poder de los LLM al acceder a datos propietarios relevantes sin necesidad de volver a entrenarlos. Al usar RAG con Elastic, te beneficias de:
- Técnicas de búsqueda de vanguardia
- Selección fácil de modelos y la capacidad de intercambiar modelos sin esfuerzo.
- Acceso seguro a documentos y basado en roles para garantizar que tus datos se mantengan protegidos.

Transforma las experiencias de búsqueda
¿Qué es la Retrieval-Augmented Generation?
La Retrieval-Augmented Generation (RAG) es un patrón que mejora la generación de texto al integrar información relevante de fuentes de datos privados. Al proporcionar un contexto específico del dominio al modelo generativo, RAG mejora la precisión y la relevancia de las respuestas de texto generadas.
Usa Elasticsearch para ventanas de contexto de alta relevancia que aprovechen tus datos privados para mejorar la salida de los LLM y entregar la información en una experiencia conversacional segura y eficiente.

CÓMO FUNCIONA RAG CON ELASTIC
Mejora tus flujos de trabajo de RAG con Elasticsearch
Descubre cómo usar Elastic para flujos de trabajo de RAG mejora las experiencias de AI generativa. Sincroniza fácilmente con la información en tiempo real mediante fuentes de datos privados para obtener las mejores respuestas de AI generativa más relevantes.
El pipeline de inferencia de machine learning utiliza procesadores de ingesta de Elasticsearch para extraer incrustaciones de manera eficiente. Combinando sin problemas la búsqueda por coincidencia de texto (BM25) y la búsqueda vectorial (kNN), recupera los documentos con las mejores puntuaciones para generar respuestas contextualizadas.

CASO DE USO
Servicio de preguntas y respuestas que funciona con tu conjunto de datos privados
Implementa experiencias de preguntas y respuestas usando RAG, con tecnología de Elasticsearch como base de datos vectorial.

Elasticsearch: la base de datos vectorial más ampliamente desplegada
Copia para probar localmente en dos minutos
curl -fsSL https://elastic.co/start-local | shBúsqueda de IA en acción
Mira cómo las organizaciones están creando aplicaciones de búsqueda con IA para mejorar la experiencia del cliente y ayudar a los usuarios a encontrar exactamente lo que están buscando.
Cliente destacado

Consensus actualiza la plataforma de investigación académica con búsqueda semántica avanzada y herramientas de AI de Elastic.
Cliente destacado

Docusign lleva el poder de la IA generativa a clientes de todo el mundo con Elastic.
Cliente destacado

Georgia State University aumenta la información sobre los datos y analiza cómo ayudar a los estudiantes a solicitar asistencia financiera mediante la búsqueda impulsada por AI.