LlamaIndex es el marco de trabajo líder para crear apps conectando tus datos a los LLM, conocidas como aplicaciones con contexto aumentado. Estas aplicaciones van desde sistemas de retrieval-augmented generation (o sistemas "RAG") mediante la extracción de datos estructurados hasta sistemas de agentes semiautónomos complejos que recuperan datos y toman medidas. LlamaIndex proporciona abstracciones simples y flexibles para ingerir, estructurar y acceder más fácilmente a datos privados o específicos de dominio, con el fin de inyectar estos datos de forma segura y fiable en los LLMs para una generación de texto más precisa. Está disponible en Python y Typescript. Puedes usar LlamaIndex con Elastic de seis maneras:
- Como fuente de datos: mediante Elasticsearch Reader puedes obtener documentos de tu base de datos de Elasticsearch para usarlos en tu app.
- Como modelo de incrustación: las incrustaciones de Elasticsearch pueden codificar tus datos como vectores para la búsqueda semántica.
- Como almacén vectorial: usar Elasticsearch como almacén vectorial te permitirá realizar búsquedas semánticas en tus documentos incrustados.
- Como almacén de índices, almacén KV y almacén de documentos para crear estructuras de recuperación más avanzadas, como un resumen de documentos o un grafo de conocimiento.
Blogs para empezar
- RAG con Elasticsearch, LlamaIndex y Mistral
- Uso de los flujos de trabajo de LlamaIndex con Elasticsearch