O LlamaIndex é o framework líder para criar apps conectando seus dados a LLMs, conhecidos como aplicativos aumentados por contexto. Esses aplicativos vão desde retrieval-augmented generation ou sistemas "RAG", passando pela extração de dados estruturados, até sistemas agentes complexos e semi-autônomos que recuperam dados e realizam ações. O LlamaIndex fornece abstrações simples e flexíveis para ingerir, estruturar e acessar dados privados ou específicos de domínio com mais facilidade, a fim de injetá-los de maneira segura e confiável em LLMs para uma geração de texto mais precisa. Ele está disponível em Python e Typescript. Há seis maneiras que você pode usar o LlamaIndex com o Elastic:
- Como fonte de dados: usando o Elasticsearch Reader, você pode obter documentos do seu banco de dados Elasticsearch para serem usados no seu app
- Como um modelo de incorporação: embeddings do Elasticsearch podem codificar seus dados como vetores para buscar semântica
- Como armazenamento de vetores: usar Elasticsearch como um armazenar de vetores permitirá que você execute buscar semânticas nos seus documentos incorporados
- Como armazenamento de índices, armazenamento de KV e armazenamento de documentos para criar estruturas de recuperação mais avançadas, como um resumo de documento ou um gráfico de conhecimento
Blogs para começar
- RAG com Elasticsearch, LlamaIndex e Mistral
- Usando fluxos de trabalho do LlamaIndex com Elasticsearch