LlamaIndex 是通过将您的数据连接到 LLM(即上下文增强应用)来创建应用的领先框架。这些应用范围广泛,涵盖从检索增强生成(或称 "RAG")系统、结构化数据提取,到能够检索数据并执行操作的复杂半自主智能体系统。LlamaIndex 提供简单灵活的抽象层,以便更轻松地摄取、构建和访问私有或特定领域数据,从而将其安全可靠地注入 LLM,以生成更准确的文本。它支持 Python 和 Typescript。您可以通过以下六种方式将 LlamaIndex 与 Elastic 结合使用:
- 作为数据源:使用 Elasticsearch Reader,可从 Elasticsearch 数据库中获取文档以在您的应用中使用
- 作为嵌入模型:Elasticsearch 嵌入可以将您的数据编码为用于语义搜索的向量
- 作为向量存储:使用 Elasticsearch 作为向量存储 可对嵌入文档进行语义搜索
- 作为索引存储、KV 存储和文档存储,可以创建更高级的检索结构,例如文档摘要或知识图表。