LlamaIndex는 데이터를 대규모 언어 모델(LLM)에 연결하여 컨텍스트 증강 애플리케이션을 만드는 선도적 프레임워크입니다. 이러한 애플리케이션은 검색 증강 생성(RAG) 시스템에서 구조화된 데이터 추출을 거쳐 데이터를 검색하고 작업을 수행하는 복잡한 반자율 에이전트 시스템에 이르기까지 다양합니다. LlamaIndex는 프라이빗 또는 도메인별 데이터를 더 쉽고 유연하게 수집, 구조화 및 접근할 수 있도록 단순하고 유연한 추상화 기능을 제공하며 이를 안전하고 신뢰할 수 있게 LLM에 주입하여 정교한 텍스트 생성을 지원합니다. Python과 Typescript에서 사용할 수 있습니다. LlamaIndex를 Elastic과 함께 다음과 같은 여섯 가지 방식으로 활용할 수 있습니다.
- 데이터 소스로 활용하기: Elasticsearch Reader를 사용해 Elasticsearch 데이터베이스에서 문서를 가져와 애플리케이션에 활용할 수 있습니다.
- 임베딩 모델로 활용하기: Elasticsearch embeddings로 데이터를 벡터화하여 시맨틱 검색에 사용할 수 있습니다.
- 벡터 저장소로 활용하기: Elasticsearch를 벡터 저장소로 사용하면 벡터화된 문서에 대한 시맨틱 검색을 수행할 수 있습니다.
- 인덱스 저장소, KV 저장소, 문서 저장소로 활용하기: 문서 요약(Document Summary)이나 지식 그래프(Knowledge Graph)와 같은 고급 검색 구조를 생성할 수 있습니다.