LlamaIndex는 컨텍스트 증강 애플리케이션으로 알려진 LLM에 데이터를 연결하여 앱 구축을 지원하는 선도적인 프레임워크입니다. 이러한 애플리케이션은 검색 증강 생성(RAG) 시스템부터 정형 데이터 추출, 나아가 데이터를 검색하고 작업을 수행하는 복잡한 반자율 에이전트 시스템까지 다양합니다. LlamaIndex는 프라이빗 또는 도메인별 데이터를 수집, 구조화 및 액세스를 더 간편하게 만들어주는 간단하고 유연한 추상화를 제공하여 이러한 데이터를 LLM에 안전하고 안정적으로 주입하여 보다 정확한 텍스트를 생성할 수 있도록 지원합니다. Python과 Typescript에서 사용할 수 있습니다. Elastic과 함께 LlamaIndex를 사용하는 방법은 여섯 가지입니다.
- 데이터 소스로 활용하기: Elasticsearch Reader를 사용해 Elasticsearch 데이터베이스에서 문서를 가져와 애플리케이션에 활용할 수 있습니다.
- 임베딩 모델로 활용하기: Elasticsearch embeddings로 데이터를 벡터화하여 시맨틱 검색에 사용할 수 있습니다.
- 벡터 저장소로 활용하기: Elasticsearch를 벡터 저장소로 사용하면 벡터화된 문서에 대한 시맨틱 검색을 수행할 수 있습니다.
- 인덱스 저장소, KV 저장소, 문서 저장소로 활용하기: 문서 요약(Document Summary)이나 지식 그래프(Knowledge Graph)와 같은 고급 검색 구조를 생성할 수 있습니다.