LlamaIndexは、データをLLMに接続してアプリを作成するための主要なフレームワークであり、コンテキスト拡張アプリケーションとして知られています。これらのアプリケーションは、検索拡張生成(RAG)システムから構造化データ抽出、そしてデータを取得してアクションを実行する複雑な半自律エージェントシステムまで多岐にわたります。LlamaIndexは、プライベートデータやドメイン固有のデータをより簡単に取り込み、構造化し、アクセスできるようにするためのシンプルで柔軟な抽象化を実現します。これにより、これらのデータをLLMに安全かつ確実に投入して、より正確なテキスト生成が可能になります。LlamaIndexは、PythonとTypescriptで利用できます。ElasticでLlamaIndexを使う方法は次の6通りです。
- データソースとして:Elasticsearch Readerを使用することで、Elasticsearchデータベースからドキュメントを取得し、アプリで利用できます。
- 埋め込みモデルとして:Elasticsearchの埋め込みは、セマンティック検索のためにデータをベクトルとしてエンコードできます。
- ベクトルストアとして:Elasticsearchをベクトルストアとして使用することで、埋め込まれた文書に対してセマンティック検索を実行できます。
- インデックスストア、KVストア、ドキュメントストアとして、ドキュメントサマリーやナレッジグラフなどのより高度な検索構造を作成します。