LlamaIndex est le principal framework pour créer des applications en connectant vos données aux LLM, appelées applications augmentées par le contexte. Ces applications vont des systèmes de génération augmentée de récupération ou "RAG" à l'extraction de données structurées, jusqu'à des systèmes d'agents complexes et semi-autonomes qui récupèrent des données et passent à l'action. LlamaIndex offre des abstractions simples et flexibles pour mieux faciliter l'ingestion, structurer et accéder aux données privées ou spécifiques au domaine afin de les injecter de manière sûre et fiable dans les LLM pour une génération de texte plus précise. Il est disponible en Python et Typescript. Vous pouvez utiliser LlamaIndex avec Elastic de six manières :
- En tant que source de données : en utilisant Elasticsearch Reader, vous pouvez extraire des documents de votre base de données Elasticsearch à utiliser dans votre application
- En tant que modèle de plongement : les plongements Elasticsearch peuvent encoder vos données sous forme de vecteurs pour la recherche sémantique
- En tant que base de données vectorielle : utiliser Elasticsearch comme magasin de vecteurs vous permettra d’effectuer des recherches sémantiques sur vos documents plongés
- En tant que magasin d’index, magasin clé-valeur et magasin de documents, pour créer des structures de récupération plus avancées, telles qu’un résumé de document ou un graphe de connaissances