LlamaIndex est le cadre de travail de référence pour concevoir des applications qui relient vos données aux LLM, connues sous le nom d’applications à contexte augmenté. Ces applications s’étendent des systèmes de Génération Augmentée par la Récupération (RAG) à l’extraction de données structurées et à des systèmes d’agents complexes et semi-autonomes qui récupèrent des données et agissent. LlamaIndex propose des abstractions simples et flexibles afin de faciliter l’ingestion, la structuration et l’accès aux données privées ou spécifiques à un domaine, et ainsi les injecter de façon sûre et fiable dans des LLM pour une génération de texte plus précise. Il est disponible en Python et Typescript. Vous pouvez utiliser LlamaIndex avec Elastic de six manières :
- En tant que source de données : en utilisant Elasticsearch Reader, vous pouvez extraire des documents de votre base de données Elasticsearch à utiliser dans votre application
- En tant que modèle de plongement : les plongements Elasticsearch peuvent encoder vos données sous forme de vecteurs pour la recherche sémantique
- En tant que base de données vectorielle : utiliser Elasticsearch comme magasin de vecteurs vous permettra d’effectuer des recherches sémantiques sur vos documents plongés
- En tant que magasin d’index, magasin clé-valeur et magasin de documents, pour créer des structures de récupération plus avancées, telles qu’un résumé de document ou un graphe de connaissances