LangChain est un framework très répandu pour l’utilisation de l’IA, des vecteurs et des intégrations. Permet de simplifier la création d’une variété d’applications d’IA.
Elasticsearch peut être utilisé avec LangChain de trois manières :
- Utilisez le LangChain ElasticsearchStore pour stocker et récupérer des documents dans Elasticsearch.
- Utilisez le récupérateur d’auto-interrogation de LangChain, à l’aide d’un LLM comme OpenAI, pour transformer la requête d’un utilisateur en une requête combinée à un filtre afin de récupérer les documents pertinents dans Elasticsearch.
- Pour la méthode la plus flexible de récupération de documents d’Elasticsearch, utilisez le récupérateur Elasticsearch de LangChain.
Blogs pour démarrer avec Elasticsearch et LangChain
- Elasticsearch et LangChain : libérer le potentiel des LLM
- Recherche IA axée sur la confidentialité avec Elasticsearch et LangChain
Notebooks
- Réponses aux questions avec LangChain et Elasticsearch
- Chatbot avec LangChain et Elasticsearch
- Exemple de récupérateur d’auto-interrogation
- Récupérateur par auto-interrogation pour la réponse aux questions
- Récupérateur par auto-interrogation avec récupération BM25
Modèles LangServe
Application de référence de RAG optimisée par LangChain
Cette application de référence montre comment tirer parti de LangChain pour alimenter un modèle RAG (Retrieval Augmented Generation). L'application utilise ElasticsearchStore pour stocker et récupérer des documents depuis Elasticsearch. C'est un moyen rapide de commencer avec LangChain et Elasticsearch.
https://github.com/elastic/elasticsearch-labs/tree/main/example-apps/chatbot-rag-app