Dans ce tutoriel, vous allez construire un chatbot à grand modèle de langage (LLM) qui utilise un modèle connu sous le nom de Retrieval-Augmented Generation (RAG).

Les chatbots construits avec RAG peuvent surmonter certaines des limites des modèles conversationnels généraux tels que ChatGPT. En particulier, ils sont capables de discuter et de répondre à des questions sur les sujets suivants :

  • Les informations privées de votre organisation.
  • Événements qui ne faisaient pas partie de l'ensemble de données d'apprentissage ou qui ont eu lieu après la fin de l'apprentissage du LLM.

En outre, le RAG aide "à ancrer" les LLM dans les faits, ce qui les rend moins susceptibles d'inventer une réponse ou "d'halluciner".

Le secret pour y parvenir est d'utiliser un processus en deux étapes pour obtenir une réponse de la part du mécanisme d'apprentissage tout au long de la vie :

  • Tout d'abord, dans la phase d'extraction, une ou plusieurs sources de données sont recherchées pour répondre à la requête de l'utilisateur. Les documents pertinents trouvés lors de cette recherche sont extraits. L'utilisation d'un index Elasticsearch est une excellente option pour cela, vous permettant de choisir entre les méthodes de recherche par mot-clé, par vecteur dense et par vecteur clairsemé, ou même une combinaison hybride de ces méthodes.
  • Ensuite, dans la phase de génération, l'invite de l'utilisateur est élargie pour inclure les documents récupérés dans la première phase, avec des instructions supplémentaires au LLM pour trouver la réponse à la question de l'utilisateur dans les informations récupérées. L'invite élargie, y compris le contexte ajouté à la question, est ce qui est envoyé au LLM à la place de la requête originale.

Structure du didacticiel

Ce tutoriel est structuré en deux parties principales.

Dans la première partie, vous apprendrez à exécuter l'exemple Chatbot RAG App, une application complète comprenant un back-end Python et un front-end React.

Une fois que l'application d'exemple est opérationnelle, la deuxième partie de ce tutoriel explique les différents composants de la mise en œuvre de RAG, afin de vous permettre d'adapter le code d'exemple à vos propres besoins.

Suivant

Conditions

Prêt à créer des expériences de recherche d'exception ?

Une recherche suffisamment avancée ne se fait pas avec les efforts d'une seule personne. Elasticsearch est alimenté par des data scientists, des ML ops, des ingénieurs et bien d'autres qui sont tout aussi passionnés par la recherche que vous. Mettons-nous en relation et travaillons ensemble pour construire l'expérience de recherche magique qui vous permettra d'obtenir les résultats que vous souhaitez.

Jugez-en par vous-même