Phase de génération

L'appel à candidature pour le LLM est maintenant prêt, il ne reste plus qu'à l'envoyer et à recevoir une réponse. Pour se connecter aux LLM, l'application utilise le support de streaming de Langchain, qui correspond bien au streaming d'événements utilisé dans cette application :

La fonction get_llm() est définie dans api/llm_integrations.py. Son but est de renvoyer l'intégration LLM correcte de Langchain en fonction de la configuration. En supposant que vous ayez configuré OpenAI, le LLM renvoyé sera une instance de la classe ChatOpenAI de Langchain.

Précédemment

Promesse LLM

Prêt à créer des expériences de recherche d'exception ?

Une recherche suffisamment avancée ne se fait pas avec les efforts d'une seule personne. Elasticsearch est alimenté par des data scientists, des ML ops, des ingénieurs et bien d'autres qui sont tout aussi passionnés par la recherche que vous. Mettons-nous en relation et travaillons ensemble pour construire l'expérience de recherche magique qui vous permettra d'obtenir les résultats que vous souhaitez.

Jugez-en par vous-même