LLM のプロンプトは準備完了です。あとはそれを送信して応答を受け取るだけです。LLM に接続するために、アプリケーションは Langchain のストリーミング サポートを使用します。これは、このアプリケーションで使用されるイベント ストリーミングに適合します。

get_llm()関数はapi/llm_integrations.pyで定義されています。その目的は、構成に応じて Langchain から正しい LLM 統合を返すことです。OpenAI を設定したと仮定すると、返される LLM は Langchain のChatOpenAIクラスのインスタンスになります。

最先端の検索体験を構築する準備はできましたか?

十分に高度な検索は 1 人の努力だけでは実現できません。Elasticsearch は、データ サイエンティスト、ML オペレーター、エンジニアなど、あなたと同じように検索に情熱を傾ける多くの人々によって支えられています。ぜひつながり、協力して、希望する結果が得られる魔法の検索エクスペリエンスを構築しましょう。

はじめましょう