LLM のプロンプトは準備完了です。あとはそれを送信して応答を受け取るだけです。LLM に接続するために、アプリケーションは Langchain のストリーミング サポートを使用します。これは、このアプリケーションで使用されるイベント ストリーミングに適合します。
get_llm()関数はapi/llm_integrations.pyで定義されています。その目的は、構成に応じて Langchain から正しい LLM 統合を返すことです。OpenAI を設定したと仮定すると、返される LLM は Langchain のChatOpenAIクラスのインスタンスになります。