이제 LLM을 위한 프롬프트가 준비되었으므로 이제 남은 것은 이를 전송하고 응답을 받는 것입니다. LLM에 연결하기 위해 애플리케이션은 이 애플리케이션에서 사용되는 이벤트 스트리밍과 잘 어울리는 Langchain의 스트리밍 지원을 사용합니다:

get_llm() 함수는 api/llm_integrations.py에 정의되어 있습니다. 그 목적은 구성에 따라 Langchain에서 올바른 LLM 통합을 반환하는 것입니다. OpenAI를 구성했다고 가정하면, 반환되는 LLM은 Langchain의 ChatOpenAI 클래스 인스턴스가 될 것입니다.

최첨단 검색 환경을 구축할 준비가 되셨나요?

충분히 고급화된 검색은 한 사람의 노력만으로는 달성할 수 없습니다. Elasticsearch는 여러분과 마찬가지로 검색에 대한 열정을 가진 데이터 과학자, ML 운영팀, 엔지니어 등 많은 사람들이 지원합니다. 서로 연결하고 협력하여 원하는 결과를 얻을 수 있는 마법 같은 검색 환경을 구축해 보세요.

직접 사용해 보세요