Com os resultados da pesquisa em mãos, agora é possível gerar um prompt para enviar ao LLM. O enunciado deve incluir a pergunta original enviada pelo usuário, as passagens relevantes obtidas na fase de recuperação e instruções para o LLM indicando que a resposta deve ser extraída das passagens incluídas.

Para exibir o prompt, o aplicativo usa a função render_template() do Flask:

O arquivo de modelo referenciado nesta chamada está em api/templates/rag_prompt.txt.

Você pode fazer alterações neste modelo se quiser ver o efeito delas na qualidade das respostas do chatbot. Mas certifique-se sempre de preservar o loop "for" que renderiza as passagens recuperadas.

Pronto para criar buscas de última geração?

Uma pesquisa suficientemente avançada não se consegue apenas com o esforço de uma só pessoa. O Elasticsearch é impulsionado por cientistas de dados, especialistas em operações de aprendizado de máquina, engenheiros e muitos outros que são tão apaixonados por buscas quanto você. Vamos nos conectar e trabalhar juntos para construir a experiência de busca mágica que lhe trará os resultados desejados.

Experimente você mesmo(a)