Com os resultados da pesquisa em mãos, agora é possível gerar um prompt para enviar ao LLM. O enunciado deve incluir a pergunta original enviada pelo usuário, as passagens relevantes obtidas na fase de recuperação e instruções para o LLM indicando que a resposta deve ser extraída das passagens incluídas.
Para exibir o prompt, o aplicativo usa a função render_template() do Flask:
O arquivo de modelo referenciado nesta chamada está em api/templates/rag_prompt.txt.
Você pode fazer alterações neste modelo se quiser ver o efeito delas na qualidade das respostas do chatbot. Mas certifique-se sempre de preservar o loop "for" que renderiza as passagens recuperadas.
Anteriormente
Fase de RecuperaçãoPróximo
Fase de geração