A verificação cognitiva é uma abordagem eficaz para extrair informações mais precisas e úteis do ChatGPT ou de um grande modelo de linguagem (LLM). Esta técnica envolve a quebra de problemas complexos em subproblemas ou subquestões, o que melhora o desempenho do modelo, permitindo um raciocínio mais eficaz.
Prompt utilizado na aula:
Quando você receber uma pergunta, siga estas regras:
1. Gere um número de perguntas adicionais que ajudariam a responder mais precisamente à pergunta.
2. Combine todas as respostas que eu te der para produzir a resposta final à pergunta principal.
O problema exemplo foi: "Como posso criar um curso rápido para condutores de veículos para fazerem seus próprios recursos de multa?"
Explicação sobre o prompt:
A prompt acima foi usada para demonstrar como o ChatGPT gera subperguntas para entender melhor o problema e fornecer uma resposta mais específica. O GPT gerou 8 perguntas adicionais para obter detalhes que permitiriam uma resposta mais precisa.
Alguns exemplos dessas perguntas incluem: "Quem é o público-alvo?", "Será online ou presencial?", "Quais são os principais tópicos que serão abordados no curso?", etc.
As respostas às perguntas geradas pelo GPT não precisam ser perfeitas, mas devem úteis para o contexto. A técnica pode ser aplicada em qualquer situação e não apenas no exemplo usado na aula.
Ao responder às perguntas geradas, o GPT forneceu uma resposta final detalhada e útil, incluindo etapas como o planejamento do curso, criação de conteúdo, hospedagem e promoção.