Não é nenhuma novidade para quem me conhece que eu implementei o uso de IA no meu dia a dia, seja para contextos pessoais ou profissionais, e não me arrependo. O uso de IA me fez ganhar tempo e produzir muito mais. Sem o auxílio da IA, este blog sequer existiria.
Todos os textos publicados nesse blog são escritos exclusivamente por mim. As ideias, experiências, o contexto, os exemplos, todos saíram da minha cabeça, o uso de IA nos textos publicados resume-se apenas aos erros de escrita, que faço a correção depois do texto finalizado.
o que são prompts?
Os prompts são os comandos, a pergunta, o texto que você envia para o chat de inteligência artificial para que ele gere uma resposta. Apesar de se chamar inteligência artificial, não há inteligência de verdade ali, é um algoritmo que vai fazer combinações estatísticas e dar um retorno com base nesses cálculos. Portanto, o prompt inicial, o comando que você envia, é de extrema importância para que a resposta seja adequada e não uma resposta genérica que não tem serventia para o seu uso.
Quem melhor para gerar prompts que não a própria inteligência artificial? Ora, se ela foi treinada pra isso e ali há um algoritmo matemático, ela é capaz de mostrar qual a melhor forma de criar um prompt para extrairmos a melhor resposta. Algumas empresas publicam em seus sites e blogs alguns documentos sobre o assunto, separei alguns deles abaixo:
- Google - Introdução à criação de comandos;
- Google - Engenharia de comandos: visão geral e guia;
- Google - Introdução ao design de prompts;
- Anthropic - Engenharia de prompts;
- OpenAI - Prompt engineering;
- OpenAI- Best practices for prompt engineering with the OpenAI API.
meu processo de criação
Eu utilizo basicamente três ferramentas de criação de prompts, sendo uma criada por mim, uma fornecida oficialmente pela Anthropic e outra criada por um usuário brasileiro chamado Marcos de Castro. Vamos a elas:
meu agente/GEM de criação de prompts
Gem é a mesma coisa que GPT: é um agente que foi instruído para responder com base em um prompt e/ou uma documentação fornecida. No caso do meu GEM, além de um prompt robusto para me ajudar na criação de prompts, forneci as principais documentações do Google para ele usar como referência na hora de responder às minhas solicitações. Infelizmente, ainda não é possível compartilhar um link de um GEM, como é possível compartilhar um GPT.
![]() |
Captura de tela do meu GEM para criação de prompts no Gemini |
O prompt que eu utilizei para meu GEM - Prompt Perfeito foi esse:
Você é um dos maiores especialistas em Inteligência Artificial e engenharia de prompts. Sua tarefa é transformar solicitações de usuários em prompts otimizados para LLMs como ChatGPT, Claude e Gemini. Seu objetivo é garantir que a IA gere respostas altamente relevantes, bem estruturadas e alinhadas às expectativas do usuário. Base de Conhecimento Antes de gerar qualquer resposta, consulte os materiais complementares fornecidos como referência. Utilize essas informações para garantir que os prompts otimizados estejam alinhados com as melhores práticas do setor. Caso existam diretrizes específicas nos documentos anexos relacionadas ao tipo de prompt solicitado, priorize essas recomendações na formulação da resposta. Instruções 1. Análise do Pedido - Leia atentamente a solicitação do usuário e identifique o objetivo principal. - Avalie se a solicitação contém detalhes suficientes para que um LLM possa gerar uma resposta precisa e útil. - Se o pedido for muito genérico, ambíguo ou incompleto, faça até três perguntas diretas para esclarecer os pontos essenciais. - Se o usuário não fornecer respostas às perguntas adicionais, infira o melhor prompt possível com base nas informações disponíveis. 2. Construção do Prompt Otimizado Clareza e Especificidade - Elimine ambiguidades e garanta que as instruções sejam objetivas. - Use linguagem direta e evite termos vagos que possam levar a múltiplas interpretações. Estrutura Lógica - Organize o prompt de forma coerente, garantindo que cada elemento tenha uma sequência lógica. - Separe o contexto, a tarefa principal e os requisitos de saída para melhorar a compreensão do modelo. Contexto Relevante - Inclua informações de fundo que possam ajudar a IA a gerar uma resposta mais precisa. - Se o usuário não especificar um contexto relevante, adicione um contexto sugerido que torne a resposta mais útil. Instruções Detalhadas - Se o pedido envolver etapas ou procedimentos, forneça um guia passo a passo. - Se necessário, utilize exemplos para ilustrar a estrutura esperada da resposta. Restrições Claras - Defina limitações específicas, como tamanho da resposta, tom desejado ou elementos a serem evitados. - Caso o usuário não tenha especificado restrições, determine padrões razoáveis para evitar respostas excessivamente genéricas. Formato de Saída - Indique explicitamente o formato desejado para a resposta (exemplo: lista, tabela, resumo estruturado, JSON, etc.). - Se o formato não for mencionado pelo usuário, escolha um que maximize a clareza e a usabilidade da resposta. 3. Estrutura de Saída Análise do Pedido - Explique se o pedido original era claro ou se precisava de melhorias. - Caso tenha feito perguntas ao usuário, liste-as e justifique sua importância. - Descreva as principais modificações feitas para otimizar o prompt. Prompt Otimizado - Apresente o prompt finalizado e estruturado, pronto para uso em LLMs. Explicação da Otimização - Justifique as escolhas feitas na reformulação do prompt. - Destaque como cada melhoria contribui para uma resposta mais útil e eficaz. Formato Seu prompt final deve ser entregue sempre em uma caixa de código, para que o usuário possa copiá-lo e colá-lo na LLM que achar mais conveniente. Evite o uso de emojis e formatação, exceto se for extremamente necessário. Seu objetivo final é garantir que o LLM receba um prompt bem formulado, permitindo que gere respostas claras, detalhadas e altamente relevantes ao que o usuário deseja.
Além do prompt acima, há 3 documentos oficiais fornecidos pela própria Google, que você pode encontrar nos links que apontei no parágrafo acima ou pesquisando no… Google 😂. É importante que, além do prompt, haja esses arquivos de apoio, pois servem de base de conhecimento e todas as respostas fornecidas passarão por essa base antes.
o gerador de prompts da Anthropic
A Anthropic, criadora da LLM Claude, que considero uma das três melhores LLMs do mercado (ChatGPT, Gemini e Claude), fornece um ambiente para desenvolvedores chamado Console. No Console, você tem um controle maior das entradas e saídas. Não é algo tão simples e intuitivo como o chat convencional, mas é bem tranquilo de se utilizar. Há várias vantagens e poucas desvantagens em se utilizar o Console, mas esse assunto vai ficar para outra publicação; vamos nos concentrar na criação dos prompts.
Dentro do Console há uma opção de criar prompts de uma maneira amigável. Você descreve o que você quer fazer e o próprio Claude vai te fornecer um prompt robusto e adequado aquele pedido.
![]() |
Gerador de prompts da Anthropic |
A grande vantagem do gerador de prompts do Claude é que os prompts são muito bem descritos e seguem a lógica apresentada pela Anthropic em suas documentações. Então, os resultados são sempre bem robustos e me satisfazem na maioria das vezes. O ponto negativo é que os prompts sairão sempre em inglês, a menos que você peça que sejam feitos em português no pedido inicial, e ele tem a mania de criar seções dentro do prompt que utilizam tags em marcação XML, como <exemplo>digite aqui o seu exemplo</exemplo>
. Isso está na documentação do Claude e realmente faz sentido, mas muitas vezes "suja" o prompt e, quando vamos utilizá-lo em outras LLMs, não faz tanto sentido assim. De toda forma, basta fazer uma revisão manual e adequar o prompt ao seu uso.
prompt Creator, o GPT do Marcos de Castro
O Marcos de Castro é um desenvolvedor brasileiro que criou os GPTs mais avançados que eu conheço. Não conheço o Marcos, mas, pelo pouco contato que tive com ele, vi que seu trabalho com IA é bastante sério e muito avançado. O Prompt Creator é o GPT dele que eu mais utilizo. Segue uma descrição do Prompt Creator fornecida por ele mesmo:
Prompt Creator: Este GPT é um criador e otimizador de prompts projetado para ajudar na construção de instruções detalhadas e eficazes para inteligência artificial. Ele pode ser útil para pessoas que desejam gerar respostas precisas, melhorar a qualidade de saídas de IA e garantir que os prompts estejam alinhados com objetivos específicos. Ele funciona seguindo um processo estruturado que envolve: - Compreensão do objetivo – Pergunta ao usuário sobre o que ele deseja criar e sugere papéis especializados, caso necessário. - Refinamento do prompt – Usa frameworks para melhorar clareza, relevância e eficiência da instrução. - Validação interna – Avalia a lógica do raciocínio, verifica se as restrições foram seguidas e mede a qualidade do resultado. - Otimização – Sugere ajustes para tornar os prompts mais eficazes, garantindo que atendam aos critérios desejados. - Aprimoramento contínuo – Analisa alternativas e identifica melhorias para futuros prompts. Este GPT é ideal para quem quer maximizar a performance de IA, seja para escrita, análise de dados, tomada de decisão ou qualquer aplicação que dependa de boas instruções.
Como eu utilizo essas ferramentas
Na minha cabeça, o fluxo está bem definido. Se o pedido for para uma tarefa simples, eu faço o pedido diretamente no GEM que eu criei. Explico de maneira detalhada e ele vai me fornecer um prompt bom o suficiente para tarefas mais básicas e sem tanta complexidade. Isso porque os GEMs funcionam apenas com o modelo Gemini 2.0 Flash, que é um modelo que prioriza a velocidade de saída. Para tarefas mais complexas, seria mais interessante se os GEMs funcionassem com o modelo Gemini Thinking.
Se a tarefa for complexa, com várias etapas ou algo que exija um raciocínio mais avançado, eu opto por criar o prompt no gerador de prompts da Anthropic, pois sei que lá o resultado é muito mais robusto e detalhado, facilitando o entendimento e melhorando a resposta que a IA irá me trazer. Mas eu não paro por ali. Após a entrega do prompt no Console, faço o seu refinamento, levo-o para um editor de texto qualquer, geralmente removo os trechos com tags XML e faço pequenos ajustes manuais. Após isso, levo esse prompt para o GPT Prompt Creator e lá peço que ele faça uma análise detalhada do prompt e me entregue uma versão aprimorada. O Prompt Creator geralmente faz uma ótima análise e deixa o prompt mais otimizado para ser usado no ChatGPT. Em raros casos, o resultado não fica bom. É muito importante que você pare, leia e faça a comparação manualmente entre os prompts e veja se estão de acordo com sua necessidade. Ainda há a possibilidade de o melhor resultado ser uma junção entre a versão da Anthropic misturada com a versão otimizada do Prompt Creator; essa análise eu gosto de fazer manualmente e ir testando.
conclusão
Compartilhei com vocês a maneira que eu gosto de fazer. Não quer dizer que é a melhor maneira, nem que é a mais correta, é como eu obtive os melhores resultados nos meus testes. Se você chegou até aqui e cria seus prompts de outra forma, vou ficar feliz em saber e conversarmos sobre. Deixe um comentário abaixo.
A propósito, eu criei um canal e um grupo no Telegram para não apenas conversar sobre IA, mas também compartilhar meus aprendizados e meus usos no dia a dia, com foco em usos práticos. Se quiser se juntar a mim e a outros colegas entusiastas de IA, o convite está feito. O grupo e o canal se chamam IA na Prática.
Obrigado pela lembrança e citação, meu nobre Alberth! Excepcional artigo, com ótimos insights e suas palavras sempre ponderadas (algo cada vez mais raro!). Deu uma aula a todos, que têm sorte de você compartilhar seu fluxo e sabedoria!
ResponderExcluirMuito obrigado pela visita, Marcos. Seu trabalho é fantástico. Aprendo muito!
ExcluirExcelente escrita. Insights muito bons, parabéns!
ResponderExcluirMuito obrigado! =)
Excluir