Por que 'Eu uso o ChatGPT' não é uma habilidade de IA — e o que perguntar no lugar
O currículo dizia “Especialista em IA”. A conversa dizia outra coisa.
Uma amiga que lidera uma equipe de marketing me contou sobre uma entrevista que ela conduziu mês passado. O currículo da candidata poderia ter sido impresso em papel couchê. Três anos de “estratégias de marketing orientadas por IA”. Uma certificação em engenharia de prompts. A seção de habilidades listava ChatGPT, Claude, Midjourney e outras quatro ferramentas das quais ela nunca tinha ouvido falar.
Minha amiga acenava enquanto a candidata descrevia sua experiência. Coisa impressionante. Campanhas que batiam as metas. Workflows que ela havia “revolucionado com IA”.
Então minha amiga fez uma pergunta: “Me conte sobre uma vez em que a IA errou completamente. O que você fez depois?”
A candidata pausou. A postura confiante mudou. “Quer dizer, geralmente eu só regenero até obter algo utilizável.”
Essa pausa disse mais para minha amiga do que o currículo inteiro.
A questão é essa. Eu ouço histórias assim o tempo todo. Amigos e colegas que contratam para cargos relacionados à IA descrevem o mesmo padrão: candidatos com currículos modestos se iluminam ao descrever como detectaram uma alucinação que teria arruinado um relatório para o cliente. Candidatos com credenciais empilhadas ficam em branco quando pedem para explicar seu processo real de pensamento.
A distância entre “eu uso ferramentas de IA” e “eu entendo como trabalhar com IA” se tornou o maior desafio de contratação que as pessoas ao meu redor enfrentam. E pelo que eu vejo no meu próprio uso diário de IA, eu entendo o porquê.
”Eu uso o ChatGPT” é uma afirmação, não uma habilidade
Um amigo recrutador me enviou uma estatística recentemente que me fez parar no meio do scroll: 62% dos líderes de contratação nos EUA relatam um descompasso significativo de habilidades ao preencher vagas relacionadas à IA. Sessenta e dois por cento. Isso não é erro de arredondamento. É um problema sistêmico.
A lacuna entre confiança e competência sempre existiu. Dunning-Kruger não é novidade. Mas a IA turbinou isso de maneiras para as quais não estávamos preparados.
Pense nisso. As ferramentas são genuinamente impressionantes. Você pode pedir ao ChatGPT para escrever um email de marketing e receber algo polido em segundos. Você pode pedir ao Claude para analisar um conjunto de dados e receber o que parece ser uma análise de nível especialista. O resultado parece competente mesmo quando a pessoa que o gera não é.
Isso cria uma inversão estranha. Pessoas que usam IA há seis meses conseguem produzir artefatos que parecem idênticos ao trabalho de alguém que a usa há três anos e realmente entende suas limitações.
Colocar ChatGPT no seu currículo é como colocar Microsoft Word. Sim, eu presumo que você sabe usar. Isso é o básico. A questão não é se você consegue abrir o aplicativo.
A questão é: por que você usa IA? Como você lida quando ela falha? A IA te torna mais capaz, ou se tornou uma muleta que mascara lacunas no seu próprio pensamento?
Um colega me contou sobre um desenvolvedor júnior que ele entrevistou e que usava ferramentas de IA há apenas oito meses. Mas quando perguntaram sobre seu processo, o desenvolvedor descreveu um sistema de verificação que ele construiu para si mesmo. Toda vez que o Claude gerava código, ele percorria linha por linha antes de implementar. Não porque alguém mandou. Porque ele tinha entregado um bug uma vez que levou quatro horas para encontrar, e descobriu que a IA havia alucinado uma função que não existia.
Aquele desenvolvedor de oito meses entendeu algo que a “especialista em IA” da história da minha amiga não tinha aprendido em três anos.
Pare de perguntar o quê. Comece a perguntar o porquê.
Uma gerente de contratação que conheço descreveu sua antiga abordagem para entrevistas de IA. “Como você estruturaria um prompt para X?” “Qual é a diferença entre configurações de temperatura?” “Quando você usaria prompting em cadeia de pensamento?”
Então ela percebeu algo desconfortável. O ChatGPT pode responder todas essas perguntas melhor que a maioria dos candidatos. Ela estava testando se as pessoas conseguiam lembrar de coisas que qualquer ferramenta de IA poderia dizer em segundos.
Soa familiar?
Agora ela pergunta o porquê. “Por que você usa IA no seu trabalho?” É uma porta aberta. O que entra diz tudo para ela.
As melhores respostas compartilham um fio condutor. São direcionadas por propósito e específicas.
Um desenvolvedor que ela entrevistou disse: “Eu uso para prototipar mais rápido. Quando estou explorando uma nova arquitetura, peço ao Claude para gerar três abordagens diferentes em vinte minutos. Depois eu analiso o que gosto de cada uma. É como ter um parceiro de brainstorming que nunca se cansa, mas eu ainda sou quem toma as decisões arquiteturais.”
Um gerente de marketing disse a ela: “Eu construí um workflow onde a IA faz os primeiros rascunhos dos nossos relatórios semanais. Mas percebi que estava gastando mais tempo corrigindo os erros dela do que escrevendo eu mesmo. Então agora eu só uso para a parte de síntese de dados, onde ela é realmente mais rápida e precisa do que eu.”
Um designer descreveu seu processo: “Eu descrevo um conceito para o Midjourney e vejo o que ele gera. Não para usar diretamente — o resultado geralmente está errado de maneiras interessantes. Mas esses resultados errados me mostram o que eu estava realmente tentando dizer.”
Eu percebo algo nas respostas que meus amigos compartilham comigo. Energia direcionada a um propósito claro, com uma avaliação honesta de onde estão os pontos de estresse. Essa proporção — energia vezes propósito, dividido pelo estresse — aparece em todo praticante forte de IA que encontrei, inclusive no meu próprio trabalho diário. Eles sabem o que estão tentando alcançar, trazem uma curiosidade genuína para o processo, e mapearam onde o atrito mora.
As respostas fracas? “Eu uso para ser mais eficiente.” “Me ajuda a trabalhar mais rápido.” “Todo mundo está usando, então achei que deveria também.”
Essas respostas não estão erradas. Só são vazias. Não me dizem nada sobre como essa pessoa realmente pensa.
A pergunta que muda tudo
A pergunta que aparece em toda conversa que tenho com amigos que contratam: “Me conte sobre uma vez em que a IA te deu uma resposta errada com total confiança. O que você fez depois?”
Eles me dizem que as reações se dividem em dois campos distintos.
O primeiro campo se ilumina. Eles se inclinam para frente. Têm uma história pronta porque aconteceu na semana passada, ontem, ou nesta manhã. Uma candidata descreveu um modelo financeiro que o Claude havia gerado e que parecia perfeito até ela notar que ele havia inventado uma regulamentação tributária que não existia. “Quase enviei para o cliente”, ela disse. “Agora eu verifico cada referência regulatória, mesmo quando tenho noventa por cento de certeza de que está certo.”
O segundo campo fica desconfortável. As respostas ficam vagas. “Quer dizer, eu só regenero o prompt até ficar correto.” Ou pior: “Isso não aconteceu comigo.”
Essa segunda resposta é a maior bandeira vermelha que conheço. Se você usou ferramentas de IA com alguma regularidade e afirma nunca ter encontrado uma alucinação, uma de duas coisas é verdade: você não está prestando atenção, ou não está sendo honesto.
Existe um conceito em biologia chamado hormese. Pequenas doses de estresse tornam os organismos mais fortes. Um pouco de exposição ao frio melhora sua resposta imunológica. Exercício moderado cria micro-rupturas nos músculos que se reconstroem mais fortes. O estresse não é o inimigo. É o sinal de treinamento.
Alucinações de IA funcionam da mesma maneira.
Cada resposta errada dada com confiança é um momento de estresse hormético. É uma oportunidade de construir seus instintos de verificação, de desenvolver reconhecimento de padrões para quando algo parece errado, de fortalecer os músculos de pensamento crítico que a IA não pode substituir.
Os candidatos que passaram por esses momentos — e aprenderam com eles — são fundamentalmente diferentes dos que tiveram sorte ou foram desatentos.
Um colega compartilhou a história de uma candidata que descreveu o que fez depois de detectar uma alucinação em um resumo de pesquisa. Ela havia construído uma checklist pessoal. Três perguntas que ela agora faz a si mesma antes de confiar em qualquer afirmação gerada por IA. Levou vinte minutos para criar. Já economizou horas de constrangimento potencial.
Isso é hormese em ação. O fracasso a tornou melhor.
Mais uma coisa: me mostre seu histórico de conversas
Isso começou na academia. Professores tentando detectar plágio assistido por IA perceberam que podiam pedir aos estudantes para compartilhar seus logs de conversa. As conversas revelavam tudo — quem estava usando IA como parceiro de pensamento versus quem estava copiando e colando sem compreensão.
Agora está aparecendo no recrutamento corporativo. A tendência ainda é inicial — estágio Alfa, na verdade — mas crescendo rápido. Vi relatórios sugerindo um crescimento de 800% ano a ano de empresas solicitando históricos de conversa como parte do processo de avaliação.
Um amigo na gestão de engenharia tentou isso mês passado com um candidato que havia feito uma tarefa para casa. “Me mostre suas conversas com IA enquanto trabalhava nisso.”
Você não pode falsificar a jornada.
O histórico de conversas do candidato mostrava iteração. Becos sem saída. Momentos onde ele questionou as sugestões da IA. Uma troca onde ele havia escrito: “Isso não corresponde ao que sei sobre a API — pode verificar a documentação?” A IA estava errada. Ele detectou.
Aqueles quinze minutos de análise disseram mais para minha amiga do que o entregável final polido jamais poderia. Ela viu seu processo de pensamento. Seus hábitos de verificação. As perguntas que ele fazia quando algo parecia estranho.
O Gartner prevê que 50% das organizações vão impor rodadas de avaliação sem IA até 2026. Eu entendo o impulso. Mas por tudo que meus amigos em recrutamento me dizem, a melhor abordagem é o oposto: deixe os candidatos usarem IA, depois faça-os mostrar o trabalho.
O verdadeiro teste
Cada história que ouvi aponta para a mesma verdade fundamental.
A melhor contratação em IA não é a pessoa que memorizou mais ferramentas ou obteve mais certificações. É a pessoa que sabe o que fazer quando as ferramentas quebram. Quando a resposta confiante está errada. Quando o resultado polido esconde um erro fundamental.
Essa é a habilidade que não aparece nos currículos. E é a única que importa.
Então aqui vai minha pergunta para você: qual é a melhor pergunta de entrevista que você encontrou — ou ouviu falar — que realmente revelou a competência em IA de alguém? Estou genuinamente curioso. Deixe nos comentários.