Por qué 'Uso ChatGPT' no es una habilidad de IA — y qué preguntar en su lugar
El currículum decía “Experto en IA.” La conversación decía otra cosa.
Una amiga que lidera un equipo de marketing me contó sobre una entrevista que hizo el mes pasado. El currículum de la candidata podría haberse impreso en cartulina brillante. Tres años de “estrategias de marketing impulsadas por IA.” Una certificación en ingeniería de prompts. La sección de habilidades listaba ChatGPT, Claude, Midjourney y otras cuatro herramientas de las que mi amiga nunca había oído hablar.
Mi amiga asentía mientras la candidata repasaba su experiencia. Cosas impresionantes. Campañas que cumplieron sus objetivos. Flujos de trabajo que había “revolucionado con IA.”
Entonces mi amiga hizo una pregunta: “Cuéntame sobre una vez en que la IA se equivocó completamente. ¿Qué pasó después?”
La candidata hizo una pausa. La postura segura cambió. “O sea, generalmente solo regenero hasta que me da algo usable.”
Esa pausa le dijo a mi amiga más que todo el currículum.
La cosa es esta. Escucho historias como esta constantemente. Amigos y colegas que contratan para roles relacionados con IA describen el mismo patrón: candidatos con currículums escuetos se iluminan cuando describen cómo detectaron una alucinación que habría arruinado un informe para un cliente. Candidatos con credenciales impresionantes se quedan en blanco cuando se les pide que expliquen su proceso de pensamiento real.
La brecha entre “uso herramientas de IA” y “entiendo cómo trabajar con IA” se ha convertido en el mayor desafío de contratación que enfrentan las personas a mi alrededor. Y por lo que he visto en mi propio uso diario de IA, entiendo por qué.
”Uso ChatGPT” es una declaración, no una habilidad
Un amigo reclutador me envió una estadística recientemente que me hizo detenerme a mitad del scroll: el 62% de los líderes de contratación en EE.UU. reportan una brecha significativa de habilidades al cubrir roles relacionados con IA. Sesenta y dos por ciento. Eso no es un error de redondeo. Es un problema sistémico.
La brecha entre confianza y competencia siempre ha existido. El efecto Dunning-Kruger no es nuevo. Pero la IA lo ha potenciado de maneras para las que no estábamos preparados.
Piénsenlo. Las herramientas son genuinamente impresionantes. Puedes pedirle a ChatGPT que escriba un correo de marketing y obtener algo pulido en segundos. Puedes pedirle a Claude que analice un conjunto de datos y recibir lo que parece un análisis de nivel experto. El resultado se siente competente incluso cuando la persona que lo genera no lo es.
Esto crea una inversión extraña. Personas que han usado IA durante seis meses pueden producir entregables que se ven idénticos al trabajo de alguien que la ha usado durante tres años y realmente entiende sus limitaciones.
Listar ChatGPT en tu currículum es como listar Microsoft Word. Sí, asumo que puedes usarlo. Eso es lo mínimo. La pregunta no es si puedes abrir la aplicación.
La pregunta es: ¿por qué usas IA? ¿Cómo manejas cuando falla? ¿La IA te hace más capaz, o se ha convertido en una muleta que enmascara vacíos en tu propio pensamiento?
Un colega me contó sobre un desarrollador junior que había entrevistado y que solo llevaba ocho meses usando herramientas de IA. Pero cuando le preguntó sobre su proceso, el desarrollador describió un sistema de verificación que había construido para sí mismo. Cada vez que Claude generaba código, él lo recorría línea por línea antes de implementarlo. No porque alguien se lo hubiera dicho. Porque una vez había desplegado un bug que le tomó cuatro horas encontrar, y resultó que la IA había alucinado una función que no existía.
Ese desarrollador de ocho meses entendía algo que la “experta en IA” de la historia de mi amiga no había aprendido en tres años.
Deja de preguntar qué. Empieza a preguntar por qué.
Una gerente de contratación que conozco describió su antiguo enfoque para las entrevistas sobre IA. “¿Cómo estructurarías un prompt para X?” “¿Cuál es la diferencia entre las configuraciones de temperatura?” “¿Cuándo usarías prompting de cadena de pensamiento?”
Entonces se dio cuenta de algo incómodo. ChatGPT puede responder todas esas preguntas mejor que la mayoría de los candidatos. Estaba evaluando si las personas podían recordar cosas que cualquier herramienta de IA podría decirles en segundos.
¿Les suena familiar?
Ahora pregunta por qué. “¿Por qué usas IA en tu trabajo?” Es una puerta abierta. Lo que entra por ella le dice todo.
Las mejores respuestas comparten un hilo común. Son intencionales y específicas.
Un desarrollador que entrevistó dijo: “La uso para hacer prototipos más rápido. Cuando estoy explorando una nueva arquitectura, le pido a Claude que genere tres enfoques diferentes en veinte minutos. Luego analizo lo que me gusta de cada uno. Es como tener un compañero de lluvia de ideas que nunca se cansa, pero yo sigo siendo quien toma las decisiones arquitectónicas.”
Un gerente de marketing le dijo: “Construí un flujo de trabajo donde la IA maneja los primeros borradores de nuestros informes semanales. Pero me di cuenta de que estaba gastando más tiempo corrigiendo sus errores que escribiendo yo mismo. Así que ahora solo la uso para la parte de síntesis de datos, donde realmente es más rápida y precisa que yo.”
Un diseñador describió su proceso: “Le describo un concepto a Midjourney y veo qué genera. No para usarlo directamente—el resultado generalmente está mal de maneras interesantes. Pero esos resultados incorrectos me muestran lo que realmente estaba tratando de decir.”
Noto algo en las respuestas que mis amigos comparten conmigo. Energía dirigida hacia un propósito claro, con una evaluación honesta de dónde están los puntos de tensión. Esa proporción—energía por propósito, dividida entre estrés—aparece en cada practicante fuerte de IA que he encontrado, incluyendo en mi propio trabajo diario. Saben lo que están tratando de lograr, traen curiosidad genuina al proceso y han mapeado dónde vive la fricción.
¿Las respuestas débiles? “La uso para ser más eficiente.” “Me ayuda a trabajar más rápido.” “Todos la están usando ahora, así que pensé que yo también debería.”
Esas no están mal. Solo están vacías. No me dicen nada sobre cómo piensa realmente esta persona.
La pregunta que lo cambia todo
La pregunta que sigue apareciendo en cada conversación que tengo con amigos que contratan: “Cuéntame sobre una vez en que la IA te dio una respuesta equivocada con total confianza. ¿Qué hiciste después?”
Me dicen que las reacciones se dividen en dos campos distintos.
El campo uno se ilumina. Se inclinan hacia adelante. Tienen una historia específica lista porque les pasó la semana pasada, o ayer, o esta mañana. Una candidata describió un modelo financiero que Claude había generado y que se veía perfecto hasta que notó que había inventado una regulación fiscal que no existía. “Casi se lo envié al cliente,” dijo. “Ahora verifico cada referencia regulatoria, incluso cuando estoy noventa por ciento segura de que es correcta.”
El campo dos se incomoda. Las respuestas se vuelven vagas. “O sea, simplemente le vuelvo a hacer el prompt hasta que esté correcto.” O peor: “Eso realmente no me ha pasado.”
Esa segunda respuesta es la bandera roja más grande que conozco. Si has usado herramientas de IA con cierta regularidad y afirmas que nunca te has encontrado con una alucinación, una de dos cosas es cierta: no estás prestando atención, o no estás siendo honesto.
Hay un concepto en biología llamado hormesis. Pequeñas dosis de estrés hacen más fuertes a los organismos. Un poco de exposición al frío mejora tu respuesta inmune. El ejercicio moderado crea micro-desgarros en el músculo que se reconstruyen más fuertes. El estrés no es el enemigo. Es la señal de entrenamiento.
Las alucinaciones de la IA funcionan de la misma manera.
Cada respuesta equivocada dada con confianza es un momento de estrés hormético. Es una oportunidad para construir tus instintos de verificación, para desarrollar reconocimiento de patrones sobre cuándo algo se siente mal, para fortalecer los músculos de pensamiento crítico que la IA no puede reemplazar.
Los candidatos que han pasado por esos momentos—y aprendieron de ellos—son fundamentalmente diferentes de los que han tenido suerte o han sido inconscientes.
Un colega compartió una historia sobre una candidata que describió lo que hizo después de detectar una alucinación en un resumen de investigación. Había creado una lista de verificación personal. Tres preguntas que ahora se hace antes de confiar en cualquier afirmación generada por IA. Le tomó veinte minutos crearla. Le ha ahorrado horas de potencial vergüenza.
Eso es hormesis en acción. El fracaso la hizo mejor.
Una cosa más: muéstrame tu historial de chat
Esto empezó en el ámbito académico. Profesores que intentaban detectar plagio asistido por IA se dieron cuenta de que podían pedirles a los estudiantes que compartieran sus registros de conversación. Las conversaciones revelaban todo—quién estaba usando la IA como compañero de pensamiento versus quién estaba copiando y pegando sin comprensión.
Ahora está apareciendo en la contratación empresarial. La tendencia todavía es temprana—en etapa Alpha, realmente—pero está creciendo rápido. He visto reportes que sugieren un crecimiento del 800% año contra año en empresas que solicitan historiales de chat como parte de su proceso de evaluación.
Un amigo en gestión de ingeniería lo probó el mes pasado con un candidato que había hecho una tarea para llevar a casa. “Guíame a través de tus conversaciones con IA mientras trabajabas en esto.”
No puedes fingir el camino.
El historial de chat del candidato mostraba iteración. Callejones sin salida. Momentos donde cuestionó las sugerencias de la IA. Un intercambio donde había escrito: “Eso no coincide con lo que sé sobre la API—¿puedes revisar la documentación?” La IA se había equivocado. Él lo detectó.
Ese recorrido de quince minutos le dijo a mi amigo más de lo que el entregable final pulido jamás podría. Vio su proceso de pensamiento. Sus hábitos de verificación. Las preguntas que hacía cuando algo se sentía mal.
Gartner predice que el 50% de las organizaciones implementarán rondas de evaluación sin IA para 2026. Entiendo el impulso. Pero por todo lo que mis amigos en contratación me cuentan, el mejor enfoque es el opuesto: deja que los candidatos usen IA, y luego haz que muestren su trabajo.
La verdadera prueba
Cada historia que he escuchado apunta a la misma verdad subyacente.
La mejor contratación en IA no es la persona que ha memorizado más herramientas o ganado más certificaciones. Es la persona que sabe qué hacer cuando las herramientas fallan. Cuando la respuesta segura está equivocada. Cuando el resultado pulido esconde un error fundamental.
Esa es la habilidad que no aparece en los currículums. Y es la única que importa.
Así que aquí va mi pregunta para ustedes: ¿cuál es la mejor pregunta de entrevista que han encontrado—o de la que han oído hablar—que realmente reveló la competencia de alguien en IA? Tengo genuina curiosidad. Déjenla en los comentarios.