← Retour à Systèmes

Pourquoi « J'utilise ChatGPT » n'est pas une compétence en IA — et quoi demander à la place

ai-interviewinghiringhormesis

Le CV disait « Expert IA ». La conversation disait autre chose.

Une amie qui dirige une équipe marketing m’a raconté un entretien qu’elle avait mené le mois dernier. Le CV de la candidate aurait pu être imprimé sur du papier glacé. Trois ans de « stratégies marketing pilotées par l’IA ». Une certification en ingénierie de prompts. La section compétences listait ChatGPT, Claude, Midjourney et quatre autres outils dont elle n’avait jamais entendu parler.

Mon amie hochait la tête pendant que la candidate décrivait son expérience. Impressionnant. Des campagnes qui atteignaient leurs objectifs. Des workflows qu’elle avait « révolutionnés grâce à l’IA ».

Puis mon amie a posé une question : « Parlez-moi d’un moment où l’IA s’est complètement trompée. Qu’avez-vous fait ensuite ? »

La candidate a marqué une pause. L’assurance s’est fissurée. « En général, je régénère jusqu’à obtenir quelque chose d’utilisable. »

Cette pause en a dit plus à mon amie que l’ensemble du CV.

Pixel art illustration of an interview room where a confident candidate's expression shifts to uncertainty
Le moment où l'assurance rencontre une vraie question

Voilà le truc. J’entends des histoires comme celle-ci tout le temps. Des amis et collègues qui recrutent pour des postes liés à l’IA décrivent le même schéma : des candidats aux CV modestes s’illuminent en décrivant comment ils ont détecté une hallucination qui aurait coulé un rapport client. Des candidats aux références impressionnantes se figent quand on leur demande d’expliquer leur véritable processus de réflexion.

L’écart entre « j’utilise des outils IA » et « je comprends comment travailler avec l’IA » est devenu le plus grand défi de recrutement pour les gens autour de moi. Et d’après ce que je vois dans mon propre usage quotidien de l’IA, je comprends pourquoi.


« J’utilise ChatGPT » est une affirmation, pas une compétence

Un ami recruteur m’a envoyé récemment une statistique qui m’a arrêté net : 62 % des responsables de recrutement aux États-Unis signalent un décalage significatif des compétences pour les postes liés à l’IA. Soixante-deux pour cent. Ce n’est pas une erreur d’arrondi. C’est un problème systémique.

L’écart confiance-compétence a toujours existé. Dunning-Kruger n’est pas nouveau. Mais l’IA l’a amplifié d’une manière à laquelle nous n’étions pas préparés.

Réfléchissez-y. Les outils sont véritablement impressionnants. Vous pouvez demander à ChatGPT d’écrire un email marketing et obtenir quelque chose de soigné en quelques secondes. Vous pouvez demander à Claude d’analyser un jeu de données et recevoir ce qui ressemble à une analyse experte. Le résultat semble compétent même quand la personne qui le génère ne l’est pas.

Cela crée une inversion bizarre. Des personnes ayant utilisé l’IA pendant six mois peuvent produire des livrables identiques à ceux de quelqu’un qui l’utilise depuis trois ans et qui en comprend réellement les limites.

Pixel art of a glowing AI badge on a resume next to a floppy disk, representing the gap between hype and real skill
Mettre ChatGPT sur son CV, c'est comme mettre Microsoft Word

Mettre ChatGPT sur votre CV, c’est comme mettre Microsoft Word. Oui, je suppose que vous savez l’utiliser. C’est le minimum. La question n’est pas de savoir si vous pouvez ouvrir l’application.

La question est : pourquoi utilisez-vous l’IA ? Comment réagissez-vous quand elle se trompe ? L’IA vous rend-elle plus compétent, ou est-elle devenue une béquille qui masque les lacunes de votre propre réflexion ?

Un collègue m’a parlé d’un développeur junior qu’il avait interviewé et qui n’utilisait les outils IA que depuis huit mois. Mais quand on lui a demandé son processus, le développeur a décrit un système de vérification qu’il avait construit lui-même. Chaque fois que Claude générait du code, il le parcourait ligne par ligne avant de l’implémenter. Non pas parce qu’on le lui avait dit. Parce qu’il avait livré un bug une fois qui lui avait pris quatre heures à trouver, et il s’est avéré que l’IA avait halluciné une fonction qui n’existait pas.

Ce développeur de huit mois avait compris quelque chose que l’« experte IA » de l’histoire de mon amie n’avait pas appris en trois ans.


Arrêtez de demander quoi. Commencez à demander pourquoi.

Une responsable du recrutement que je connais m’a décrit son ancienne approche des entretiens IA. « Comment structureriez-vous un prompt pour X ? » « Quelle est la différence entre les paramètres de température ? » « Quand utiliseriez-vous le prompting en chaîne de pensée ? »

Puis elle a réalisé quelque chose d’inconfortable. ChatGPT peut répondre à toutes ces questions mieux que la plupart des candidats. Elle testait si les gens pouvaient se souvenir de choses que n’importe quel outil IA pouvait leur dire en quelques secondes.

Ça vous dit quelque chose ?

Maintenant elle demande pourquoi. « Pourquoi utilisez-vous l’IA dans votre travail ? » C’est une porte ouverte. Ce qui en sort lui dit tout.

Les meilleures réponses partagent un fil conducteur. Elles sont motivées par un objectif et spécifiques.

Un développeur qu’elle a interviewé a dit : « Je l’utilise pour prototyper plus vite. Quand j’explore une nouvelle architecture, je demande à Claude de générer trois approches différentes en vingt minutes. Ensuite, je décortique ce que j’aime dans chacune. C’est comme avoir un partenaire de brainstorming qui ne se fatigue jamais, mais c’est moi qui prends les décisions architecturales. »

Un directeur marketing lui a dit : « J’ai construit un workflow où l’IA gère les premières ébauches de nos rapports hebdomadaires. Mais j’ai réalisé que je passais plus de temps à corriger ses erreurs qu’à écrire moi-même. Alors maintenant je ne l’utilise que pour la synthèse de données, là où elle est effectivement plus rapide et plus précise que moi. »

Un designer a décrit son processus : « Je décris un concept à Midjourney et je regarde ce qu’il génère. Pas pour l’utiliser directement — le résultat est généralement incorrect d’une manière intéressante. Mais ces résultats incorrects me montrent ce que j’essayais vraiment de dire. »

Pixel art of two people having an energized conversation with a holographic decision tree between them
Les meilleures réponses révèlent l'intention, pas juste la familiarité avec les outils

Je remarque quelque chose dans les réponses que mes amis partagent avec moi. De l’énergie dirigée vers un objectif clair, avec une évaluation honnête des points de friction. Ce ratio — énergie fois objectif, divisé par le stress — se retrouve chez chaque praticien IA compétent que j’ai rencontré, y compris dans mon propre travail quotidien. Ils savent ce qu’ils essaient d’accomplir, ils apportent une curiosité sincère au processus, et ils ont cartographié où se trouvent les frictions.

Les réponses faibles ? « Je l’utilise pour être plus efficace. » « Ça m’aide à travailler plus vite. » « Tout le monde l’utilise, alors je me suis dit que je devrais le faire aussi. »

Ces réponses ne sont pas fausses. Elles sont juste vides. Elles ne me disent rien sur la façon dont cette personne pense réellement.


La question qui change tout

La question qui revient dans chaque conversation que j’ai avec des amis qui recrutent : « Parlez-moi d’un moment où l’IA vous a donné une réponse fausse avec assurance. Qu’avez-vous fait ensuite ? »

Ils me disent que les réactions se divisent en deux camps distincts.

Le premier camp s’illumine. Ils se penchent en avant. Ils ont une histoire prête parce que ça leur est arrivé la semaine dernière, hier, ou ce matin. Une candidate a décrit un modèle financier que Claude avait généré et qui semblait parfait jusqu’à ce qu’elle remarque qu’il avait inventé une réglementation fiscale qui n’existait pas. « J’ai failli l’envoyer au client », a-t-elle dit. « Maintenant je vérifie chaque référence réglementaire, même quand je suis sûre à quatre-vingt-dix pour cent que c’est correct. »

Le deuxième camp devient mal à l’aise. Les réponses deviennent vagues. « En fait, je re-prompte jusqu’à ce que ce soit correct. » Ou pire : « Ça ne m’est pas vraiment arrivé. »

Cette deuxième réponse est le plus grand drapeau rouge que je connaisse. Si vous avez utilisé des outils IA régulièrement et que vous affirmez n’avoir jamais rencontré d’hallucination, l’une de ces deux choses est vraie : vous ne faites pas attention, ou vous n’êtes pas honnête.

Il y a un concept en biologie appelé hormèse. De petites doses de stress rendent les organismes plus forts. Un peu d’exposition au froid améliore votre réponse immunitaire. L’exercice modéré crée des micro-déchirures dans les muscles qui se reconstruisent plus forts. Le stress n’est pas l’ennemi. C’est le signal d’entraînement.

Les hallucinations de l’IA fonctionnent de la même manière.

Pixel art of a person examining a glitching computer screen with plants growing from the cracks, representing growth through AI failure
Le stress hormétique — les échecs qui vous rendent plus fort

Chaque réponse fausse donnée avec assurance est un moment de stress hormétique. C’est une opportunité de développer vos instincts de vérification, de développer la reconnaissance de schémas pour repérer quand quelque chose sonne faux, de renforcer les muscles de pensée critique que l’IA ne peut pas remplacer.

Les candidats qui ont traversé ces moments — et qui en ont appris — sont fondamentalement différents de ceux qui ont eu de la chance ou qui n’ont pas fait attention.

Un collègue m’a partagé l’histoire d’une candidate qui a décrit ce qu’elle faisait après avoir détecté une hallucination dans un résumé de recherche. Elle avait construit une checklist personnelle. Trois questions qu’elle se pose désormais avant de faire confiance à toute affirmation générée par l’IA. Ça lui a pris vingt minutes à créer. Ça lui a épargné des heures d’embarras potentiel.

C’est l’hormèse en action. L’échec l’a rendue meilleure.


Encore une chose : montrez-moi votre historique de conversation

Ça a commencé dans le monde universitaire. Des professeurs essayant de détecter le plagiat assisté par IA ont réalisé qu’ils pouvaient demander aux étudiants de partager leurs journaux de conversation. Les conversations révélaient tout — qui utilisait l’IA comme partenaire de réflexion et qui copiait-collait sans compréhension.

Maintenant ça apparaît dans le recrutement en entreprise. La tendance est encore naissante — au stade Alpha, vraiment — mais elle croît rapidement. J’ai vu des rapports suggérant une croissance de 800 % en glissement annuel des entreprises demandant l’historique des conversations dans leur processus d’évaluation.

Un ami dans la direction d’ingénierie l’a essayé le mois dernier avec un candidat qui avait fait un exercice technique à domicile. « Montrez-moi vos conversations avec l’IA pendant que vous travailliez sur ce projet. »

On ne peut pas falsifier le parcours.

Pixel art of a scrolling chat log on a screen with green and red highlights showing iteration and course corrections
L'historique de conversation révèle la réflexion, pas seulement le résultat

L’historique de conversation du candidat montrait de l’itération. Des impasses. Des moments où il avait contredit les suggestions de l’IA. Un échange où il avait écrit : « Ça ne correspond pas à ce que je sais de l’API — peux-tu vérifier la documentation ? » L’IA s’était trompée. Il l’avait détecté.

Ces quinze minutes de parcours ont dit plus à mon ami que le livrable final soigné n’aurait jamais pu le faire. Elle a vu son processus de réflexion. Ses habitudes de vérification. Les questions qu’il posait quand quelque chose lui semblait louche.

Gartner prédit que 50 % des organisations imposeront des évaluations sans IA d’ici 2026. Je comprends l’impulsion. Mais d’après tout ce que mes amis dans le recrutement me disent, la meilleure approche est l’inverse : laissez les candidats utiliser l’IA, puis faites-les montrer leur travail.


Le vrai test

Chaque histoire que j’ai entendue pointe vers la même vérité fondamentale.

Le meilleur recrutement en IA n’est pas la personne qui a mémorisé le plus d’outils ou obtenu le plus de certifications. C’est la personne qui sait quoi faire quand les outils tombent en panne. Quand la réponse assurée est fausse. Quand le résultat soigné cache une erreur fondamentale.

C’est la compétence qui n’apparaît pas sur les CV. Et c’est la seule qui compte.

Alors voici ma question pour vous : quelle est la meilleure question d’entretien que vous avez rencontrée — ou dont vous avez entendu parler — qui a vraiment révélé la compétence IA de quelqu’un ? Je suis sincèrement curieux. Dites-le-moi dans les commentaires.