← システム思考に戻る

「ChatGPTを使っています」はAIスキルではない——代わりに何を聞くべきか

ai-interviewinghiringhormesis

履歴書には「AIエキスパート」と書いてあった。会話は別のことを語っていた。

マーケティングチームを率いる友人が、先月行った面接について話してくれた。候補者の履歴書は光沢紙に印刷してもいいほどだった。三年間の「AI駆動マーケティング戦略」。プロンプトエンジニアリングの認定資格。スキル欄にはChatGPT、Claude、Midjourney、そして友人が聞いたこともない四つのツールが並んでいた。

友人は候補者が経験を説明するのを頷きながら聞いていた。印象的な内容だ。数字を達成したキャンペーン。「AIで革命を起こした」ワークフロー。

そして友人は一つの質問をした。「AIが完全に間違えた時のことを教えてください。その後どうしましたか?」

候補者は言葉を詰まらせた。自信に満ちた姿勢が崩れた。「まあ、普通は使えるものが出るまで再生成するだけです。」

その沈黙は、履歴書全体よりも多くのことを友人に伝えた。

Pixel art illustration of an interview room where a confident candidate's expression shifts to uncertainty
自信が本当の質問と出会う瞬間

問題はこうだ。私はこういう話を絶えず聞いている。AI関連の職種で採用を行う友人や同僚が、同じパターンを描写する。控えめな履歴書の候補者が、クライアントレポートを台無しにしかけたハルシネーションをどう見つけたかを語る時に目を輝かせる。一方、資格を積み上げた候補者は、実際の思考プロセスを説明するよう求められると固まってしまう。

「AIツールを使っている」と「AIとの働き方を理解している」の間のギャップは、私の周りの人々が直面する最大の採用課題になった。そして、自分自身の日々のAI利用から見て、その理由がわかる。


「ChatGPTを使っています」は、スキルではなく、ただの発言だ

リクルーターの友人が最近送ってきた統計に、スクロールの手が止まった。米国の採用リーダーの六十二パーセントが、AI関連の職種を埋める際に重大なスキルのミスマッチがあると報告している。六十二パーセントだ。四捨五入の誤差ではない。構造的な問題だ。

自信と能力のギャップは昔からあった。ダニング・クルーガー効果は新しくない。しかしAIは、私たちが準備できていなかった形でそれを加速させた。

考えてみてほしい。ツールは本当に印象的だ。ChatGPTにマーケティングメールを書くよう促せば、数秒で洗練されたものが出てくる。Claudeにデータセットの分析を頼めば、専門家レベルの洞察のように見えるものが返ってくる。生成した人が有能でなくても、アウトプットは有能に見える。

これは奇妙な逆転を生み出す。六ヶ月間AIを使った人が、三年間使って実際にその限界を理解している人の仕事と見分けがつかない成果物を作れてしまう。

Pixel art of a glowing AI badge on a resume next to a floppy disk, representing the gap between hype and real skill
履歴書にChatGPTと書くのは、Microsoft Wordと書くようなものだ

履歴書にChatGPTと書くのは、Microsoft Wordと書くようなものだ。はい、使えるのは当然だ。それは最低条件。問題はアプリケーションを開けるかどうかではない。

問題は:なぜAIを使うのか? 失敗した時どう対処するのか? AIは自分をより有能にしているのか、それとも自分の思考の穴を隠す松葉杖になっているのか?

ある同僚が、AIツールを使い始めてまだ八ヶ月の若手開発者との面接について話してくれた。しかしプロセスについて聞かれると、その開発者は自分で構築した検証システムを説明した。Claudeがコードを生成するたびに、実装前に一行ずつ確認する。誰かに言われたからではない。一度バグを出荷してしまい、見つけるのに四時間かかったからだ。AIが存在しない関数をハルシネーションしていたことが判明した。

その八ヶ月の開発者は、友人の話の「AIエキスパート」が三年間で学ばなかったことを理解していた。


「何を」ではなく「なぜ」を聞こう

私の知り合いの採用マネージャーが、以前のAI面接のアプローチを説明してくれた。「Xのためのプロンプトをどう構成しますか?」「温度設定の違いは何ですか?」「チェーン・オブ・ソート・プロンプティングをいつ使いますか?」

そして彼女は不快なことに気づいた。ChatGPTはそれらの質問すべてに、ほとんどの候補者より上手に答えられる。彼女はAIツールが数秒で教えてくれることを人々が覚えているかどうかをテストしていたのだ。

聞き覚えがないだろうか?

今、彼女は「なぜ」を聞く。「なぜ仕事でAIを使うのですか?」それは開かれたドアだ。そこを通るものが、すべてを物語る。

最良の回答には共通の糸がある。目的に駆動され、具体的だ。

彼女が面接したある開発者はこう言った。「プロトタイピングを速くするために使っています。新しいアーキテクチャを探る時、Claudeに二十分で三つの異なるアプローチを生成させます。そしてそれぞれから好きな部分を取り出します。疲れないブレインストーミングパートナーのようですが、アーキテクチャの決定を下すのは私です。」

マーケティングマネージャーは彼女にこう言った。「週報の初稿をAIに任せるワークフローを作りました。でもAIのミスを直すのに、自分で書くより時間がかかることに気づきました。だから今はデータ統合の部分だけに使っています。そこはAIの方が速くて正確ですから。」

あるデザイナーは自分のプロセスをこう説明した。「Midjourneyにコンセプトを説明して、何が生成されるか見ます。直接使うためではなく——出力は大抵、興味深い形で間違っている。でもその間違った出力が、自分が本当に言いたかったことを見せてくれるのです。」

Pixel art of two people having an energized conversation with a holographic decision tree between them
最良の回答は、ツールへの慣れではなく、意図を明らかにする

友人たちが共有してくれる回答の中に気づくことがある。明確な目的に向けられたエネルギーと、ストレスポイントの正直な評価。その比率——エネルギー掛ける目的、ストレスで割る——は、私が出会ったすべての優れたAI実践者に現れる。自分の日常業務も含めて。彼らは何を達成しようとしているかを知り、プロセスに真の好奇心を持ち込み、摩擦がどこにあるかをマッピングしている。

弱い回答は?「効率化のために使っています。」「もっと速く仕事するのに役立ちます。」「みんな使っているから、自分もやるべきだと思いました。」

それらは間違いではない。ただ空虚だ。その人が実際にどう考えているか、何も教えてくれない。


すべてを変える質問

採用を行う友人との会話で繰り返し出てくる質問がある。「AIが自信満々に間違った答えを出した時のことを教えてください。その後どうしましたか?」

反応は二つのはっきりしたグループに分かれるという。

第一グループは目を輝かせる。前のめりになる。具体的な話がすぐに出てくる。先週、昨日、今朝起きたことだから。ある候補者は、Claudeが生成した財務モデルが完璧に見えたが、存在しない税制規則を捏造していたことに気づいた時のことを語った。「クライアントに送ってしまうところでした」と彼女は言った。「今は、九十パーセント正しいと確信していても、すべての規制リファレンスを事実確認します。」

第二グループは居心地悪そうになる。答えが曖昧になる。「まあ、正しくなるまでプロンプトし直すだけです。」もっと悪いのは:「それは私には起きたことがありません。」

その二番目の答えは、私が知っている最大の危険信号だ。AIツールをそれなりの頻度で使っていて、ハルシネーションに一度も出くわしたことがないと主張するなら、二つのうちどちらかが真実だ:注意を払っていないか、正直でないかだ。

生物学にホルミシスという概念がある。少量のストレスが生物をより強くする。少しの寒冷暴露が免疫応答を改善する。適度な運動が筋肉に微小な裂傷を作り、より強く再生する。ストレスは敵ではない。トレーニングシグナルだ。

AIのハルシネーションも同じ仕組みだ。

Pixel art of a person examining a glitching computer screen with plants growing from the cracks, representing growth through AI failure
ホルメティックストレス——より強くしてくれる失敗

自信満々の間違った答えはすべて、ホルメティックストレスの瞬間だ。検証本能を鍛え、何かがおかしいと感じた時のパターン認識を発達させ、AIが代替できない批判的思考の筋肉を強化する機会だ。

そうした瞬間を経験し——そこから学んだ——候補者は、運が良かっただけの人や気づいていなかった人とは根本的に異なる。

ある同僚が、リサーチサマリーでハルシネーションを見つけた後に何をしたかを語った候補者の話を共有してくれた。彼女は個人的なチェックリストを作っていた。AIが生成した主張を信頼する前に自分自身に問いかける三つの質問。作るのに二十分かかった。潜在的な恥ずかしさから何時間も救ってくれている。

それがホルミシスの実践だ。失敗が彼女をより良くした。


もう一つ:チャット履歴を見せてください

これは学術界から始まった。AI支援のプラギアリズムを検出しようとした教授たちが、学生にチャットログを共有するよう求められることに気づいた。会話はすべてを明らかにした——AIを思考パートナーとして使っている人と、理解せずにコピー&ペーストしている人。

今、それは企業の採用にも現れている。トレンドはまだ初期段階——アルファステージ、本当に——だが急速に成長している。評価プロセスの一環としてチャット履歴を要求する企業が前年比八百パーセント成長しているという報告を見た。

エンジニアリングマネジメントの友人が先月、持ち帰り課題をやった候補者に試した。「この課題に取り組んでいる間のAIとの会話を見せてください。」

旅を偽ることはできない。

Pixel art of a scrolling chat log on a screen with green and red highlights showing iteration and course corrections
チャット履歴は結果だけでなく、思考を明らかにする

候補者のチャット履歴はイテレーションを見せていた。行き止まり。AIの提案に反論した瞬間。「それは私がAPIについて知っていることと一致しません——ドキュメントを確認してもらえますか?」と書いた交換。AIは間違っていた。彼はそれを見つけた。

その十五分間のウォークスルーは、磨き上げられた最終成果物よりもはるかに多くのことを友人に伝えた。彼女は彼の思考プロセスを見た。検証の習慣を。何かがおかしいと感じた時に彼が投げかける質問を。

ガートナーは、二〇二六年までに五十パーセントの組織がAIフリーの評価ラウンドを実施すると予測している。その衝動は理解できる。しかし、採用に携わる友人たちが言うことすべてから判断すると、より良いアプローチはその逆だ:候補者にAIを使わせて、そしてその作業過程を見せてもらう。


本当のテスト

私が聞いたすべての話は、同じ根本的な真実を指し示している。

最高のAI人材は、最も多くのツールを暗記した人や、最も多くの認定資格を取得した人ではない。ツールが壊れた時にどうすべきかを知っている人だ。自信満々の答えが間違っている時。磨き上げられた出力が根本的なエラーを隠している時。

それは履歴書に載らないスキルだ。そして、それだけが重要なスキルだ。

最後に質問がある。誰かのAI能力を本当に明らかにした、最高の面接質問は何だっただろうか? 心から知りたい。コメントに書いてほしい。