← Zurück zu Systeme

Warum „Ich benutze ChatGPT" keine KI-Kompetenz ist — und was man stattdessen fragen sollte

ai-interviewinghiringhormesis

Im Lebenslauf stand „KI-Experte”. Das Gespräch sagte etwas anderes.

Eine Freundin, die ein Marketing-Team leitet, erzählte mir von einem Vorstellungsgespräch, das sie letzten Monat geführt hatte. Der Lebenslauf der Kandidatin hätte auf Hochglanzpapier gedruckt sein können. Drei Jahre „KI-gesteuerte Marketingstrategien”. Eine Zertifizierung in Prompt-Engineering. Die Kompetenzenliste enthielt ChatGPT, Claude, Midjourney und vier weitere Tools, von denen sie noch nie gehört hatte.

Meine Freundin nickte, während die Kandidatin ihre Erfahrung durchging. Beeindruckend. Kampagnen, die ihre Zahlen erreichten. Workflows, die sie mit KI „revolutioniert” hatte.

Dann stellte meine Freundin eine Frage: „Erzählen Sie mir von einem Moment, in dem die KI völlig falsch lag. Was haben Sie dann gemacht?”

Die Kandidatin stockte. Die selbstsichere Haltung veränderte sich. „Naja, normalerweise regeneriere ich einfach, bis ich etwas Brauchbares bekomme.”

Diese Pause sagte meiner Freundin mehr als der gesamte Lebenslauf.

Pixel art illustration of an interview room where a confident candidate's expression shifts to uncertainty
Der Moment, wenn Selbstvertrauen auf eine echte Frage trifft

Hier ist die Sache. Ich höre ständig solche Geschichten. Freunde und Kollegen, die für KI-nahe Positionen einstellen, beschreiben das gleiche Muster: Kandidaten mit bescheidenen Lebensläufen leuchten auf, wenn sie beschreiben, wie sie eine Halluzination entdeckt haben, die einen Kundenbericht ruiniert hätte. Kandidaten mit beeindruckenden Referenzen werden stumm, wenn man sie bittet, ihren tatsächlichen Denkprozess zu erklären.

Die Kluft zwischen „Ich verwende KI-Tools” und „Ich verstehe, wie man mit KI arbeitet” ist zur größten Einstellungsherausforderung geworden, die die Menschen um mich herum erleben. Und aus dem, was ich in meiner eigenen täglichen KI-Nutzung sehe, verstehe ich warum.


„Ich benutze ChatGPT” ist eine Aussage, keine Kompetenz

Ein befreundeter Recruiter schickte mir kürzlich eine Statistik, die mich innehalten ließ: 62 % der US-Personalverantwortlichen berichten von einer erheblichen Kompetenzlücke bei der Besetzung von KI-bezogenen Stellen. Zweiundsechzig Prozent. Das ist kein Rundungsfehler. Das ist ein systemisches Problem.

Die Konfidenz-Kompetenz-Lücke hat es immer gegeben. Dunning-Kruger ist nicht neu. Aber KI hat sie auf eine Weise verstärkt, auf die wir nicht vorbereitet waren.

Denken Sie darüber nach. Die Tools sind wirklich beeindruckend. Sie können ChatGPT bitten, eine Marketing-E-Mail zu schreiben, und in Sekunden etwas Poliertes bekommen. Sie können Claude bitten, einen Datensatz zu analysieren, und erhalten etwas, das wie eine Experten-Analyse aussieht. Das Ergebnis wirkt kompetent, auch wenn die Person, die es erstellt, es nicht ist.

Das erzeugt eine seltsame Umkehrung. Menschen, die KI seit sechs Monaten nutzen, können Ergebnisse produzieren, die identisch aussehen mit der Arbeit von jemandem, der sie seit drei Jahren nutzt und tatsächlich ihre Grenzen versteht.

Pixel art of a glowing AI badge on a resume next to a floppy disk, representing the gap between hype and real skill
ChatGPT im Lebenslauf aufzulisten ist wie Microsoft Word aufzulisten

ChatGPT in Ihrem Lebenslauf aufzulisten ist wie Microsoft Word aufzulisten. Ja, ich nehme an, dass Sie es benutzen können. Das ist die Grundlage. Die Frage ist nicht, ob Sie die Anwendung öffnen können.

Die Frage ist: Warum nutzen Sie KI? Wie gehen Sie damit um, wenn sie versagt? Macht KI Sie kompetenter, oder ist sie zu einer Krücke geworden, die Lücken in Ihrem eigenen Denken verdeckt?

Ein Kollege erzählte mir von einem Junior-Entwickler, den er interviewt hatte und der KI-Tools erst seit acht Monaten nutzte. Aber als man ihn nach seinem Prozess fragte, beschrieb der Entwickler ein Verifizierungssystem, das er für sich selbst gebaut hatte. Jedes Mal, wenn Claude Code generierte, ging er ihn Zeile für Zeile durch, bevor er ihn implementierte. Nicht weil jemand es ihm gesagt hatte. Weil er einmal einen Bug ausgeliefert hatte, für dessen Suche er vier Stunden brauchte, und es stellte sich heraus, dass die KI eine Funktion halluziniert hatte, die gar nicht existierte.

Dieser Acht-Monate-Entwickler hatte etwas verstanden, das die „KI-Expertin” aus der Geschichte meiner Freundin in drei Jahren nicht gelernt hatte.


Hören Sie auf zu fragen, was. Fangen Sie an zu fragen, warum.

Eine Personalchefin, die ich kenne, beschrieb ihren früheren Ansatz für KI-Interviews. „Wie würden Sie einen Prompt für X strukturieren?” „Was ist der Unterschied zwischen Temperatureinstellungen?” „Wann würden Sie Chain-of-Thought-Prompting verwenden?”

Dann erkannte sie etwas Unbequemes. ChatGPT kann all diese Fragen besser beantworten als die meisten Kandidaten. Sie testete, ob Menschen sich an Dinge erinnern konnten, die jedes KI-Tool ihnen in Sekunden sagen könnte.

Kommt Ihnen das bekannt vor?

Jetzt fragt sie nach dem Warum. „Warum nutzen Sie KI bei Ihrer Arbeit?” Es ist eine offene Tür. Was hindurchgeht, sagt ihr alles.

Die besten Antworten teilen einen gemeinsamen Faden. Sie sind zweckorientiert und spezifisch.

Ein Entwickler, den sie interviewte, sagte: „Ich nutze sie, um schneller zu prototypen. Wenn ich eine neue Architektur erkunde, lasse ich Claude in zwanzig Minuten drei verschiedene Ansätze generieren. Dann pflücke ich auseinander, was mir an jedem gefällt. Es ist wie ein Brainstorming-Partner, der nie müde wird, aber ich treffe immer noch die Architektur-Entscheidungen.”

Ein Marketing-Manager sagte ihr: „Ich habe einen Workflow gebaut, bei dem KI die ersten Entwürfe unserer Wochenberichte erstellt. Aber ich merkte, dass ich mehr Zeit damit verbrachte, ihre Fehler zu korrigieren, als selbst zu schreiben. Also nutze ich sie jetzt nur für die Datensynthese, wo sie tatsächlich schneller und genauer ist als ich.”

Ein Designer beschrieb seinen Prozess: „Ich beschreibe Midjourney ein Konzept und sehe, was es generiert. Nicht zur direkten Verwendung — das Ergebnis ist meist auf interessante Weise falsch. Aber diese falschen Ergebnisse zeigen mir, was ich eigentlich sagen wollte.”

Pixel art of two people having an energized conversation with a holographic decision tree between them
Die besten Antworten offenbaren Absicht, nicht nur Werkzeugvertrautheit

Mir fällt etwas auf in den Antworten, die meine Freunde mit mir teilen. Energie, die auf einen klaren Zweck gerichtet ist, mit einer ehrlichen Einschätzung, wo die Stresspunkte liegen. Dieses Verhältnis — Energie mal Zweck, geteilt durch Stress — taucht bei jedem starken KI-Praktiker auf, den ich getroffen habe, einschließlich in meiner eigenen täglichen Arbeit. Sie wissen, was sie erreichen wollen, sie bringen echte Neugier in den Prozess ein, und sie haben kartiert, wo die Reibung liegt.

Die schwachen Antworten? „Ich nutze es, um effizienter zu sein.” „Es hilft mir, schneller zu arbeiten.” „Alle nutzen es jetzt, also dachte ich, ich sollte es auch.”

Diese Antworten sind nicht falsch. Sie sind nur leer. Sie sagen mir nichts darüber, wie diese Person wirklich denkt.


Die Frage, die alles verändert

Die Frage, die in jedem Gespräch auftaucht, das ich mit Freunden führe, die einstellen: „Erzählen Sie mir von einem Moment, in dem die KI Ihnen eine selbstbewusst falsche Antwort gegeben hat. Was haben Sie dann gemacht?”

Sie sagen mir, die Reaktionen teilen sich in zwei deutliche Lager.

Das erste Lager leuchtet auf. Sie lehnen sich vor. Sie haben eine spezifische Geschichte parat, weil es ihnen letzte Woche passiert ist, gestern, oder heute Morgen. Eine Kandidatin beschrieb ein Finanzmodell, das Claude generiert hatte und das perfekt aussah, bis sie bemerkte, dass es eine Steuervorschrift erfunden hatte, die gar nicht existierte. „Ich hätte es fast an den Kunden geschickt”, sagte sie. „Jetzt überprüfe ich jede regulatorische Referenz, auch wenn ich zu neunzig Prozent sicher bin, dass sie korrekt ist.”

Das zweite Lager wird unbehaglich. Die Antworten werden vage. „Naja, ich prompte einfach neu, bis es korrekt ist.” Oder schlimmer: „Das ist mir eigentlich nicht passiert.”

Diese zweite Antwort ist das größte Warnsignal, das ich kenne. Wenn Sie KI-Tools regelmäßig genutzt haben und behaupten, noch nie einer Halluzination begegnet zu sein, ist eines von zwei Dingen wahr: Sie passen nicht auf, oder Sie sind nicht ehrlich.

Es gibt ein Konzept in der Biologie namens Hormesis. Kleine Dosen Stress machen Organismen stärker. Ein wenig Kälteexposition verbessert Ihre Immunantwort. Moderates Training erzeugt Mikrorisse in Muskeln, die stärker nachwachsen. Der Stress ist nicht der Feind. Er ist das Trainingssignal.

KI-Halluzinationen funktionieren genauso.

Pixel art of a person examining a glitching computer screen with plants growing from the cracks, representing growth through AI failure
Hormetischer Stress — die Misserfolge, die Sie stärker machen

Jede selbstbewusst falsche Antwort ist ein Moment hormetischen Stresses. Es ist eine Gelegenheit, Ihre Verifizierungsinstinkte aufzubauen, Mustererkennung dafür zu entwickeln, wann etwas sich falsch anfühlt, die Muskeln des kritischen Denkens zu stärken, die KI nicht ersetzen kann.

Die Kandidaten, die diese Momente durchlebt haben — und daraus gelernt haben — unterscheiden sich grundlegend von denen, die Glück hatten oder nicht aufgepasst haben.

Ein Kollege teilte die Geschichte einer Kandidatin, die beschrieb, was sie tat, nachdem sie eine Halluzination in einer Forschungszusammenfassung entdeckt hatte. Sie hatte eine persönliche Checkliste erstellt. Drei Fragen, die sie sich jetzt stellt, bevor sie irgendeiner KI-generierten Behauptung vertraut. Es dauerte zwanzig Minuten, sie zu erstellen. Sie hat ihr Stunden potenzieller Peinlichkeit erspart.

Das ist Hormesis in Aktion. Das Versagen hat sie besser gemacht.


Noch etwas: Zeigen Sie mir Ihren Chat-Verlauf

Das begann in der Wissenschaft. Professoren, die versuchten, KI-gestütztes Plagiat aufzudecken, erkannten, dass sie Studenten bitten konnten, ihre Chat-Verläufe zu teilen. Die Gespräche enthüllten alles — wer KI als Denkpartner nutzte und wer nur kopierte und einfügte, ohne zu verstehen.

Jetzt taucht es im Unternehmensrecruiting auf. Der Trend ist noch früh — im Alpha-Stadium, wirklich — aber wächst schnell. Ich habe Berichte gesehen, die ein jährliches Wachstum von 800 % bei Unternehmen suggerieren, die Chat-Verläufe als Teil ihres Evaluierungsprozesses anfordern.

Ein Freund im Engineering-Management hat es letzten Monat mit einem Kandidaten ausprobiert, der eine Hausaufgabe gemacht hatte. „Führen Sie mich durch Ihre KI-Gespräche, während Sie daran gearbeitet haben.”

Man kann die Reise nicht fälschen.

Pixel art of a scrolling chat log on a screen with green and red highlights showing iteration and course corrections
Der Chat-Verlauf offenbart das Denken, nicht nur das Ergebnis

Der Chat-Verlauf des Kandidaten zeigte Iteration. Sackgassen. Momente, in denen er den Vorschlägen der KI widersprach. Ein Austausch, in dem er geschrieben hatte: „Das stimmt nicht mit dem überein, was ich über die API weiß — kannst du die Dokumentation prüfen?” Die KI hatte sich geirrt. Er hatte es bemerkt.

Diese fünfzehnminütige Durchsicht sagte meiner Freundin mehr als das polierte Endergebnis je hätte sagen können. Sie sah seinen Denkprozess. Seine Verifizierungsgewohnheiten. Die Fragen, die er stellte, wenn etwas sich falsch anfühlte.

Gartner sagt voraus, dass 50 % der Organisationen bis 2026 KI-freie Bewertungsrunden einführen werden. Ich verstehe den Impuls. Aber nach allem, was meine Freunde im Recruiting mir erzählen, ist der bessere Ansatz das Gegenteil: Lassen Sie die Kandidaten KI nutzen, und lassen Sie sie dann ihre Arbeit zeigen.


Der wahre Test

Jede Geschichte, die ich gehört habe, weist auf die gleiche grundlegende Wahrheit hin.

Die beste KI-Einstellung ist nicht die Person, die die meisten Tools auswendig gelernt oder die meisten Zertifizierungen erworben hat. Es ist die Person, die weiß, was zu tun ist, wenn die Tools versagen. Wenn die selbstbewusste Antwort falsch ist. Wenn das polierte Ergebnis einen fundamentalen Fehler verbirgt.

Das ist die Kompetenz, die nicht im Lebenslauf auftaucht. Und es ist die einzige, die zählt.

Also hier meine Frage an Sie: Was ist die beste Interviewfrage, die Sie je erlebt — oder von der Sie gehört haben — die wirklich die KI-Kompetenz einer Person offenbart hat? Ich bin wirklich neugierig. Schreiben Sie es in die Kommentare.