top of page

Vom Interview zur Sicherheitslücke: KI-basierter Candidate Fraud im Recruiting

  • Autorenbild: Marcus Fischer
    Marcus Fischer
  • vor 3 Tagen
  • 5 Min. Lesezeit

Dass Bewerbungen heute mithilfe unserer virtuellen, supersmarten Bewerbungshelfer erstellt werden, ist mittlerweile – ob man das gut findet oder nicht – etabliert. Aber wie sieht es danach aus? In vielen Unternehmen im DACH-Raum endet kein Auswahlprozess ohne persönliches Kennenlernen vor der Vertragsunterzeichnung. Und genau deshalb bleibt KI-gestützter Candidate Fraud lange unsichtbar. Nicht, weil er im persönlichen Gespräch funktioniert – sondern weil er dort endet.


Das Problem liegt eine Stufe weiter vorn. In der digitalen Vorauswahl wirken Kandidatinnen und Kandidaten fachlich präzise, rhetorisch sicher und erstaunlich konsistent. Video-Interviews, asynchrone Assessments oder strukturierte Screening-Gespräche liefern ein Bild, das überzeugt – und den Weg ins persönliche Interview öffnet. Erst dort wird sichtbar, dass Teile dieses Eindrucks nicht aus eigener Kompetenz stammen, sondern technisch unterstützt wurden.


KI-basierte Interview-Assistenz, Voice-Cloning-ähnliche Glättung oder Echtzeit-Antwortgeneratoren zielen nicht darauf ab, den gesamten Auswahlprozess zu ersetzen. Ihr Zweck ist es, die kritische Hürde der Vorauswahl zu überwinden. Der Betrug endet nicht beim Onboarding, sondern deutlich früher – bleibt jedoch folgenreich.


Laut dem Greenhouse "AI in Hiring Report 2025" berichten 74 Prozent der Hiring Manager von mehr Betrugsverdachtsfällen als im Vorjahr. Gemeint sind dabei nicht spektakuläre Deepfake-Fälle, sondern zunehmend subtile Manipulationen einzelner Auswahlmomente. Für Unternehmen bedeutet das: Prozesse, die auf digitale Effizienz setzen, verlieren dort an Aussagekraft, wo sie eigentlich filtern sollen.


Gerade im DACH-Kontext ist das relevant. Auch wenn die finale Entscheidung meist persönlich abgesichert ist, werden Shortlists heute in hohem Mass digital vorgeprägt. Wer dort falsche Signale erzeugt, beeinflusst Zeit, Ressourcen und die Entscheidungsqualität – selbst wenn der Fake am Ende auffliegt.




Die neue Fraud-Landschaft: Von Prompt Injection bis Deepfake


Die Zeiten, in denen Bewerbende ihre Erfahrung etwas aufhübschten, sind nicht vorbei. Aber sie werden von einer neuen Kategorie des Betrugs überschattet, die systematisch und technologiegetrieben ist.


Greenhouse hat 2025 in einer Studie ermittelt, dass 41 Prozent der US-Kandidaten sogenannte "Prompt Injections" nutzen – versteckten Text in Bewerbungsunterlagen, der AI-Screening-Systeme manipulieren soll. Über 50 Prozent derjenigen, die es noch nicht tun, überlegen es sich. Das allein wäre schon problematisch genug. Aber es geht weiter.


Die neueste Entwicklung: KI-Avatare und Voice Cloning in Videointerviews. Kandidaten nutzen Tools, die in Echtzeit ihr Gesicht durch ein KI-generiertes ersetzen, ihre Stimme klonen oder sogar komplett KI-generierte Personen ins Gespräch schicken. In einigen dokumentierten Fällen sass die eigentliche Person gar nicht vor der Kamera – sondern ein von einer KI gesteuerter Avatar, der auf eine Datenbank mit vorbereiteten Antworten zugriff.


Und dann gibt es noch die subtileren Varianten: Tools wie "Interview Copilot", die während eines Live-Interviews im Hintergrund laufen, Fragen analysieren und Echtzeit-Antworten auf einen zweiten Bildschirm anzeigen. Der Kandidat liest ab – und wirkt dabei erstaunlich kompetent.



Die Zahlen: Vertrauen auf Rekordtief


Die Auswirkungen sind messbar. Nur 8 Prozent der Kandidaten glauben, dass AI-Screening-Systeme fair sind. Gleichzeitig berichten Recruiter von 4- bis 5-mal so vielen Bewerbungen wie noch vor einem Monat – viele davon AI-generiert, oft in Massen verschickt, kaum individualisiert.


Kandidaten fühlen sich von AI-Filtern unfair aussortiert. Recruiter fühlen sich von AI-generierten Massenbewerbungen überflutet. Und in der Mitte entsteht ein Teufelskreis: Kandidaten setzen KI ein, um AI-Filter zu umgehen. Recruiter verschärfen die Filter. Kandidaten werden kreativer. Und so weiter.


Das Ergebnis: Vertrauen erodiert auf beiden Seiten.



Warum passiert das – und warum jetzt?


Die Gründe sind vielfältig:


Die Technologie ist verfügbar und günstig.

Deepfake-Tools, die vor drei Jahren noch Expertenwissen erforderten, sind heute als App verfügbar. Voice Cloning kostet wenige Dollar. Echtzeit-Interview-Assistenten gibt es als Browser-Extension.


Der Druck auf Bewerbende ist enorm.

In einem Arbeitsmarkt, der zunehmend von AI-Screening dominiert wird, entsteht das Gefühl: Entweder man nutzt die gleichen Werkzeuge – oder man hat keine Chance.


Die Anonymität des digitalen Bewerbungsprozesses senkt die Hemmschwelle.

Bei einem Präsenz-Interview einen Avatar zu schicken, ist schlicht unmöglich. Bei einem Video-Call mit schlechter Verbindung und durchschnittlicher Kamera? Machbar.


Es gibt kaum Konsequenzen.

Selbst wenn der Betrug auffliegt, kommt in den meisten Fällen nur noch eine stille Absage.



DACH-Perspektive: Vorsichtiger, aber nicht immun


In der DACH-Region ist das Phänomen noch nicht so ausgeprägt wie in den USA. Das liegt zum Teil an strengeren Datenschutzregeln (DSGVO), zum Teil an kulturellen Unterschieden. Deutsche, österreichische und Schweizer Bewerbungsprozesse sind traditionell formeller, persönlicher – und damit schwerer zu manipulieren.


Aber die Anzeichen mehren sich. LinkedIn-Gruppen im deutschsprachigen Raum diskutieren zunehmend über Tools zur "Bewerbungsoptimierung". Auf Reddit tauchen Anleitungen auf, wie man AI-Tools in deutschen Video-Interviews einsetzt. Und die ersten HR-Manager berichten von Verdachtsfällen, bei denen Kandidaten im Interview anders wirkten als am ersten Arbeitstag.


Das Problem wird kommen. Die Frage ist nur: Wie schnell – und wie vorbereitet – sind Unternehmen?



Was Recruiter tun können – praktisch und realistisch


Die schlechte Nachricht: Es gibt keine perfekte Lösung. Die gute Nachricht: Es gibt wirksame Massnahmen.


Erstens: Spontanität einbauen.

Wer im Interview nur vorgefertigte Fragen stellt, macht es AI-Tools leicht. Wer spontan nachhakt, ein Thema vertieft oder das Gespräch in eine unerwartete Richtung lenkt, erhöht die Chance, echte Kompetenz von abgelesenen Antworten zu unterscheiden.


Zweitens: Skill-Assessments statt nur Interviews.

Für Tech-Rollen: Live-Coding-Challenges, bei denen der Bildschirm geteilt wird und in Echtzeit gearbeitet werden muss. Für andere Bereiche: Case Studies, die spontan gelöst werden müssen, oder Rollenspiele, die Improvisation erfordern.


Drittens: Mehrere Touchpoints schaffen.

Ein einzelnes Video-Interview ist anfällig. Zwei Gespräche mit unterschiedlichen Personen, dazu ein informelles Vorgespräch, vielleicht ein kurzes Telefonat – wer mehrfach konsistent auftreten muss, hat es schwerer, durchgehend zu täuschen.


Viertens: Auf Authentizitäts-Signale achten.

Stimmen Mimik, Sprache und Inhalt überein? Gibt es natürliche Pausen, Denkmomente, kleine Unsicherheiten? Oder wirkt alles zu glatt, zu perfekt?


Fünftens: Technologie mit Technologie bekämpfen.

Es gibt erste Tools, die Deepfakes in Videocalls erkennen sollen. Sie sind nicht perfekt, aber sie werden besser. Gleiches gilt für Voice-Cloning-Detection. Wer in sensiblen Bereichen rekrutiert, sollte diese Optionen prüfen.



Die Grenzen der Technik – und die Rolle des Menschen


Aber: Technologie allein wird das Problem nicht lösen. Denn jede Detection kann umgangen werden; jedes System hat Lücken. Entscheidend ist der menschliche Faktor.

Recruiter müssen geschult werden, um subtile Signale zu erkennen. Inkonsistenzen in der Kommunikation, unnatürliche Sprache, fehlende Tiefe bei Nachfragen. Das sind Fähigkeiten, die nicht durch AI ersetzt werden können – zumindest nicht in absehbarer Zeit.


Und es braucht Klarheit: Welche Konsequenzen hat Fraud, wenn er auffliegt? Bisher meist: keine. Das muss sich ändern. Wer erwischt wird, sollte nicht nur abgelehnt werden – sondern dauerhaft gesperrt, intern dokumentiert, im Zweifel rechtlich verfolgt.



Die unbequeme Wahrheit: Auch Unternehmen tragen Verantwortung


Es wäre zu einfach, das Problem nur auf die Bewerbenden zu schieben. Denn Candidate Fraud gedeiht in einem Umfeld, in dem Bewerbende das Gefühl haben: Das System ist gegen mich. Wenn AI-Screening-Systeme intransparent sind, wenn Bewerbungen massenhaft ohne Feedback abgelehnt werden, wenn der Prozess so unpersönlich ist, dass Menschen sich nicht mehr als Menschen behandelt fühlen – dann sinkt die Hemmschwelle, selbst zu täuschen.


Unternehmen, die faire, transparente und menschliche Prozesse schaffen, reduzieren das Risiko. Nicht auf null – aber spürbar.



Ausblick: Der AI-Rüstungswettlauf geht weiter


Die Entwicklung wird nicht aufhören. KI-Tools für Bewerbende werden besser, subtiler, schwerer zu erkennen. Gleichzeitig werden Detection-Systeme ausgefeilter. Es ist ein Rüstungswettlauf – und niemand weiss, wer gewinnt.


Was bleibt, ist eine Grundregel: Vertrauen aufbauen, nicht zerstören. Prozesse schaffen, die so transparent und fair sind, dass sich Betrug nicht lohnt. Und gleichzeitig wachsam bleiben, ohne paranoid zu werden.

Die Balance ist schwierig. Aber sie ist möglich.



Zurück zum Menschen


Candidate Fraud mit KI ist real, es wächst, und es wird nicht verschwinden. Aber es ist kein unbesiegbares Problem. Unternehmen, die Spontanität, Skill-Assessments und menschliche Urteilskraft kombinieren, können sich schützen. Und Unternehmen, die faire, respektvolle Prozesse schaffen, reduzieren den Anreiz zum Betrug.


Am Ende geht es um eine einfache Wahrheit: Menschen wollen von Menschen eingestellt werden. Nicht von Algorithmen. Und nicht von Avataren.



Quellen

  • Greenhouse: "AI in Hiring Report 2025" (https://www.greenhouse.com)

  • Fortune Interview mit Daniel Chait, CEO Greenhouse (2025)

  • Dex CEO Paddy Lambros: Analyse zu AI-generiertem Candidate Fraud (2025)

  • Reddit-Communities: r/recruiting, r/interviews – Diskussionen zu AI-Tools (2024/2025)

  • Security Research zu Deepfake-Detection in Video-Conferencing (diverse Quellen, 2024/2025)

Kommentare


Wie kann ich ihnen helfen?

Lassen Sie uns gemeinsam Ihre Talent Acquisition-Ziele verwirklichen.
Ich unterstütze Sie mit professioneller Beratung und massgeschneiderten Strategien für Ihren Erfolg. Eben mit Passion for Talents.

bottom of page