top of page

KI im Recruiting: BIAS-Fehler mit der richtigen Vorbereitung minimieren

  • Autorenbild: Marcus
    Marcus
  • 26. Sept.
  • 4 Min. Lesezeit
Recruiting mit digitaler Intelligenz
Recruiting mit digitaler Intelligenz

Der Einsatz von künstlicher Intelligenz im Recruiting verspricht Effizienz, bessere Passung und mehr Transparenz. Doch die Realität ist komplexer: Wenn die Algorithmen, die Shortlists erstellen, dieselben Denkmuster widerspiegeln wie die Entscheider:innen, entsteht kaum echte Vielfalt – sondern nur eine „scheinbare“. Das Ergebnis: Unternehmen gewinnen weder an Diversität noch an Innovationskraft.


Wie kann man seine Systeme so gestalten, dass sie echte Vielfalt fördern? Konkrete Tipps für Recruitingteams und Anregungen für Bewerber:innen, die verstehen wollen, wie sie durch den Auswahlprozess kommen, ohne sich zu verbiegen.



Warum Bias ein strukturelles Problem ist


Algorithmen im Recruiting basieren auf Daten. Doch diese Daten spiegeln immer auch die Vergangenheit wider – und damit bestehende Vorurteile. Beispiele:


  • Amazon Recruiting Tool (2018): Ein KI-gestütztes System bewertete Frauen systematisch schlechter, weil es aus historischen Daten „lernte“, in denen Männer in technischen Berufen überrepräsentiert waren.

  • Namens- und Herkunftsbias: Studien zeigen, dass Bewerbungen mit „nicht deutsch klingenden Namen“ in Deutschland eine bis zu 30 % geringere Chance auf ein Vorstellungsgespräch haben – unabhängig von Qualifikation. Ein Algorithmus, der historische Einstellungsentscheidungen nachbildet, reproduziert dieses Muster.

  • Alter & Karrierewege: Viele Systeme gewichten „lineare Karrieren“ stärker. Kandidat:innen mit Brüchen, Quereinstiegen oder längeren Pausen fallen durchs Raster – obwohl gerade diese Hintergründe wertvolle Perspektiven einbringen.


Kurz: Bias in Daten = Bias im Algorithmus. Wenn Entscheidungskriterien von Recruiter:innen dieselben Filter implizieren, entsteht ein Kreislauf, der Vielfalt verhindert.


Vielfalt als Wunschvorstellung vs. echte Vielfalt


Trotz der vielen Meldungen über die Streichung von Diversitätszielen bei vielen US-Unternehmen, die so versuchen, ihrem Präsidenten entgegenzukommen und sich so Vorteile erhoffen, bleibt das Thema bei sehr vielen Unternehmen - zurecht - auf der Tagesordnung. Denn Diversity schafft Erfolg, das haben inzwischen genug Studien belegt. Viele Unternehmen haben daher immer noch ambitionierte Diversitätsziele.


Doch wenn die Shortlists zwar formal divers sind, die Bewertungskriterien aber am Ende „alte Muster“ verstärken, bleibt Diversität nur oberflächlich. Beispiele gefällig:


  • Eine Shortlist enthält Frauen und Männer, doch im Interview zählen Kriterien wie „kulturelle Passung“, die oft unbewusst so interpretiert werden, dass „ähnlich zu uns“ besser bewertet wird.

  • Bewerber:innen mit Migrationshintergrund landen zwar häufiger auf Shortlists, scheitern aber an subtilen Soft-Skill-Kriterien, die nicht objektiv messbar sind.

  • Altersdiversität wird formal erreicht, doch der Bias „zu teuer“ oder „nicht digital affin“ sorgt dafür, dass ältere Kandidat:innen nie in die engere Auswahl kommen.


Echte Vielfalt bedeutet: nicht nur sichtbare Merkmale (Geschlecht, Alter, Herkunft) zu repräsentieren, sondern auch unterschiedliche Denkweisen, Erfahrungen und Perspektiven in Teams zu integrieren.

Handlungsempfehlungen für Recruitingteams – ganz konkret


Was können Recruiting-Teams konkret tun, um zu verhindern, dass die eingesetzte Technik nicht die angestrebte Wirkung konterkariert? Hier ein paar Ansätze:


1. Datengrundlage kritisch prüfen


  • Audit-Check durchführen: Lass ein Sample von 100 bis 200 anonymisierten Bewerbungen durch das KI-System laufen. Vergleiche die Ergebnisse: Werden bestimmte Gruppen (Frauen, ältere Bewerbende, Quereinsteiger:innen) signifikant seltener vorgeschlagen?

  • Tool-Tipp: Open-Source-Frameworks wie AI Fairness 360 (IBM) oder Fairlearn (Microsoft) helfen, Bias in Trainingsdaten und Modellen sichtbar zu machen.

  • Praxis: Entferne „harte Filter“ wie Abschlussjahr, bestimmte Hochschulen oder Lücken im Lebenslauf. Diese Faktoren sind oft Proxy-Variablen für Alter, Geschlecht oder soziale Herkunft.


2. Vielfalt messbar machen


  • Diversity-KPIs einführen: Erhebe Kennzahlen wie „Anteil Frauen/50+/Migrationshintergrund in der Shortlist vs. in Bewerbungen“. So erkennst du, ob die KI bestimmte Gruppen systematisch ausfiltert.

  • Dashboard einrichten: Schon ein einfaches Excel/Google Sheet reicht, um nach jedem Bewerbungsprozess Abweichungen sichtbar zu machen.

  • Konkretere Zielwerte: Statt nur „50 % Frauen in der Shortlist“ → „mindestens 30 % der Shortlist-Kandidaten haben nicht-lineare Karrieren (z. B. Branchenwechsel, Weiterbildung, Quereinstieg)“.



3. Bewertungskriterien objektivieren


  • Interviewleitfäden standardisieren: Alle Bewerber:innen bekommen dieselben Fragen. So vergleichst du Antworten und nicht die Person.

  • Bewertungsskalen entwickeln und klare Kriterien liefern: Statt „Sympathie 1–10“ → definierte Skalen: „Kann komplexe Probleme strukturieren (1 = keine Beispiele, 5 = mehrere konkrete Beispiele mit Erfolgen)“.

  • Praxisbeispiel: Ersetze „Cultural Fit“ durch „Cultural Add“. Frage im Interview: „Welche Perspektiven bringen Sie ein, die in unserem Team aktuell fehlen?“



4. Mensch & Maschine kombinieren


  • Diverse Panels einsetzen: Stelle sicher, dass Shortlists nicht nur von der KI, sondern auch von mindestens zwei Recruiter:innen aus unterschiedlichen Teams/Altersgruppen gesichtet werden.

  • Bias-Buddy-System: Jede finale Entscheidung wird von einem zweiten Hiring Manager gegen kontrolliert, um unbewusste Vorurteile aufzudecken.

  • Konkretes Vorgehen: Teste Shortlists blind – ohne Namen, Alter oder Foto – und vergleiche mit der „normalen“ Auswahl. Oft fallen Unterschiede sofort auf.



5. Kandidatenerfahrung verbessern


  • Klare Kommunikation bereits vor der Bewerbung: Kommuniziere schon auf der Website, ob und wie KI im Auswahlprozess genutzt wird.

  • Feedback automatisieren: Nutze Standardmails, in denen objektive Kriterien erläutert werden („Wir haben Kandidat:innen bevorzugt, die XY-Erfahrung nachweisen konnten“).

  • „Right to explanation“ einführen: Bewerbende können auf Anfrage einen Auszug der Kriterien bekommen, nach denen sie gefiltert wurden.

  • Praxisidee: Eine kurze Videobotschaft im Absageprozess („So treffen wir Entscheidungen, so können Sie sich beim nächsten Mal verbessern“) wirkt vertrauensbildend und kostet fast nichts.


Mit diesen konkreten To-dos, Tools und Praxisbeispielen haben Recruitingteams sofort Ansatzpunkte, wie sie Bias verringern und echte Vielfalt fördern – und Bewerbende wissen, wie sie ihre Chancen verbessern, ohne sich selbst zu verleugnen.



Bonus für Bewerber:innen – mit Praxisfokus


  1. CV-Scanner testen: Nutze kostenlose ATS-Checker wie Jobscan oder CVViZ, um zu sehen, ob deine Bewerbung die relevanten Keywords enthält.

  2. „Skills First“-Ansatz: Liste konkrete Tools, Methoden und Erfolge im Lebenslauf auf (z. B. „Einführung von Salesforce in 12 Ländern“), nicht nur Jobtitel.

  3. Brüche proaktiv erklären: Eine zweijährige Pflegepause im Lebenslauf? Direkt schreiben: „Familienpflege – Organisation komplexer Abläufe und Krisenmanagement“. Algorithmen werten sonst nur die Lücke.

  4. Unternehmen beobachten: Arbeitgeber, die Transparenz über ihre Auswahlprozesse bieten (z. B. SAP, Telekom), sind meist fairer. Frage im Gespräch ruhig: „Welche Kriterien nutzt Ihr Algorithmus?“



Fazit


Recruiting mithilfe von KI ist gekommen, um zu bleiben – aber Fairness und Vielfalt entstehen nicht automatisch. Ohne bewusste Gestaltung laufen Unternehmen Gefahr, alte Muster mit neuer Technologie zu zementieren.


Die Aufgabe lautet: Diversität nicht nur auf dem Papier, sondern im echten Team zu schaffen. Und das hat nichts mit "woke"-sein zu tun, das ist simples wirtschaftliches Denken. Es gelingt aber nur, wenn Daten kritisch hinterfragt, Kriterien transparent gemacht und Menschen bewusst in Entscheidungen eingebunden werden.


Für Bewerber:innen gilt: Wer versteht, wie Systeme arbeiten, kann seine Chancen verbessern – ohne böswillig zu tricksen.



Kommentare


Binningen, Schweiz

Abo-Formular

Vielen Dank!

  • LinkedIn
  • Twitter
  • Pinterest
  • Facebook

©2020 Marcus Fischer

bottom of page