16.12.2025
Texterstellung, Bildgenerierung, Analyse von Bewerbungen und Zukunftskompetenzen – wir nutzen die Künstliche Intelligenz inzwischen fast selbstverständlich in Ausbildung und Arbeit. Doch gerade im letzten Bereich stellt sich die Frage: Wie sachlich und neutral ist die KI wirklich? Kann eine KI unvoreingenommen, tolerant und objektiv sein?
Anonym, faktenbasiert, neutral: Das kann die KI im Bewerbungsprozess leisten
Bewerbungsprozesse vorurteilsfrei zu gestalten ist schon lange das Ziel vieler Unternehmen. Um dem näherzukommen, können Personalverantwortliche geschult und anonyme Bewerbungsverfahren eingeführt werden. Doch ist ein vollständig diskriminierungsfreier Prozess überhaupt möglich, solange er von Menschen gesteuert wird? Könnte KI hier eine Lösung sein und so trainiert werden, dass sie alle Vorurteile und Stereotype weitgehend ausblendet?
Hier die Fakten: KI ist in der Lage, personenbezogene Daten, wie Name, Herkunft, Alter und Geschlecht aus Bewerbungsunterlagen zu entfernen und so einen anonymen Bewerbungsprozess zu gestalten. Das ermöglicht den Personalverantwortlichen, eine objektivere Auswahl unter den Bewerbenden zu treffen. Auch die nächste Bewertungsebene kann noch KI-gestützt ablaufen: Anhand klar definierter, jobrelevanter Kriterien kann das Tool die Bewerbungsunterlagen bewerten. So können notwendige Qualifikationen, Erfahrungen oder Fähigkeiten als Voraussetzungen hinterlegt werden.
Weitere subjektive Einflüsse in der Prüfung werden reduziert. KI-Systeme können so trainiert werden, dass sie Diskriminierungsmuster in Bewerbungsverfahren erkennen und Bias reduzieren – vollständig ausschließen lässt es sich jedoch nicht. So bewies eine Studie der Uni Bielefeld, dass KI-Systeme durchaus einem Gender-Bias unterliegen. Durch eine Unterrepräsentation von Frauen in den Trainingsdaten der KI führte zu systematischen Verzerrungen und damit zu geschlechterspezifischen Stereotypisierungen. So kam es beispielsweise dazu, dass sich ein global agierender Online-Versandhandel mit Diskriminierungsvorwürfen konfrontiert sah, da die genutzte KI Männer bevorzugte und die Lebensläufe von Frauen häufiger aussortierte.
Dieser Fall verdeutlicht den dringenden Handlungsbedarf bei dieser Thematik. KI-Systeme müssen demnach gut angelernt und ausgestattet werden, um durch gezielte Analysen die Diversität im Unternehmen zu messen und bei Bedarf zu fördern. So können beispielsweise Einstellungsquoten erfüllt werden.
Die Blackbox KI: rechtlicher Rahmen, ungewollte Diskriminierung und Entscheidungsfindung
Hier die Probleme: Je nachdem, mit welchen Daten die KI trainiert wird, können sich eben doch diskriminierende Muster und Bias einstellen. Beispiel: Gender-Bias. So können diese ungewollt reproduziert werden. Weiterhin sind die Entscheidungen der KI nicht unbedingt transparent und nachvollziehbar. In die Logik können wir wie bei einer Blackbox nicht hineinsehen, was das Nachvollziehen der Entscheidungen zum Teil schwer macht. Das erschwert wiederum die Kontrolle und die Korrektur der KI-Entscheidungen und Auswertungen.
Eine weitere Hürde ist der Datenschutz: In Deutschland und der EU gelten strenge Datenschutzrichtlinien und Antidiskriminierungsgesetze. Diese sind wichtig und müssen unbedingt befolgt werden. Beim Einsatz von Künstlicher Intelligenz müssen Gesetze, wie das Allgemeine Gleichbehandlungsgesetz und die Datenschutzgrundverordnung unbedingt beachtet werden. Relevant ist dies vor allem in Recruiting- und Bewerbungsprozessen. Es sollte daher unbedingt ein DSGVO-konformes Tool verwendet oder personenbezogene Daten weggelassen werden.
Nach dem EU-KI-Verordnung wird der Einsatz von Künstlicher Intelligenz in Bewerbungsverfahren mit einem hohen Risiko bewertet. Im folgenden Leitfaden haben wir zusammengefasst, wie im EU AI Act Künstliche Intelligenz nach Risikoklassen eingeteilt wird und was für Dokumentations- sowie Transparenzpflichten für Unternehmen entstehen.
KI-gestützter Auswahlprozess: So kann es laufen
Machen wir es praktisch: Stellen wir uns vor, ein Ausbildungsunternehmen hat 60 Bewerbungen vorliegen für zehn Ausbildungsplätze. Um Zeit und Ressourcen zu sparen, sollen diese Bewerbungen zunächst einen KI-gestützten Auswahlprozess durchlaufen. Dabei werden die eingegangenen Unterlagen in einem ersten Schritt analysiert und diejenigen aussortiert, die den Mindestanforderungen nicht entsprechen. Diese werden vom Unternehmen selbst per Prompt festgelegt. Beispielsweise können Bewerbungen aussortiert werden, die besonders viele Rechtschreibfehler enthalten.
Doch hier macht die Neutralität der KI schon die ersten Probleme. Denn aussortiert werden gegebenenfalls auch Kandidatinnen und Kandidaten, die fachlich durchaus geeignet sind, aber vielleicht eine Lese-Rechtschreib-Schwäche haben.
Dieser Schritt könnte also, je nach Ausbildungsberuf und Voraussetzungen, auch übersprungen werden. In einem nächsten Schritt kann die KI dann beauftragt werden, diejenigen Bewerbungen herauszufiltern, die sich zu weit von den definierten Anforderungen entfernen. Anschließend können weitere Prompts erstellt werden, um die Wunschmenge an Bewerbungen zu erhalten – zum Beispiel 15-20.
Die Parameter, die angelegt werden und die Kriterien, nach denen gefiltert wird, legt das Unternehmen selbst fest. So kann beispielsweise die entsprechende Stellenausschreibung inklusive Profil dem Prompt beigefügt werden. Die KI wird beauftragt, das Soll- mit den bestehenden Ist-Profilen zu vergleichen. Genau an dieser Stelle können Unternehmen in die Falle der Diskriminierung tappen – und das unbeabsichtigt. Geben wir beispielsweise in der Stellenausschreibung ein Mindestalter an oder suchen explizit nach Personen, die die deutsche Sprache beherrschen, grenzt die KI alle anderen Bewerbungen automatisch aus. Bei einer Prüfung durch eine reale Person, können andere Stärken, Argumente oder Gründe gefunden werden, die fehlende Kompetenzen gegebenenfalls neutralisieren.
Und was bedeutet das alles im Ergebnis?
Um KI-gestützte Bewerbungsverfahren erfolgreich einzusetzen, sollten dabei folgende Schritte beachtet werden
- Wähle die Trainingsdaten der KI gründlich aus. Beziehe dein Unternehmensprofil, das Leitbild und deine Verantwortung in den Bereichen Vielfalt, Antidiskriminierung und Nachhaltigkeit mit ein. Gib an, welche Werte ihr im Unternehmen vertretet.
- Prüfe die KI regelmäßig auf Fairness und trainiere diese mit aktuellen Daten. So stellst du sicher, dass die KI auch langfristig auf Stereotype verzichtet.
- Reflektiere die Ergebnisse der KI durch die „menschliche Brille“.
Wenn im eigenen Unternehmen dazu nicht die notwendigen Kompetenzen vorhanden sind, empfiehlt es sich in Rücksprache mit einem spezialisierten IT-Dienstleister zu gehen.
Fazit: Kann die KI den Menschen im Auswahlprozess ersetzen?
Welche Schlussfolgerungen können wir ziehen? Ist die KI nun die bessere Personalabteilung? Nein! Die KI kann zwar eine große Unterstützung sein, um eine erste Auswahl zu treffen und Bewerbungen herauszufiltern, die nicht den Standards des Unternehmens, den Anforderungen des Profils oder den Rahmenbedingungen der Ausbildung entsprechen. Sie kann aber nicht feststellen, ob die individuelle Situation oder Eignung einer bewerbenden Person nicht trotzdem eine genauere Prüfung oder sogar die Einladung zu einem Vorstellungsgespräch rechtfertigt. Dieser Prozess sollte weiterhin „menschengemacht“ sein.
Letztendlich liegt die faire, vielfaltsorientierte und ethisch vertretbare Entscheidung darüber, ob eine Person für eine Ausbildung in Frage kommt eben doch bei den Ausbilderinnen und Ausbildern, der Personalabteilung oder der Geschäftsführung. Die Künstliche Intelligenz kann dabei lediglich ein Begleitinstrument sein. Sofern der Prozess transparent, bewusst und gut gesteuert ist, kann sie wertvolle Unterstützung leisten.
Quellen
Büro für Technikfolgen-Abschätzung beim deutschen Bundestag: Robo-Recruiting – Einsatz künstlicher Intelligenz bei der Personalauswahl, 2020
Bertelsmann Stiftung: Robo Recruiting – Dank Algorithmen bessere Mitarbeiter:innen finden? 2019
IZA – Institute of Labor Economics: Mit künstlicher Intelligenz gegen Diskriminierung im Bewerbungsprozess, 2018
Hochschule Bielefeld: Studie „Fit für KI?“, 2024









