top of page

KI im Recruiting: Was der EU AI Act wirklich bedeutet (und was nicht)

Aktualisiert: 21. Jan.


Darf Künstliche Intelligenz künftig überhaupt noch im Recruiting eingesetzt werden?Und wenn ja – unter welchen Bedingungen?

Was viele HR-Verantwortliche aktuell beschäftigt, ist keine theoretische Debatte mehr. Mit dem EU AI Act schafft die Europäische Union erstmals einen verbindlichen Rechtsrahmen für den Einsatz von KI – auch im Personalwesen. Für Unternehmen bedeutet das vor allem eines: Orientierung gewinnen, Risiken verstehen und bestehende Prozesse kritisch überprüfen.


Was der EU AI Act grundsätzlich regelt

Der EU AI Act ist keine abstrakte Ethik-Leitlinie, sondern eine konkrete Produktregulierung. Er legt fest, welche KI-Systeme in der Europäischen Union erlaubt sind, welche verboten sind und unter welchen Bedingungen Hochrisiko-Systeme eingesetzt werden dürfen. Die Verordnung schafft einen einheitlichen Rechtsrahmen für alle 27 EU-Mitgliedstaaten und gilt sowohl für das Inverkehrbringen als auch für die Nutzung von KI-Systemen im Unternehmensalltag.


Dabei verfolgt der EU AI Act einen risikobasierten Ansatz. Entscheidend ist nicht, welche Technologie eingesetzt wird, sondern welche Auswirkungen sie auf Menschen und ihre Grundrechte hat. Je größer die Konsequenzen einer KI-gestützten Anwendung, desto strenger sind die regulatorischen Anforderungen.


Grundsätzlich unterscheidet der EU AI Act vier Risikoklassen:

  • Minimales Risiko: etwa viele Spamfilter oder Übersetzungstools.

  • Begrenztes Risiko: KI mit Transparenzpflicht, z. B. Chatbots, bei denen Nutzer:innen wissen müssen, dass sie mit KI interagieren.

  • Hohes Risiko: KI, die über zentrale Lebensbereiche von Menschen mitentscheidet – u. a. in Bildung, Kreditvergabe, Justiz und Beschäftigung/Recruiting.

  • Verbotenes Risiko: bestimmte Praktiken, z. B. manipulative Systeme, Social Scoring oder Emotionserkennung im Arbeitsplatzkontext (mit engen Ausnahmen).


Für den HR-Bereich besonders wichtig: KI-Systeme, die für „employment, workers management and access to self‑employment“ genutzt werden – also u. a. für Recruiting, Auswahl, Beförderung oder Kündigung – werden in der Praxis fast durchgängig als Hochrisiko eingestuft, insbesondere wenn Profiling im Spiel ist.


Diese Hochrisiko-Klassifizierung hat erhebliche praktische Folgen. Sie bringt umfangreiche Pflichten mit sich, darunter Registrierung, technische Dokumentation, laufendes Monitoring, Risikomanagement sowie sogenannte AI-Vigilance-Prozesse. Der damit verbundene administrative und finanzielle Aufwand ist insbesondere für HR-Teams und mittelständische Unternehmen erheblich. In der Praxis führt das häufig dazu, dass der Einsatz hochriskanter KI-Systeme wirtschaftlich kaum noch sinnvoll oder nur eingeschränkt skalierbar ist – trotz grundsätzlich vorhandenem Nutzen.


Was der EU AI Act fürs Recruiting bedeutet

Betroffen sind vor allem Systeme, die Einfluss auf Vorauswahl- oder Entscheidungsprozesse nehmen oder Kandidat:innen profilieren. Dazu zählen unter anderem:

  • KI-gestützte Analyse und Bewertung von Lebensläufen.

  • Matching-Algorithmen und Ranking-Systeme für Kandidat:innen.

  • Tools zur automatischen Erstellung von Shortlists oder Empfehlungen.

  • Chatbots im Bewerbungsprozess, die Antworten vorqualifizieren oder filtern.

  • KI-gestützte Interview- oder Verhaltensanalysen, insbesondere für Profiling und Scoring.


Die zentrale Leitlinie ist klar: Je näher eine KI an der eigentlichen Auswahlentscheidung agiert und je stärker sie Personen profiliert, desto eher fällt sie in die Hochrisiko-Kategorie – und desto strenger sind die Anforderungen an Transparenz, Kontrolle und Dokumentation.


Zusätzlich gilt: KI-Systeme zur Emotionserkennung im Arbeitsplatzkontext – etwa Tools, die anhand von Gesichtsausdruck oder Stimme angebliche Emotionen für Leistungs- oder Eignungsentscheidungen heranziehen – sind grundsätzlich verboten.


Was Unternehmen jetzt konkret beachten müssen

Der EU AI Act verbietet KI im Recruiting nicht. KI-gestützte Screening‑, Matching‑ oder Bewertungs‑Tools bleiben grundsätzlich zulässig, werden jedoch als Hochrisiko‑Systeme streng reguliert. Entscheidend ist eine klar strukturierte und verantwortliche Entscheidungsarchitektur.


Für Unternehmen ergeben sich insbesondere folgende Anforderungen:

  • Transparenz: Es muss nachvollziehbar sein, wie KI-Ergebnisse zustande kommen und welche Faktoren in Scorings einfließen.

  • Dokumentation: Kriterien, Datenquellen, Versionen und Bewertungslogiken müssen festgehalten und auditierbar sein.

  • Nachvollziehbarkeit: Entscheidungen müssen von Menschen überprüfbar bleiben; Logs und Ergebnisse müssen rückverfolgbar sein.

  • Menschliche Kontrolle: Die finale Entscheidung darf nicht unbemerkt automatisiert durchlaufen; echte Human Oversight ist Pflicht, kein Alibi-Häkchen.

  • Klare Verantwortlichkeiten: Zuständigkeiten bei Fehlern, Verzerrungen oder Beschwerden müssen klar geregelt werden – sowohl beim Anbieter als auch beim einsetzenden Unternehmen.


Der EU AI Act verlangt keine perfekte KI – sondern einen verantwortbaren, erklärbaren und kontrollierten Einsatz von Hochrisiko-Systemen.


Was weiterhin möglich (und sinnvoll) bleibt

Der Einsatz von KI im Recruiting wird nicht abgeschafft, sondern neu eingeordnet. Systeme, die unterstützen statt alleine entscheiden, bleiben nicht nur erlaubt, sondern sinnvoll – gerade in Kombination mit klar definierten menschlichen Entscheidungsprozessen.


Dazu gehören insbesondere Anwendungen, die:

  • Bewerbungsunterlagen strukturieren, normalisieren und vergleichbar machen, ohne automatisch Zu- oder Absagen zu generieren.

  • große Volumina vorsortieren und priorisieren, während die finale Auswahl beim Menschen liegt.

  • Analyse- und Entscheidungshilfen liefern (z. B. Skills-Profile, Abweichungen, Konsistenzchecks), die Recruiter:innen transparent nachvollziehen können.

  • Prozesse effizienter gestalten, ohne in verbotene Praktiken wie Emotionserkennung oder intransparente Blackbox-Entscheidungen zu rutschen.


Kurz gesagt: KI darf entlasten, strukturieren und vorbereiten – aber nicht die verantwortliche Entscheidung ersetzen.


Fazit

Der EU AI Act verändert nicht, ob KI im Recruiting eingesetzt werden darf – Hochrisiko-Systeme im HR-Bereich sind ausdrücklich zulässig, aber an strenge Auflagen gebunden. Er verändert, wie Unternehmen Verantwortung übernehmen: durch klare Governance, dokumentierte Prozesse, echte menschliche Kontrolle und bewusste Grenzen bei verbotenen Praktiken wie der Emotionserkennung im Arbeitsplatzkontext.


Transparenz, Nachvollziehbarkeit und klare Entscheidungsstrukturen werden damit zu Qualitätsmerkmalen moderner HR-Arbeit. Unternehmen, die KI verantwortungsvoll einsetzen, erfüllen nicht nur regulatorische Anforderungen – sie stärken auch Vertrauen bei Bewerber:innen, Fachbereichen und Mitarbeitenden,


Hinweis: Dieser Beitrag stellt keine Rechtsberatung dar und ersetzt keine individuelle rechtliche Prüfung. Trotz sorgfältiger Recherche kann keine Gewähr für Vollständigkeit oder Aktualität übernommen werden.
 
 
 

Kommentare


bottom of page