AI TRANSPARENCY

Wie unsere KI funktioniert — und was sie nicht entscheidet.

HireSift ist ein Entscheidungs­unterstützungs-System, keine automatische Einstellungs­maschine. Hier erklären wir transparent, welche Rolle die KI spielt, welche nicht, und wie wir Bias und automatisierte Entscheidungen aktiv ausschließen.

Stand: April 2026

Was die KI macht — und was nicht

Unsere KI analysiert Bewerbungsunterlagen gegen die vom Arbeitgeber definierten Stellenkriterien. Die Bewertung ist eine strukturierte Zusammenfassung plus Match-Score — nie eine Entscheidung.

Was die KI macht

Extraktion strukturierter Daten aus Lebenslauf-PDFs (Ausbildung, Berufserfahrung, Skills, Sprachkenntnisse), Abgleich mit den konfigurierten Stellenkriterien, Generierung eines numerischen Matching-Scores (0–100) und einer textuellen Begründung. Alles transparent und für den Recruiter einsehbar.

Was die KI NICHT macht

Keine automatische Ablehnung, keine automatische Einstellung, keine Absage-E-Mails ohne menschliche Auslösung, kein Aussortieren unterhalb eines Score-Schwellwerts. Jeder Kandidat bleibt im Recruiter-Dashboard sichtbar, unabhängig vom Score. Alle Entscheidungen liegen beim Menschen.

Was der Recruiter sieht

Der Recruiter sieht sowohl den Match-Score als auch die Begründung der KI — also nicht nur "Kandidat X: 72%", sondern "Kandidat X: 72% — passt bei 4 von 5 Kriterien, fehlt Erfahrung im Bereich Y". So kann der Recruiter den Score einschätzen und bei Bedarf anders entscheiden.

DSGVO Art. 22

Art. 22 DSGVO: Keine automatisierten Einzelentscheidungen

Art. 22 DSGVO verbietet Entscheidungen, die "ausschließlich auf einer automatisierten Verarbeitung beruhen" und rechtliche oder ähnlich gravierende Wirkungen entfalten. HireSift trifft bewusst keine solchen Entscheidungen. Der KI-Score ist eine Empfehlung, keine Entscheidung. Die Plattform hat keine Funktion, die Bewerber ohne menschliche Prüfung ablehnt.

Recht auf menschliche Prüfung

Jeder Bewerber hat das Recht, dass seine Bewerbung durch einen Menschen geprüft wird. HireSift stellt technisch sicher, dass jeder Kandidat im Recruiter-Dashboard sichtbar bleibt und nicht algorithmisch aussortiert wird.

Recht auf Erklärung

Die textuelle KI-Begründung neben dem Score dokumentiert, welche Kriterien erfüllt oder nicht erfüllt wurden. Auf Anfrage kann der Kunde (Arbeitgeber) einem Bewerber diese Begründung weitergeben.

Recht auf Widerspruch gegen die KI-Verarbeitung

Bewerber können über den Arbeitgeber verlangen, dass ihre Bewerbung ohne KI-Vorsortierung bearbeitet wird. HireSift unterstützt diesen Workflow, indem der Recruiter jeden Kandidaten manuell bearbeiten kann.

Bias-Management

Umgang mit Bias und Diskriminierung

Large Language Models sind auf Internet-Texten trainiert und können gesellschaftliche Verzerrungen reproduzieren. HireSift setzt mehrere konkrete Maßnahmen um, um dieses Risiko zu minimieren:

  • 1
    Die KI bewertet ausschließlich entlang der vom Arbeitgeber konfigurierten Kriterien (z. B. Berufserfahrung, Skills, Sprachkenntnisse). Demografische Merkmale wie Geschlecht, Alter oder Nationalität fließen nicht in die Bewertungslogik ein.
  • 2
    Der System-Prompt an die KI ist dokumentiert und kann von Enterprise-Kunden im Rahmen eines Audits eingesehen werden.
  • 3
    Blind-Recruiting-Modus (geplant Q3 2026): Recruiter können demografische Felder im Dashboard ausblenden.
  • 4
    Periodisches Bias-Testing: HireSift wird strukturell identische CVs mit variierten demografischen Merkmalen gegen die gleichen Kriterien durchlaufen lassen, um systematische Verzerrungen frühzeitig zu erkennen.
  • 5
    Der Recruiter kann die Gewichtung der Kriterien selbst konfigurieren — die KI verwendet die vom Kunden definierten Gewichte, nicht eigene Urteile.
Infrastruktur

Technische Fakten

Volle Transparenz über unsere Infrastruktur. Bei Enterprise-Audits stellen wir zusätzlich die konkreten Modell-Details und den System-Prompt zur Verfügung.

KI-Anbieter (Standard)
Mistral AI — Paris, Frankreich
KI-Anbieter (alternativ)
Vertex AI — europe-west4, Belgien
Bewerberdaten verlassen EU
Nein
Modelltraining auf Ihren Daten
Nein (vertraglich ausgeschlossen)
Verwendung für andere Kunden
Nein
Automatisierte Entscheidungen (Art. 22)
Nein
EU AI Act

EU AI Act Compliance

Der EU AI Act (Verordnung 2024/1689) klassifiziert KI-Systeme zur Auswahl natürlicher Personen im HR-Bereich als High-Risk-Systeme (Anhang III Ziffer 4a). HireSift erkennt diese Klassifikation an und setzt die daraus folgenden Anforderungen schrittweise um: dokumentierte Datensatz-Governance, menschliche Aufsicht (bereits erfüllt), technische Robustheit, Transparenz gegenüber Betroffenen (dieses Dokument), sowie Risiko- und Qualitätsmanagement. Eine formale Fundamental Rights Impact Assessment (FRIA) ist im Rahmen unserer Datenschutz-Folgenabschätzung dokumentiert.

Fragen zur KI-Verarbeitung?

Wir beantworten transparent, wie unsere KI in Ihrem konkreten Fall funktioniert, welche Kriterien wie gewichtet werden, und welche Daten fließen. Für Enterprise-Einkäufer stellen wir zusätzlich den System-Prompt und detaillierte Modell-Informationen im Rahmen des Security Questionnaires bereit.