HireSift ist ein Entscheidungsunterstützungs-System, keine automatische Einstellungsmaschine. Hier erklären wir transparent, welche Rolle die KI spielt, welche nicht, und wie wir Bias und automatisierte Entscheidungen aktiv ausschließen.
Stand: April 2026
Unsere KI analysiert Bewerbungsunterlagen gegen die vom Arbeitgeber definierten Stellenkriterien. Die Bewertung ist eine strukturierte Zusammenfassung plus Match-Score — nie eine Entscheidung.
Extraktion strukturierter Daten aus Lebenslauf-PDFs (Ausbildung, Berufserfahrung, Skills, Sprachkenntnisse), Abgleich mit den konfigurierten Stellenkriterien, Generierung eines numerischen Matching-Scores (0–100) und einer textuellen Begründung. Alles transparent und für den Recruiter einsehbar.
Keine automatische Ablehnung, keine automatische Einstellung, keine Absage-E-Mails ohne menschliche Auslösung, kein Aussortieren unterhalb eines Score-Schwellwerts. Jeder Kandidat bleibt im Recruiter-Dashboard sichtbar, unabhängig vom Score. Alle Entscheidungen liegen beim Menschen.
Der Recruiter sieht sowohl den Match-Score als auch die Begründung der KI — also nicht nur "Kandidat X: 72%", sondern "Kandidat X: 72% — passt bei 4 von 5 Kriterien, fehlt Erfahrung im Bereich Y". So kann der Recruiter den Score einschätzen und bei Bedarf anders entscheiden.
Art. 22 DSGVO verbietet Entscheidungen, die "ausschließlich auf einer automatisierten Verarbeitung beruhen" und rechtliche oder ähnlich gravierende Wirkungen entfalten. HireSift trifft bewusst keine solchen Entscheidungen. Der KI-Score ist eine Empfehlung, keine Entscheidung. Die Plattform hat keine Funktion, die Bewerber ohne menschliche Prüfung ablehnt.
Jeder Bewerber hat das Recht, dass seine Bewerbung durch einen Menschen geprüft wird. HireSift stellt technisch sicher, dass jeder Kandidat im Recruiter-Dashboard sichtbar bleibt und nicht algorithmisch aussortiert wird.
Die textuelle KI-Begründung neben dem Score dokumentiert, welche Kriterien erfüllt oder nicht erfüllt wurden. Auf Anfrage kann der Kunde (Arbeitgeber) einem Bewerber diese Begründung weitergeben.
Bewerber können über den Arbeitgeber verlangen, dass ihre Bewerbung ohne KI-Vorsortierung bearbeitet wird. HireSift unterstützt diesen Workflow, indem der Recruiter jeden Kandidaten manuell bearbeiten kann.
Large Language Models sind auf Internet-Texten trainiert und können gesellschaftliche Verzerrungen reproduzieren. HireSift setzt mehrere konkrete Maßnahmen um, um dieses Risiko zu minimieren:
Volle Transparenz über unsere Infrastruktur. Bei Enterprise-Audits stellen wir zusätzlich die konkreten Modell-Details und den System-Prompt zur Verfügung.
Der EU AI Act (Verordnung 2024/1689) klassifiziert KI-Systeme zur Auswahl natürlicher Personen im HR-Bereich als High-Risk-Systeme (Anhang III Ziffer 4a). HireSift erkennt diese Klassifikation an und setzt die daraus folgenden Anforderungen schrittweise um: dokumentierte Datensatz-Governance, menschliche Aufsicht (bereits erfüllt), technische Robustheit, Transparenz gegenüber Betroffenen (dieses Dokument), sowie Risiko- und Qualitätsmanagement. Eine formale Fundamental Rights Impact Assessment (FRIA) ist im Rahmen unserer Datenschutz-Folgenabschätzung dokumentiert.
Wir beantworten transparent, wie unsere KI in Ihrem konkreten Fall funktioniert, welche Kriterien wie gewichtet werden, und welche Daten fließen. Für Enterprise-Einkäufer stellen wir zusätzlich den System-Prompt und detaillierte Modell-Informationen im Rahmen des Security Questionnaires bereit.