Zwei menschliche Entscheidungen statt eines AI-Scores
Künstliche Intelligenz ist heute schnell, effizient und skalierbar. Genau deshalb ist sie im Bereich von Background Checks und Human Risk Management auch gefährlich, wenn sie falsch eingesetzt wird. Denn wo Systeme beginnen, Menschen zu bewerten, zu klassifizieren oder in Scores zu pressen, entstehen Risiken – rechtlich, ethisch und unternehmerisch.
Als CTO und verantwortlich für ISO 27001 bei Validato habe ich früh eine klare Designentscheidung getroffen:
KI darf unterstützen, aber niemals entscheiden.
Human-in-the-Loop ist für uns kein Marketingbegriff und kein Compliance-Feigenblatt. Es ist ein architektonisches Grundprinzip, das tief im Systemdesign verankert ist – und bewusst zweistufig umgesetzt wird.
KI findet. Menschen entscheiden. Menschen sichern Qualität.
In vielen Systemen bedeutet „Human-in-the-Loop“ lediglich, dass am Ende jemand auf einen automatisch generierten Score schaut und ihn abnickt. Das ist aus unserer Sicht keine echte Kontrolle, sondern Verantwortung auf dem Papier.
Bei Validato funktioniert es anders.
Programme übernehmen ausschließlich vorbereitende Aufgaben:
- Auffinden relevanter Inhalte oder Datenpunkte
- Strukturierung, Normalisierung und Kontextbereitstellung
- Transparente Dokumentation der Quelle und des Zeitpunkts
Keine Bewertung. Kein Score. Keine Schlussfolgerung über Personen.
Die eigentliche Verantwortung liegt beim Menschen – und zwar zweimal.
Human-in-the-Loop Stufe 1: Fachliche Bewertung
In der ersten Stufe prüft ein qualifizierter Analyst jeden einzelnen Punkt:
- Ist der Inhalt tatsächlich relevant?
- Ist der Kontext vollständig verstanden?
- Gibt es entlastende oder erklärende Umstände?
- Ist der Fund für den konkreten Zweck überhaupt zulässig?
Diese Entscheidung ist bewusst nicht automatisierbar. Kontext, Sprache, Ironie, kulturelle Unterschiede oder zeitliche Einordnung lassen sich nicht zuverlässig in Regeln oder Modelle pressen.
Human-in-the-Loop Stufe 2: Qualitätssicherung
Die zweite Stufe ist mindestens genauso wichtig – und wird oft weggelassen.
Ein weiterer Mensch prüft:
- Wurde die interne Methodik korrekt angewendet?
- Ist die Entscheidung konsistent mit vergleichbaren Fällen?
- Wurden keine unzulässigen Bewertungen oder impliziten Labels vorgenommen?
- Ist die Dokumentation nachvollziehbar, revisionsfähig und auditfest?
Erst danach gilt ein Ergebnis als abgeschlossen.
Warum wir bewusst auf AI-Scores verzichten
- Ein numerischer Score suggeriert Objektivität, wo keine existiert.
- Er reduziert komplexes menschliches Verhalten auf eine Zahl – und verlagert Verantwortung von Menschen auf Systeme.
- Aus regulatorischer Sicht ist das riskant.
- Aus ethischer Sicht problematisch.
- Aus unternehmerischer Sicht kurzsichtig.
Validato weiss: Vertrauen entsteht nicht durch mehr Automatisierung, sondern durch nachvollziehbare Entscheidungen.