12. August 2025 - KI-Bias
Bias in KI-Systemen erkennen und prüfen
So deckst du Bias in KI-Systemen auf – von der Datenprüfung bis zur laufenden Qualitätskontrolle.

Bias erkennen & prüfen
Warum das so wichtig ist
Stell dir vor, du bist in einer Bäckerei und möchtest eine Breze kaufen. Die Verkäuferin reicht dir aber automatisch immer ein Croissant – egal, was du bestellst. Vielleicht magst du das Croissant, vielleicht auch nicht – aber die Entscheidung wurde dir abgenommen.
Genauso kann es bei einer KI passieren, wenn sie voreingenommene oder einseitige Daten bekommt: Sie trifft Entscheidungen nach einem festen Muster – auch dann, wenn die Situation eigentlich etwas anderes erfordert.
Solche Verzerrungen (Bias) sind nicht nur ärgerlich, sie können ernsthafte Folgen haben:
- Diskriminierung – Menschen oder Gruppen werden benachteiligt.
- Rechtliche Risiken – im schlimmsten Fall drohen Klagen.
- Vertrauensverlust – Kunden zweifeln an der Fairness und Seriosität.
- Fehlentscheidungen – Prozesse laufen falsch, Kosten steigen.
- Audits nicht bestanden – die EU-KI-Verordnung verlangt Nachweise, dass Fairness geprüft wird.

1 | Vor dem Start – Daten prüfen wie Rohmaterial in einer Fabrik
Bias beginnt fast immer bei den Daten. Stell dir vor, eine Fabrik verarbeitet Stahl – aber im Rohmaterial sind Fehler oder falsche Legierungen. Selbst die beste Maschine macht daraus kein perfektes Endprodukt.
Deshalb sollten Daten vor dem Einsatz sorgfältig kontrolliert werden:
Prüffrage | Was tun? | Beispiel & Warum |
---|---|---|
Woher kommen die Daten? | Herkunft, Alter, Sammler festhalten | Bewerberdaten von vor 15 Jahren enthalten keine neuen Berufsbilder – die KI übersieht moderne Qualifikationen. |
Wer steckt in den Daten? | Geschlechter, Altersgruppen, Regionen zählen | Nur Männer aus einer Großstadt → Frauen vom Land werden schlechter eingestuft. |
Wie wurden sie gesammelt? | Erhebungsmethode dokumentieren | Online-Umfrage erreicht nur Menschen mit Internetzugang – ländliche Gruppen fehlen. |
Sind alle Merkmale drin? | Wichtige Felder prüfen | Fehlt z. B. die Berufserfahrung, vergleicht die KI Bewerber unfair. |
Praxis-Tipp: Erstellen Sie ein „Datasheet“ zu jedem Datensatz – eine Seite mit Herkunft, Zweck, Sammler, Lücken und einer Kontaktperson. Das spart Zeit, wenn später Fragen auftauchen.
2 | Während der Entwicklung – Fairness wie im Testlabor prüfen
Selbst ein sauberer Datensatz garantiert keine fairen Ergebnisse. Darum gilt: testen, bevor live gehen – und zwar gezielt.
- Testsätze anlegen – gleiche Fälle, nur ein Merkmal anders (z. B. Geschlecht, Herkunft).
- Ergebnisse vergleichen – haben beide Bewerber mit gleicher Qualifikation ähnliche Chancen?
Kennzahl | Was zeigt sie? | Richtwert* |
---|---|---|
Trefferquote pro Gruppe | Wie oft liegt das Modell richtig? | < 5 % Unterschied |
Falsch-Positiv-Rate | Wie oft wird zu Unrecht genehmigt? | < 5 % Unterschied |
Falsch-Negativ-Rate | Wie oft wird zu Unrecht abgelehnt? | < 5 % Unterschied |
* Orientierung – Gesetze können strengere Werte verlangen.
Praxisbeispiel: Ein Unternehmen testet seine Bewerbungs-KI: Zwei identische Profile – einmal „Anna“, einmal „Lukas“. Ergebnis: Anna bekommt 12 % weniger Punkte. Der Test deckt einen klaren Bias auf, bevor das System in den Echtbetrieb geht.

3 | Im Betrieb – Kontinuierlich prüfen wie bei einer Qualitätskontrolle
Bias kann sich einschleichen – zum Beispiel, wenn sich Datenquellen ändern oder neue Kundengruppen hinzukommen. Deshalb ist laufende Kontrolle Pflicht.
- Monitoring-Dashboard – zeigt wöchentlich Werte pro Kundengruppe.
- Feedback-Kanal – Mitarbeitende melden Auffälligkeiten („Warum sind nur Männer in der Shortlist?“).
- Re-Audit – alle 6–12 Monate frische Testsätze einspielen.
Praxisbeispiel: Ein Onlinehändler stellt fest, dass seine Produktempfehlungs-KI plötzlich fast nur noch Männer anspricht. Ursache: Neue Daten kamen überwiegend aus einer Männer-Community.

4 | Klare Rollen – damit nichts untergeht
Rolle | Aufgabe |
---|---|
Fachabteilung (z. B. HR) | Fachwissen liefern, Auffälligkeiten melden |
Data-Scientist / IT | Testen, Überwachen, Korrigieren |
Compliance / Datenschutz | Dokumentation & Rechtskonformität prüfen |
Bias-Beauftragte/r | Koordiniert alle Checks |
Tipp: In kleinen Unternehmen kann eine Person mehrere Rollen übernehmen – Hauptsache, es gibt klare Verantwortlichkeiten.
5 | Wenn Bias auftaucht – handeln wie bei einem Maschinenstopp
- Entscheidung überprüfen oder zurücknehmen.
- Ursache ermitteln: Daten? Modellversion? Schwellenwert?
- Kleine Abweichung → Schwelle anpassen.
- Große Abweichung → Modell neu trainieren oder Daten erweitern.
- Alles dokumentieren – Pflicht nach EU-KI-Verordnung.
Praxisbeispiel: Ein Kredit-Scoring-Modell lehnt plötzlich überdurchschnittlich viele Anträge aus einer bestimmten Region ab. Ursache: Eine neue Datenquelle enthielt unvollständige Infos zu dieser Region. Nach Ergänzung verschwinden die Abweichungen.
Merksatz
„Keine KI ohne Qualitätskontrolle.“ Behandeln Sie Ihre Daten wie Rohmaterial und das Modell wie eine Maschine. Regelmäßig prüfen, warten und nachjustieren – so sichern Sie faire, verlässliche Ergebnisse.
*Dieser Beitrag baut auf dem BSI-Whitepaper „Bias in der künstlichen Intelligenz“ auf und wurde extra für mittelständische Unternehmen aufbereitet.*
12.08.2025, Matteo Grappasonno