learn.iio.spaceKurse › AI Bias & Fairness verstehen

AI Bias & Fairness verstehen

KI-Bias diskriminiert — ohne Absicht, ohne Bewusstsein, in großem Maßstab. Wer KI einsetzt ohne auf Bias zu prüfen, riskiert Schaden für Menschen und rechtliche Konsequenzen (EU AI Act Art. 10).
✦ Lernziel
Du verstehst wie Bias in KI entsteht, erkennst die 3 Haupttypen und weißt was du tun kannst wenn du Bias vermutest.
▶ Erklärvideo
Zeigt reale Beispiele von KI-Bias — COMPAS, Amazon Recruiting, Facial Recognition. Macht das Thema unmittelbar greifbar.
Are We Automating Racism? (Vox)URL prüfen
📺 ⏱ ? Min 🌐 EN
Zeigt reale Beispiele von KI-Bias — COMPAS, Amazon Recruiting, Facial Recognition. Macht das Thema unmittelbar greifbar.
▶ Video ansehen
▶ Erklärvideo
3 Minuten Trailer zum Dokumentarfilm über AI Bias in Gesichtserkennung. Motiviert warum das Thema ernst genommen werden muss.
Coded Bias — Dokumentarfilm TrailerURL prüfen
📺 ⏱ ? Min 🌐 EN
3 Minuten Trailer zum Dokumentarfilm über AI Bias in Gesichtserkennung. Motiviert warum das Thema ernst genommen werden muss.
▶ Video ansehen
📖 Lerntext
⏱ ~15 Min lesen

Wie Bias in KI-Systeme gelangt

Die Grundformel

Bias in → Bias out. KI lernt aus Daten. Wenn Daten verzerrt sind, werden Ergebnisse verzerrt. Ohne böse Absicht. Ohne Bewusstsein. In großem Maßstab.

Die drei Haupttypen

Typ 1 — Datenbias

Trainingsdaten spiegeln die Welt wie sie war, nicht wie sie sein sollte. Beispiel Amazon: Zehn Jahre historische Einstellungsdaten aus einer männlich dominierten Branche. Das Modell lernt: männliche Kandidaten werden bevorzugt. Lebensläufe mit dem Wort „Frauen" werden abgewertet. Ergebnis: Systemic bias ohne Programmierungsabsicht. Erkennungszeichen: Eine Gruppe taucht in den Trainingsdaten seltener oder negativer auf.

Typ 2 — Proxy-Bias

Das Modell nutzt indirekte Variablen als Proxy für geschützte Merkmale. Beispiel Kreditscoring: Postleitzahl korreliert mit Einkommensniveau → korreliert mit Herkunft → korreliert mit Ethnizität. Das Modell diskriminiert nach Ethnizität, ohne die Variable direkt zu nutzen. Erkennungszeichen: Eine Variable „sollte" eigentlich neutral sein, produziert aber systematisch ungleiche Ergebnisse.

Typ 3 — Feedback-Schleife

Der Output der KI wird zum neuen Input — und verstärkt bestehende Muster. Beispiel Predictive Policing: KI sagt mehr Kriminalität in Stadtteil A voraus → mehr Polizei dort → mehr Verhaftungen dort → neue Daten bestätigen die Vorhersage → KI wird sicherer in ihrer Einschätzung. Die Verstärkungsschleife dreht sich.

Warum Bias so schwer zu erkennen ist

GrundErklärung
Keine AbsichtBias kommt aus Daten, nicht aus Code
Technische KorrektheitDas Modell ist im statistischen Sinne „richtig"
Kein sichtbares SignalUnterschiede werden nicht ausgegeben, nur reflektiert
KomplexitätBei 100+ Variablen sind Zusammenhänge nicht intuitiv
✓ Zwischen-Check

Kurzer Check — kein Druck, nur zum Festigen.

1. Muss Bias absichtlich sein damit er schadet?
2. Was ist Datenbias?
💡 Key Takeaways
📊 Datenbias: Trainingsdaten spiegeln historische Ungleichheit wider
⚙️ Algorithmusbias: Modell-Design verstärkt bestehende Muster
🔄 Feedback-Bias: Bias im Output wird zum neuen Input — Verstärkungs-Schleife
📖 Lerntext
⏱ ~20 Min lesen

Bias erkennen — und richtig handeln

Die wichtigste Methode: Ergebnisverteilung analysieren

Kein Machine-Learning-Wissen erforderlich. Nur eine Frage:

„Gibt es systematische Unterschiede in den Ergebnissen zwischen vergleichbaren Gruppen?"
Praktisch:
  1. Ergebnisse des KI-Systems exportieren
  2. Nach Gruppen aufteilen (Geschlecht, Alter, Herkunft, Postleitzahl)
  3. Quoten vergleichen: Ablehnungsquoten, Approval-Raten, Scores

Wenn Unterschiede sichtbar sind, die nicht durch legitime fachliche Faktoren erklärbar sind: Bias-Verdacht.

Warnsignale — diese Muster sollten Sie aufhorchen lassen

WarnsignalMögliche Ursache
Systematisch schlechtere Scores einer GruppeDatenbias oder Proxy-Bias
Ergebnisse verbessern sich für eine Gruppe nieFeedback-Schleife
System „kennt" Dinge die es nicht direkt gelernt haben sollteProxy-Variable
Anbieter kann keine Erklärung für Muster liefernFehlende Transparenz
Quoten weichen stark vom Bevölkerungsdurchschnitt abStruktureller Bias

Der richtige Ablauf bei Bias-Verdacht

1. SOFORT: System aus dem kritischen Prozess nehmen
   (nicht: beobachten, nicht: auf Patch warten)

2. DOKUMENTIEREN: Was wurde beobachtet? Seit wann? Welche Gruppen betroffen?

3. ANALYSIEREN: Root Cause — Trainingsdaten? Proxy-Variable? Feedback-Schleife?

4. ENTSCHEIDEN: Neutraining, Modell-Anpassung oder System-Austausch?

5. TESTEN: Bias-Test mit strukturierten Testfällen vor Reaktivierung

6. DOKUMENTIEREN: Maßnahmen, Ergebnisse, Verantwortliche

Was das Gesetz verlangt

GrundlageAnforderung
EU AI Act Art. 10Trainingsdaten müssen repräsentativ, relevant und fehlerfrei sein — Hochrisiko-Pflicht
EU AI Act Art. 9Risikomanagementsystem muss Bias als Risikokategorie einschließen
AGGDiskriminierungsverbot gilt auch für algorithmische Entscheidungen
ISO 42001 A.5.4Fairness als explizite Kontrollmaßnahme
Fazit: Bias-Prüfung ist keine Kür. Sie ist rechtlich verpflichtend — für Hochrisiko-Systeme ab August 2026.

Praxisfall: Das Recruiting-Tool

Situation: Nach 6 Monaten fällt auf, dass ein KI-gestütztes Recruiting-System Bewerber aus bestimmten Postleitzahlen systematisch schlechter bewertet. Postleitzahl ist kein offizielles Auswahlkriterium. Was ist hier passiert? Proxy-Bias: Postleitzahl → Schulen → sozioökonomischer Status → Herkunft. Das Modell diskriminiert indirekt, ohne es „zu wissen". Richtiges Vorgehen:
  • Tool sofort pausieren — nicht erst nach Analyse
  • Alle seit Einsatz getroffenen Entscheidungen überprüfen lassen
  • Root Cause Analyse: Welche Variable wirkt als Proxy?
  • Neutraining ohne Postleitzahl und korrelierende Features
  • Vor Reaktivierung: strukturierter Bias-Test mit Testdatensatz
Falsches Vorgehen: „Wir entfernen Postleitzahl aus den Eingabedaten." Das löst das Symptom. Korrelierende Features (Schulname, Straßenname, Vereinszugehörigkeit) transportieren denselben Proxy weiter.
🏢 Praxisbeispiel
Situation

Du analysierst die Ergebnisse eines KI-Recruiting-Tools. Bewerber aus bestimmten Postleitzahlen werden systematisch schlechter bewertet — obwohl Postleitzahl kein Auswahlkriterium ist.

❓ Was ist hier passiert und was tust du?
🪞 Reflexion
Gibt es KI-Systeme in deinem Umfeld wo du Bias-Risiken siehst?
Beispiele:
  • Empfehlungsalgorithmen die immer ähnliche Profile bevorzugen
  • Scoring-Systeme ohne nachvollziehbare Kriterien
  • Tools die historische Entscheidungen als 'optimal' behandeln
🔒 Deine Antwort bleibt in deinem Browser — sie wird nicht übermittelt.
💡 Key Takeaways
🔍 Bias aktiv suchen — nicht darauf hoffen dass keiner vorhanden ist
📊 Ergebnisverteilung regelmäßig prüfen: gibt es systematische Unterschiede?
🚨 Bei Bias-Verdacht: sofort stoppen, nicht abwarten
📋 EU AI Act Art. 10: Datenverwaltung und Bias-Prüfung sind Pflicht
🎓
Kurs abgeschlossen! Assessment starten.
Assessment starten →