learn.iio.spaceKurse › AI Governance — Was es ist und warum es zählt

AI Governance — Was es ist und warum es zählt

KI-Systeme treffen täglich Entscheidungen die Menschen betreffen — bei Kreditvergabe, Bewerbungsverfahren, Versicherungsprüfungen. Wer diese Systeme einsetzt oder begleitet, trägt Verantwortung. Ab August 2026 ist der Nachweis von AI Literacy gesetzlich verpflichtend (EU AI Act Art. 4).
✦ Lernziel
Sie verstehen was AI Governance bedeutet, kennen die fünf international anerkannten Kernprinzipien und wissen wie Sie Governance-Anforderungen in Ihrem Berufsalltag erkennen und einfordern können.
▶ Erklärvideo
Einstieg mit Wirkung: Janelle Shane zeigt humorvoll aber präzise, warum unkontrollierte KI zu unerwarteten Ergebnissen führt. Schärft den Blick — bevor es in die Theorie geht.
Warum AI Governance? — Janelle Shane (TED, 12 Min)URL prüfen
📺 ⏱ ? Min 🌐 EN
Einstieg mit Wirkung: Janelle Shane zeigt humorvoll aber präzise, warum unkontrollierte KI zu unerwarteten Ergebnissen führt. Schärft den Blick — bevor es in die Theorie geht.
▶ Video ansehen
📖 Lerntext
⏱ ~12 Min lesen · 📌 Amazon, COMPAS, Kreditkarte — drei Fälle, eine Erkenntnis

Was ist AI Governance?

Das Problem in 60 Sekunden

Stellen Sie sich vor: Ein Unternehmen nutzt ein KI-System zur Kreditvergabe. Das System lehnt eine Kundin ab. Sie fragt warum. Die Antwort: „Das System hat so entschieden."

Kein Mensch ist verantwortlich. Keine Erklärung möglich. Keine Anfechtung vorgesehen.

Genau das ist das Problem, das AI Governance löst.

Drei Fälle aus der Praxis

Amazon — Der blinde Fleck im Recruiting

Amazon entwickelte ein KI-System zur Vorauswahl von Bewerbungen. Trainiert auf zehn Jahre historische Einstellungsdaten aus einer männlich dominierten Branche, lernte das Modell: männliche Bewerber bevorzugen. Lebensläufe mit dem Wort „Frauen" — z.B. „Präsidentin des Frauen-Schachclubs" — wurden systematisch abgewertet. Niemand hatte das programmiert. Die Daten taten es. Amazon stellte das System ab.

COMPAS — Algorithmen vor Gericht

In US-amerikanischen Gerichten berechnet das COMPAS-System Rückfallwahrscheinlichkeiten für Straftäter — als Entscheidungshilfe für Richter. Studien zeigen: schwarze Angeklagte werden doppelt so häufig als „hohes Risiko" eingestuft wie weiße — bei vergleichbaren Vergehen. Der Algorithmus replizierte gesellschaftliche Ungleichheit als mathematische Wahrheit.

Kreditkarte — Unsichtbare Diskriminierung

Ein US-amerikanischer Kreditkartenanbieter vergab automatisch niedrigere Limits an Frauen — auch wenn diese höhere Einkommen und bessere Bonität hatten als männliche Vergleichspersonen. Erst eine Beschwerde machte das Muster sichtbar.

Was diese Fälle verbindet

AmazonCOMPASKreditkarte
Böse Absicht?NeinNeinNein
Bias vorhanden?JaJaJa
Jemand verantwortlich?UnklarUnklarUnklar
Korrigierbar?Ja — aber spätSchwierigJa — nach Klage

Das Muster: Kein Bewusstsein → Kein Verantwortlicher → Keine Korrektur.

AI Governance — die Definition

AI Governance bezeichnet die Regeln, Prozesse und Verantwortlichkeiten, die sicherstellen dass KI-Systeme sicher, fair, transparent und nachvollziehbar funktionieren.

Einfacher: Wer ist verantwortlich wenn eine KI etwas falsch macht? Und: Wie stellen wir sicher, dass wir es überhaupt merken?

Die Brems-Analogie

„AI Governance macht KI nicht langsamer — genau wie Bremsen kein Auto langsamer machen. Bremsen ermöglichen es, schneller und sicherer zu fahren."

Ohne Governance: KI-Projekte scheitern an Vertrauensverlust, Rechtsrisiken, Reputationsschäden. Mit Governance: KI-Projekte skalieren, weil Stakeholder Vertrauen haben.

✓ Zwischen-Check

Drei Fragen — kein Druck, reines Lernwerkzeug.

1. Was verbindet die Fälle Amazon, COMPAS und die Kreditkarte?
2. Was fehlt, wenn ein Unternehmen sagt: 'Die KI hat entschieden'?
3. Warum verlangsamt Governance die KI nicht?
💡 Key Takeaways
⚡ Bias entsteht ohne Absicht — aus verzerrten Daten
👤 KI kann nicht verantwortlich sein — immer ein Mensch
🛡 Governance = Verantwortungs-Infrastruktur
🚗 Wie Bremsen — ermöglicht sicheres schnelles Handeln
▶ Erklärvideo
Vox zeigt reale Fälle von algorithmischer Diskriminierung. Macht das Fairness-Prinzip konkret und unvergesslich.
AI Bias in der Praxis (Vox, 11 Min)URL prüfen
📺 ⏱ ? Min 🌐 EN
Vox zeigt reale Fälle von algorithmischer Diskriminierung. Macht das Fairness-Prinzip konkret und unvergesslich.
▶ Video ansehen
📖 Lerntext
⏱ ~10 Min lesen · 📌 Transparenz, Fairness, Accountability, Sicherheit, Datenschutz

Die 5 Prinzipien verantwortungsvoller AI

OECD, EU-Kommission, NIST, ISO 42001 — unterschiedliche Frameworks, ein Konsens: Diese fünf Prinzipien gelten überall.

1 · Transparenz

Frage: Können Sie erklären, wie diese Entscheidung zustande kam?

KI-Systeme müssen erklärbar sein — nicht für Ingenieure, sondern für die Betroffenen. Wer einen Kredit bekommt, muss verstehen warum. Wer abgelehnt wird, muss anfechten können.

EU AI Act Art. 13: Hochrisiko-Systeme müssen Betreibern ausreichende Informationen bereitstellen, um die Ausgaben verstehen und überwachen zu können.

2 · Fairness

Frage: Werden alle Gruppen gleichbehandelt?

Fairness bedeutet nicht Gleichheit der Ergebnisse — sondern Abwesenheit systematischer Benachteiligung aufgrund geschützter Merkmale (Geschlecht, Herkunft, Alter, Religion, Behinderung).

Wichtig: Fairness entsteht nicht von selbst. Sie muss aktiv geprüft werden. „Wir haben keinen Bias eingebaut" schützt nicht vor Bias in den Trainingsdaten.
ISO 42001 Annex A.5.4: Fairness als explizite Kontrollpflicht.

3 · Accountability

Frage: Wer steht für diese Entscheidung gerade?

KI kann nicht verantwortlich sein. Immer ist ein Mensch verantwortlich — für das Design, den Einsatz, die Überwachung, die Konsequenzen.

Accountability bedeutet:

  • Benannte Verantwortliche für jedes KI-System
  • Dokumentierte Entscheidungsprozesse
  • Klare Eskalationswege wenn etwas schiefgeht

EU AI Act Art. 14: Menschliche Aufsicht bei Hochrisiko-Systemen ist Pflicht.

4 · Sicherheit & Robustheit

Frage: Funktioniert das System auch unter unerwarteten Bedingungen?

KI-Systeme müssen verlässlich arbeiten — auch wenn Eingaben variieren, Daten verändert werden oder unvorhergesehene Situationen eintreten.

Praxisbeispiel: Ein medizinisches Bilderkennungssystem identifiziert Tumore korrekt — bis ein leicht verändertes Bild (für Menschen identisch) zu einer völlig falschen Diagnose führt. Solche adversarial attacks sind in der Praxis nachgewiesen.

5 · Datenschutz

Frage: Werden nur die Daten verarbeitet, die wirklich notwendig sind?

KI-Systeme verarbeiten oft riesige Datenmengen. Datenschutz verlangt: Minimum-Prinzip, klare Rechtsgrundlagen, Transparenz gegenüber Betroffenen, Löschrecht.

DSGVO Art. 5: Datensparsamkeit, Zweckbindung und Speicherbegrenzung gelten auch für KI-Trainingsdaten und -Anwendungen.

Zusammenfassung

PrinzipKernfrageKonsequenz bei Verstoß
TransparenzErklärbar?Keine Anfechtung möglich
FairnessDiskriminierungsfrei?Rechtliche Haftung, Reputationsschaden
AccountabilityVerantwortlicher benannt?Keine Korrektur möglich
SicherheitUnter Druck verlässlich?Fehler im Betrieb unerkannt
DatenschutzMinimum an Daten?DSGVO-Verstöße, Bußgelder
✓ Zwischen-Check

Kurzer Check — kein Druck, nur zum Festigen.

1. Ein System lehnt eine Bewerbung ab, kann aber keine Begründung liefern. Welches Prinzip fehlt?
2. Warum reicht 'Wir haben keinen Bias eingebaut' nicht als Sicherheit?
💡 Key Takeaways
👁 Transparenz — erklärbar, nicht nur korrekt
⚖️ Fairness — aktiv prüfen, nicht hoffen
👤 Accountability — benannte Verantwortliche
🛡 Sicherheit — verlässlich unter allen Bedingungen
🔐 Datenschutz — Minimum-Prinzip, klare Grundlagen
📖 Lerntext
⏱ ~10 Min lesen · 📌 Betroffene, Fachkräfte, Führungskräfte — drei Perspektiven

AI Governance in der Praxis

Drei Perspektiven — eine Verantwortung

Je nach Rolle stellen sich andere Fragen. Die Verantwortung ist geteilt.

Als Betroffene Person

Wenn ein KI-System eine Entscheidung über Sie trifft:

Sie haben das Recht zu fragen:
  • Wurde hier KI eingesetzt? (EU AI Act Art. 50 — Offenlegungspflicht)
  • Wie wurde die Entscheidung getroffen? (Transparenzpflicht)
  • Kann ein Mensch das überprüfen? (DSGVO Art. 22 — kein vollautomatisches Entscheiden ohne Überprüfungsmöglichkeit)
Wie Sie Ihre Rechte ausüben:
  1. Schriftlich beim Unternehmen anfragen: „Ich beantrage Auskunft gemäß DSGVO Art. 15 und menschliche Überprüfung gemäß Art. 22."
  2. Antwortfrist: 30 Tage
  3. Bei Verweigerung: Datenschutzbehörde einschalten (in Deutschland: BfDI oder zuständige Landesbehörde)

Als Mitarbeiter oder Fachkraft

Bevor Ihr Unternehmen ein KI-System einsetzt — fünf Fragen:

FrageWarum wichtig
Wissen Betroffene davon?Transparenzpflicht, Vertrauen
Wurde auf Bias getestet?Fairness, Haftungsrisiko
Gibt es eine verantwortliche Person?Accountability
Werden Entscheidungen dokumentiert?Nachvollziehbarkeit
Was passiert wenn das System falsch liegt?Prozess & Eskalation
Wenn auch nur eine Antwort „Nein" lautet: Das muss geklärt werden, bevor das System live geht.

Als Führungskraft oder Einkäufer

Drei Fragen die Sie bei jedem KI-Anbieter stellen müssen:

1. „Wie erklären Sie mir eine Fehlentscheidung Ihres Systems?" Kann der Anbieter das nicht beantworten: kein Kauf. 2. „Welche Daten haben Sie für das Training verwendet — und dürfen Sie die nutzen?" Fehlende Rechtsgrundlagen für Trainingsdaten bedeuten rechtliches Risiko für Sie als Betreiber. 3. „Wer haftet wenn das System jemanden diskriminiert?" Die Antwort „Das liegt beim Kunden" ist keine akzeptable Antwort.

Praxisfall: HR-Software mit KI

Situation: Ihre HR-Abteilung kauft ein Tool das Bewerbungen vorselektiert.
Ohne GovernanceMit Governance
Tool läuft ungeprüftBias-Test vor Einsatz
Kein VerantwortlicherBenannte HR-Leiterin
Keine DokumentationKriterien schriftlich fixiert
Beschwerden nach MonatenMonatliche Ergebniskontrolle
ReputationsschadenFrühzeitige Korrektur möglich
Das Ergebnis: Governance verhindert nicht, dass Fehler passieren. Sie stellt sicher, dass man sie erkennt — und handeln kann.

Die eine Frage

Bevor ein KI-System live geht, stellen Sie sich eine Frage:

„Könnten wir für dieses System geradestehen — gegenüber Kunden, Behörden, der Öffentlichkeit?"

Wenn ja: Dokumentieren Sie es. Wenn nein: Beheben Sie zuerst, was fehlt.

🏢 Praxisbeispiel
Situation

Eine Bewerberin erhält eine automatische Absage. Auf Nachfrage: „Unser System hat das entschieden — Einzelbegründungen geben wir nicht."

❓ Welche Rechte hat die Bewerberin, und was sollte die HR-Abteilung tun?
🪞 Reflexion
Welches KI-System in Ihrem Berufs- oder Privatleben betrifft Sie am stärksten — und welches Governance-Prinzip ist dort am wichtigsten?
Denken Sie an Kreditentscheidungen, Jobempfehlungen, Versicherungen, Social-Media-Feeds.
Beispiele:
  • Recruiting-KI: Fairness und Accountability sind entscheidend
  • Kreditvergabe: Transparenz und menschliche Überprüfung
  • Newsfeeds: Transparenz über Algorithmus-Logik
🔒 Deine Antwort bleibt in deinem Browser — sie wird nicht übermittelt.
💡 Key Takeaways
📋 Als Betroffene/r: DSGVO Art. 15 + 22 kennen und nutzen
✅ Als Fachkraft: 5 Fragen vor jedem KI-Einsatz
🎯 Als Führungskraft: 3 Pflichtfragen an jeden Anbieter
💡 Kern: Können wir für dieses System geradestehen?
🎓
Alle drei Module abgeschlossen. Jetzt das Assessment (10 Fragen, 80% Mindestpunktzahl).
Assessment starten →