Der EU AI Act — Grundlagen
Das Wichtigste vorab
Regulation (EU) 2024/1689 — in Kraft seit 1. August 2024. Das erste umfassende KI-Gesetz der Welt. Es gilt für jeden, der KI in der EU einsetzt — unabhängig davon, wo die KI entwickelt wurde.
Das Prinzip: Je riskanter, desto strenger
Der EU AI Act ist risikobasiert. Nicht alle KI ist gleich gefährlich. Ein Spam-Filter ist anders als ein System das über Kreditwürdigkeit entscheidet.
Unakzeptables Risiko → VERBOTEN
Hohes Risiko → Strenge Pflichten + Zulassung
Begrenztes Risiko → Transparenzpflicht
Minimales Risiko → Kaum Einschränkungen (Mehrheit aller KI)
Zeitplan — was gilt wann?
| Datum | Regelung |
|---|---|
| August 2024 | Gesetz in Kraft |
| Februar 2025 | Verbotene Praktiken gelten |
| August 2025 | Regeln für KI-Basismodelle (GPT, Claude etc.) |
| August 2026 | Hochrisiko-Pflichten + AI Literacy Pflicht |
| August 2027 | Übergangsfristen für einige Produktkategorien |
Wer ist betroffen?
| Rolle | Definition | Beispiel |
|---|---|---|
| Anbieter | Entwickelt KI und bringt sie auf den Markt | KI-Startup, Softwareanbieter |
| Betreiber | Setzt KI im eigenen Betrieb ein | Ihr Unternehmen |
| Betroffene Person | Von KI-Entscheidungen betroffen | Bewerber, Kreditnehmer, Patient |
Strafen
| Verstoß | Maximale Strafe |
|---|---|
| Verbotene Praktiken (Art. 5) | 35 Mio. EUR oder 7% Jahresumsatz |
| Hochrisiko-Anforderungen | 15 Mio. EUR oder 3% Jahresumsatz |
| Falsche Angaben | 7,5 Mio. EUR oder 1,5% Jahresumsatz |
Kurzer Check — kein Druck, nur zum Festigen.
Die 4 Risikoklassen im Detail
Klasse 1 — Verboten (seit Februar 2025)
Acht Praktiken sind absolut verboten:
| Verbotene Praxis | Warum |
|---|---|
| Unterschwellige Manipulation | Verletzt Autonomie |
| Ausnutzung von Schwächen | Schutzbedürftige Gruppen |
| Social Scoring durch Behörden | Grundrechtsverletzung |
| Predictive Policing (Individuen) | Unschuldsvermutung |
| Biometrische Massenüberwachung | Unverhältnismäßig |
| Emotionserkennung Arbeit/Schule | Manipulationspotenzial |
| Biometrische Kategorisierung (Herkunft etc.) | Diskriminierungsrisiko |
| Gesichtsdatenbank-Aufbau durch Scraping | Datenschutz |
Klasse 2 — Hohes Risiko (ab August 2026 vollständig)
KI in diesen Bereichen gilt automatisch als hochriskant:
| Bereich | Typische Anwendungen |
|---|---|
| Beschäftigung | Bewerberselektion, Leistungsbewertung, Kündigung |
| Grundversorgung | Kreditvergabe, Sozialleistungen, Versicherung |
| Bildung | Zulassungsentscheidungen, Prüfungsbewertung |
| Kritische Infrastruktur | Strom, Wasser, Verkehr |
| Strafverfolgung | Risikoeinschätzung, Beweisauswertung |
| Migration | Visaentscheidungen, Grenzkontrolle |
| Justiz | Rechtsprechungsunterstützung |
- Risikomanagementsystem einrichten
- Datenverwaltungspraktiken dokumentieren
- Technische Dokumentation erstellen
- Automatisches Logging aktivieren
- Menschliche Aufsicht sicherstellen
- Genauigkeit, Robustheit, Cybersicherheit gewährleisten
- Mitarbeiter schulen ← dieser Kurs erfüllt Art. 4
Klasse 3 — Begrenztes Risiko (Transparenz)
KI die mit Menschen interagiert, muss sich zu erkennen geben.
Konkret:- Chatbots müssen sich als KI identifizieren
- KI-generierte Texte/Bilder/Videos müssen gekennzeichnet sein
- Deepfakes müssen als solche markiert werden
Klasse 4 — Minimales Risiko
Spam-Filter, Produktempfehlungen, KI in Videospielen — weitgehend unreguliert. Freiwillige Verhaltenskodizes empfohlen, keine gesetzlichen Pflichten.
Schnelltest: Welche Klasse trifft Ihr System?
Frage 1: Fällt die Anwendung unter Annex III (Hochrisiko-Bereiche)?
→ JA: Hochrisiko-Pflichten ab August 2026
→ NEIN: Weiter zu Frage 2
Frage 2: Interagiert die KI mit Menschen oder generiert sie sichtbare Inhalte?
→ JA: Transparenzpflicht (Klasse 3)
→ NEIN: Minimales Risiko (Klasse 4)
Unsicher? → Rechtsberatung einholen. Die Kosten sind gering verglichen mit den Bußgeldern.
Deine Firma kauft ein KI-Tool das Mitarbeiterleistungen bewertet und Gehaltserhöhungsempfehlungen gibt. Der Anbieter sagt: "Ist nur ein Entscheidungsunterstützungs-Tool, keine echte KI."
Was der EU AI Act für Ihr Unternehmen bedeutet
Sofortiger Handlungsbedarf — jetzt, nicht 2026
Einige Pflichten gelten bereits:
| Pflicht | Gilt seit | Für wen |
|---|---|---|
| Verbotene Praktiken meiden | Feb. 2025 | Alle |
| Chatbot-Kennzeichnungspflicht | Aug. 2026* | Betreiber |
| Mitarbeiter-Schulung (AI Literacy) | Aug. 2026 | Alle Betreiber |
| Hochrisiko-Dokumentation | Aug. 2026 | Hochrisiko-Betreiber |
*technisch ab Aug. 2026 vollständig, Vorbereitung jetzt empfohlen
Ihre Pflichten als Betreiber
Schritt 1: Bestandsaufnahme Welche KI-Systeme setzt Ihr Unternehmen ein? Füllen Sie für jedes System aus:- Name und Zweck des Systems
- Anbieter
- Betroffene Gruppen
- Risikoklasse (→ Schnelltest Modul 2)
- Risikomanagementsystem einrichten
- Datenschutz-Folgenabschätzung (DPIA) prüfen
- Menschliche Aufsicht dokumentieren
- Mitarbeiter schulen
Rechte der Betroffenen
Wenn KI über Ihre Kunden, Mitarbeiter oder Bewerber entscheidet:
| Recht | Grundlage | Was Betroffene verlangen können |
|---|---|---|
| Transparenz | Art. 13 EU AI Act | Erklärung der KI-Funktion |
| Menschliche Überprüfung | DSGVO Art. 22 | Überprüfung durch Person |
| Auskunft | DSGVO Art. 15 | Welche Daten wurden verarbeitet |
| Berichtigung | DSGVO Art. 16 | Korrektur falscher Daten |
Drei Fragen für den Einkauf von KI
Bevor Ihr Unternehmen ein KI-System kauft oder lizenziert:
- „Wie erklären Sie mir eine Fehlentscheidung?" — Kein Erklärungsmodell = kein Kauf.
- „Welche Trainingsdaten haben Sie verwendet und auf welcher Rechtsgrundlage?" — Fehlende Rechtsgrundlage belastet Sie als Betreiber.
- „Wer haftet bei Diskriminierung durch Ihr System?" — „Der Kunde" ist keine Antwort.
- HR-System mit KI-Unterstützung → wahrscheinlich Hochrisiko
- Kundenservice-Chatbot → begrenztes Risiko (Offenbarungspflicht)
- Produktempfehlungen im Shop → minimales Risiko