Transparenz12 min Lesezeit

Art. 50 Transparenzpflichten: KI-Kennzeichnung nach EU AI Act

Der EU AI Act schreibt klare Transparenzregeln vor: Chatbots müssen als KI erkennbar sein, Deepfakes gekennzeichnet werden und KI-generierte Inhalte maschinenlesbar markiert sein. Dieser Leitfaden erklärt alle Anforderungen mit praktischen Umsetzungsbeispielen.

1. Überblick: Warum Transparenz?

Art. 50 des EU AI Act etabliert das Recht der Bürger zu wissen, wann sie mit KI interagieren oder KI-generierte Inhalte konsumieren. Diese Transparenzpflichten gelten unabhängig von der Risikoklasse des KI-Systems und betreffen damit auch Systeme mit minimalem Risiko.

Geltungszeitpunkt

Die Transparenzpflichten nach Art. 50 treten am 2. August 2025 in Kraft. Dies ist einer der ersten Meilensteine des EU AI Act nach dem generellen Inkrafttreten am 1. August 2024.

Die Transparenzanforderungen dienen mehreren Zielen:

  • Informierte Entscheidungen: Nutzer sollen wissen, ob sie mit Menschen oder Maschinen kommunizieren
  • Schutz vor Manipulation: Deepfakes und synthetische Medien sollen als solche erkennbar sein
  • Bekämpfung von Desinformation: KI-generierte Inhalte sollen nicht als authentisch ausgegeben werden können
  • Vertrauensbildung: Transparente KI-Nutzung stärkt das Vertrauen in die Technologie

2. Chatbot-Kennzeichnung (Art. 50 Abs. 1)

KI-Systeme, die für die direkte Interaktion mit natürlichen Personen bestimmt sind, müssen so gestaltet sein, dass die betroffenen Personen darüber informiert werden, dass sie mit einem KI-System interagieren.

Betroffene Systeme

Chatbots

Kundenservice-Bots, FAQ-Assistenten, Support-Systeme

Virtuelle Assistenten

Sprachassistenten, persönliche Helfer, Smart-Home-Steuerung

Avatare

KI-gesteuerte digitale Persönlichkeiten, virtuelle Influencer

Empfehlungssysteme

Interaktive Produktberater, personalisierte Beratung

Umsetzungsbeispiele

// Beispiel: Chatbot-Begrüßung

"Hallo! Ich bin ein KI-Assistent und helfe Ihnen gerne bei Ihren Fragen. Für komplexe Anliegen können Sie jederzeit einen menschlichen Mitarbeiter anfordern."

Die Information muss klar, zeitnah und verständlich erfolgen. Eine einmalige Benachrichtigung zu Beginn der Interaktion ist in der Regel ausreichend.

3. Synthetische Inhalte (Art. 50 Abs. 2)

Anbieter von KI-Systemen, die synthetische Audio-, Bild-, Video- oder Textinhalte erzeugen, müssen sicherstellen, dass die Ausgaben in einem maschinenlesbaren Format als künstlich erzeugt oder manipuliert gekennzeichnet sind.

Was sind synthetische Inhalte?

  • Audio: KI-generierte Sprache, Musik, Soundeffekte
  • Bilder: Durch Diffusionsmodelle erzeugte Grafiken, KI-Kunst
  • Video: Generierte Animationen, manipulierte Aufnahmen
  • Text: Von LLMs generierte Artikel, Berichte, Beschreibungen

Technische Anforderungen

Maschinenlesbare Kennzeichnung

Die EU-Kommission wird harmonisierte Normen für die technische Umsetzung veröffentlichen. Aktuell diskutierte Ansätze:

  • C2PA (Coalition for Content Provenance and Authenticity) Standard
  • IPTC-Metadaten für Bilder
  • Wasserzeichen in Audio/Video
  • Kryptografische Signaturen

Anbieter- vs. Betreiberpflichten

AnbieterBetreiber
Müssen technische Mittel zur Kennzeichnung bereitstellenMüssen Kennzeichnung bei Veröffentlichung beibehalten
Kennzeichnung muss maschinenlesbar seinBei öffentlichen Inhalten: Auch für Menschen erkennbar machen
Interoperabilität mit gängigen Tools sicherstellenKennzeichnung darf nicht entfernt oder verfälscht werden

4. Deepfakes (Art. 50 Abs. 4)

Personen, die Deepfakes veröffentlichen oder öffentlich zugänglich machen, müssen offenlegen, dass der Inhalt künstlich erzeugt oder manipuliert wurde. Diese Pflicht trifft Betreiber und Nutzer von KI-Systemen.

Definition Deepfake

Ein "Deepfake" ist nach Art. 3 Abs. 60 EU AI Act ein durch KI erzeugter oder manipulierter Bild-, Audio- oder Videoinhalt, der einer realen Person ähnelt und fälschlicherweise als authentisch erscheinen würde.

Kennzeichnungspflicht im Detail

Die Offenlegung muss:

  • Klar und deutlich für den Durchschnittsverbraucher erkennbar sein
  • Unmittelbar beim Inhalt platziert werden, nicht versteckt
  • Dauerhaft mit dem Inhalt verbunden bleiben

// Beispiel: Deepfake-Kennzeichnung

⚠️ KI-generiert: Dieses Video wurde mithilfe künstlicher Intelligenz erstellt und zeigt keine reale Aufnahme.

Sonderfall: Künstlerische Werke

Eine Ausnahme gilt für offensichtlich künstlerische, kreative oder satirische Werke. Die Offenlegung muss jedoch auch hier erfolgen, allerdings darf sie in einer Weise geschehen, die die Darbietung oder den Genuss des Werks nicht beeinträchtigt (z.B. im Abspann).

5. Emotionserkennung (Art. 50 Abs. 3)

Betreiber eines KI-Systems zur Emotionserkennung oder biometrischen Kategorisierung müssen die betroffenen Personen über den Betrieb des Systems informieren. Diese Pflicht gilt zusätzlich zu den allgemeinen Datenschutzanforderungen der DSGVO.

Betroffene Systeme

Emotionserkennung

  • • Stimmungsanalyse in Call-Centern
  • • Emotionale Reaktionen auf Werbung
  • • Aufmerksamkeitserkennung im Unterricht

Biometrische Kategorisierung

  • • Altersschätzung
  • • Geschlechtserkennung
  • • Ethnische Kategorisierung

Wichtiger Hinweis

Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen ist nach Art. 5 Abs. 1 lit. f generell verboten, es sei denn, sie dient medizinischen oder sicherheitsrelevanten Zwecken. Die Transparenzpflicht gilt nur für erlaubte Anwendungsfälle.

6. Ausnahmen von der Kennzeichnungspflicht

Der EU AI Act sieht bestimmte Ausnahmen vor, bei denen die Transparenzpflichten nicht oder eingeschränkt gelten:

6.1 Strafverfolgung und nationale Sicherheit

Die Transparenzpflichten gelten nicht, wenn die KI-Nutzung für gesetzlich zugelassene Zwecke der Strafverfolgung, Grenzkontrolle, Migration oder Asyl erfolgt. Diese Ausnahme steht unter dem Vorbehalt der Verhältnismäßigkeit und gerichtlicher Kontrolle.

6.2 Offensichtlich künstlerische Werke

Bei offensichtlich künstlerischen, kreativen, satirischen oder fiktionalen Werken kann die Offenlegung in einer Weise erfolgen, die das künstlerische Erlebnis nicht beeinträchtigt (z.B. Credits, Impressum, Metadaten).

6.3 Redaktionelle Bearbeitung

Textinhalte, die im Rahmen eines redaktionellen Prozesses unter menschlicher Kontrolle veröffentlicht werden, sind von der Kennzeichnungspflicht ausgenommen. Der menschliche Verantwortliche trägt weiterhin die rechtliche Verantwortung.

7. Praktische Umsetzung

7.1 KI-Badge für Chatbots

🤖

KI-Assistent

Powered by AI

Beispiel eines visuellen KI-Badges für Chatbot-Interfaces. Das Badge sollte prominent und dauerhaft sichtbar sein.

7.2 Wasserzeichen für Bilder

Für KI-generierte Bilder empfehlen sich sowohl sichtbare als auch unsichtbare Wasserzeichen:

  • Sichtbares Wasserzeichen: Dezentes Logo oder Text in einer Bildecke
  • Unsichtbares Wasserzeichen: Steganografisch eingebettete Metadaten nach C2PA-Standard
  • EXIF-Metadaten: Hinweis auf KI-Generierung in den Bildeigenschaften

7.3 Content Credentials (C2PA)

Der C2PA-Standard (Coalition for Content Provenance and Authenticity) bietet einen branchenweiten Rahmen für die Kennzeichnung digitaler Inhalte:

C2PA-Metadaten beinhalten:

  • Ursprung des Inhalts (welches Tool, welcher Anbieter)
  • Art der Erstellung (generiert vs. bearbeitet)
  • Kryptografische Signatur zur Verifizierung
  • Bearbeitungshistorie (wenn vorhanden)

8. Compliance-Checkliste für Art. 50

Transparenz-Compliance Checkliste

Chatbot-Kennzeichnung implementiert

Alle interaktiven KI-Systeme zeigen deutlich an, dass Nutzer mit KI kommunizieren

Maschinenlesbare Kennzeichnung aktiviert

Generierte Inhalte enthalten C2PA-Metadaten oder vergleichbare Standards

Sichtbare Kennzeichnung für öffentliche Inhalte

Bei Veröffentlichung: Zusätzliche für Menschen erkennbare Markierung

Deepfake-Policy erstellt

Richtlinien für die Kennzeichnung manipulierter Personen-Darstellungen

Emotionserkennung dokumentiert

Nutzer werden vor Einsatz von Emotions- oder biometrischen Systemen informiert

Schulung der Mitarbeiter durchgeführt

Alle Beteiligten kennen die Transparenzanforderungen und ihre Umsetzung

Audit-Trail implementiert

Dokumentation der Kennzeichnungsmaßnahmen für Nachweiszwecke

Transparenz-Widget für Ihre Website

Mit dem KlarStack Transparenz-Widget generieren Sie in wenigen Sekunden einen Art. 50-konformen Hinweis für Ihre KI-Anwendungen.

Jetzt Widget erstellen →

Häufig gestellte Fragen

Ab wann gelten die Transparenzpflichten nach Art. 50?

Die Transparenzpflichten nach Art. 50 EU AI Act gelten ab dem 2. August 2025. Unternehmen sollten ihre KI-Systeme bereits jetzt auf Compliance prüfen und notwendige Kennzeichnungen implementieren.

Muss jeder Chatbot als KI gekennzeichnet werden?

Ja, nach Art. 50 Abs. 1 müssen Anbieter von KI-Systemen, die für die direkte Interaktion mit natürlichen Personen bestimmt sind, sicherstellen, dass Nutzer darüber informiert werden, dass sie mit einem KI-System interagieren. Dies gilt für alle Chatbots, virtuelle Assistenten und ähnliche Systeme.

Was sind synthetische Inhalte und wie müssen sie gekennzeichnet werden?

Synthetische Inhalte sind durch KI erzeugte oder manipulierte Audio-, Bild- oder Videoinhalte. Nach Art. 50 Abs. 2 müssen diese maschinenlesbar gekennzeichnet werden. Bei öffentlich verbreiteten Inhalten muss zusätzlich eine für Menschen erkennbare Kennzeichnung erfolgen.

Welche Ausnahmen gibt es von der Kennzeichnungspflicht?

Ausnahmen gelten für: (1) Gesetzlich zugelassene Strafverfolgungsmaßnahmen, (2) Offensichtlich künstlerische oder satirische Werke, (3) KI-Inhalte, die nur unterstützend bei menschlicher Redaktion eingesetzt wurden und unter menschlicher Kontrolle veröffentlicht werden.

Welche Strafen drohen bei Verstößen gegen Art. 50?

Verstöße gegen die Transparenzpflichten können mit Geldbußen von bis zu 15 Millionen Euro oder 3% des weltweiten Jahresumsatzes geahndet werden. Bei KMU und Start-ups gilt der jeweils niedrigere Betrag.

Weiterführende Artikel