Insights

Briefing | Kennzeichnung von KI nach der KI-Verordnung: Ein Praxisleitfaden für Anbieter und Betreiber von KI-Systemen

Geschrieben von YPOG | 17. April 2026

Die Einhaltung der Transparenzpflichten der KI-Verordnung geht über das bloße Anbringen eines Hinweises hinaus. Sie verlangt von Anbietern und Betreibern den Aufbau robuster Governance-Strukturen, um eine einheitliche Kennzeichnung und Offenlegung von KI-generierten Inhalten über sämtliche Inhaltsarten und Vertriebskanäle hinweg sicherzustellen. Dieser Leitfaden legt die konkreten Schritte dar, die erforderlich sind, um diesen Verpflichtungen ab dem 2. August 2026 nachzukommen.

Im Februar 2026 geriet der öffentlich-rechtliche Sender ZDF in einen Skandal, nachdem seine Hauptnachrichtensendung „heute journal“ KI-generiertes Videomaterial ausgestrahlt hatte, ohne dass eine redaktionelle Kennzeichnung erfolgte. Das Video zeigte dramatische, aber frei erfundene Szenen, in denen eine Frau und ihre Kinder von ICE-Beamten abgeführt wurden. Es wurde verwendet, um einen sensiblen politischen Bericht über die US-Einwanderungskontrolle zu veranschaulichen.

Derartige Vorfälle machen deutlich, dass sich KI-generierte Inhalte ohne eindeutige technische und visuelle Kennzeichnung für das menschliche Auge immer weniger von authentischem Material unterscheiden lassen. Um dieser neuen Realität Rechnung zu tragen, hat der europäische Gesetzgeber die Verordnung zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (KI-Verordnung, nachfolgend: KI-VO) eingeführt, die Transparenzpflichten vorsieht, um sicherzustellen, dass synthetische Inhalte als solche erkennbar bleiben (Art. 50 KI-VO).

Zwar setzen die Transparenzpflichten der KI-VO begrüßenswerte Ziele, doch sind die für die technische Umsetzung erforderlichen praktischen Schritte noch weitgehend unklar. Da die Transparenzpflichten bereits am 2. August 2026 rechtsverbindlich werden, fehlt es betroffenen Unternehmen derzeit an Klarheit über die konkreten Schritte, die zu ihrer Einhaltung erforderlich sind.

Um praktische Orientierungshilfen zu bieten, erarbeitet die Europäische Kommission derzeit einen Verhaltenskodex (Code of Practice, nachfolgend: CoP), dessen jüngster Entwurf am 5. März 2026 veröffentlicht wurde. Die Unterzeichnung und Einhaltung des CoP ist zwar freiwillig, löst für unterzeichnende Unternehmen gegenüber den Aufsichtsbehörden jedoch die Vermutung der Konformität mit Art. 50 KI-VO aus und verringert damit die Rechtsunsicherheit für die Unterzeichnenden.

Wer ist betroffen?

Um sich im Geflecht der Transparenzpflichten zurechtzufinden, ist zunächst zu ermitteln, welche Pflichten für welche Akteure in der KI-Wertschöpfungskette gelten. Im Gegensatz zum Herzstück der KI-VO, das auf die Regulierung von Hochrisiko-KI-Systeme abzielt, gelten die Transparenzpflichten horizontal für alle Anbieter und Betreiber, unabhängig von der Risikoeinstufung eines KI-Systems.

Ein Unternehmen qualifiziert sich als Anbieter, wenn es ein KI-System entwickelt, oder entwickeln lässt und es unter eigenem Namen oder eigener Marke in Verkehr bringt oder in Betrieb nimmt. Dazu zählen in der Praxis Plattformen, die KI-gestützte Tools oder Dienste anbieten, sei es als AI-as-a-Service-Plattform, Unternehmenssoftware mit integrierten KI-Analysen oder proprietäre Chatbot-Lösung.

Als Betreiber gilt jedes Unternehmen, das ein KI‑System unter eigener Aufsicht in einem beruflichen Zusammenhang verwendet. Das betrifft eine breite Palette von Organisationen, von Kanzleien, die KI-gestützte Recherche-Tools nutzen, über Marketing-Agenturen, die Kampagnenbilder generieren, bis hin zu Unternehmen, KI-Systeme zur Kundenkommunikation einsetzen. 

Implementierung anbieterseitiger Kennzeichnungen – Pflichten des Anbieters

Nach der KI-VO müssen Anbieter

  • KI‑Systeme, die für die Interaktion mit Menschen bestimmt sind (z.B. Kundenservice-Chatbots), so gestalten, dass die Nutzer darüber informiert werden, dass sie mit einer KI interagieren (Art. 50 Abs. 1 KI-VO). Diese Offenlegung ist verpflichtend, es sei denn, eine verständige Person würde die künstliche Natur der Kommunikation aus den Umständen heraus klar erkennen und
  • im Falle von KI-Systemen, die synthetische Audio-, Bild-, Video- oder Textinhalte erzeugen, sicherstellen, dass die Ausgaben des KI-Systems (Outputs) in einem maschinenlesbaren Format gekennzeichnet sind (Art. 50 Abs. 2 KI-VO).

Der Entwurf des CoP stellt klar, dass eine einfache Kennzeichnung nicht ausreicht. Entscheidend ist, dass Anbieter sicherstellen, dass die Herkunft von KI-generierten Inhalten auch nach der Weitergabe, Bearbeitung oder Wiederverwendung nachweisbar bleibt. Eine Anforderung, die erhebliche praktische Herausforderungen mit sich bringt, da digitale Inhalte regelmäßig Komprimierungen, Formatkonvertierungen, Zuschnitten und der Weiterverbreitung über verschiedene Plattformen unterliegen, was eingebettete Markierungen beeinträchtigen oder entfernen kann. Um dem zu begegnen, verlangt der CoP-Entwurf von den Anbietern, eine mehrschichtige Kennzeichnungsstrategie zu verfolgen, die mehrere sich ergänzende Techniken kombiniert.

Da Anbieter die Plattformen kontrollieren, auf denen Inhalte erstellt werden, müssen sie sicherstellen, dass diese mit einer rückverfolgbaren digitalen Identität entstehen:

  • Bei Formaten, die Metadaten unterstützen, wie beispielsweise Bilder, Videos oder Dokumente, wird von den Anbietern verlangt, dass sie digital signierte Herkunftsinformationen (Metadaten) einbetten, die das KI-System und die Art der vorgenommenen Verarbeitung identifizieren.
  • Da Metadaten leicht entfernt werden können, müssen sie durch unsichtbare Wasserzeichen ergänzt werden, die direkt in den Inhalt eingebettet sind. Diese Wasserzeichen sind so konzipiert, dass sie einer etwaigen Komprimierung, einem Zuschneiden und anderen Veränderungen standhalten und so die automatische Erkennung des synthetischen Ursprungs gewährleisten. Wenn sich beide Techniken als unzureichend erweisen, insbesondere bei textbasierten Ausgaben, sieht der CoP-Entwurf Fingerabdruck- oder Protokollierungsmechanismen als Ausweichlösung vor. Konkret speichert das System des Anbieters einen mathematischen Fingerabdruck jeder Ausgabe, sodass Nutzer Inhalte auf ein Verifizierungsportal hochladen können, wo anhand interner Protokolle geprüft wird, ob das System den betreffenden Inhalt erzeugt hat. Es steht eine wachsende Anzahl technischer Ansätze zur Umsetzung dieser Anforderungen zur Verfügung. Neben den oben beschriebenen Techniken zeigen neu aufkommende Methoden wie Wasserzeichen auf Token-Ebene (bei denen Herkunftssignale bereits während der Generierung auf Ebene einzelner Text-Token eingebettet werden) sowie Blockchain-basierte Verifizierungssysteme (die unveränderliche, dezentrale Datensätze über den Ursprung von Inhalten erstellen), welche Bandbreite an ergänzenden Maßnahmen Anbietern zur Verfügung steht, um die Rückverfolgbarkeit von KI-generierten Ausgaben weiter zu stärken.

Diese Detailtiefe zeigt, dass Aufsichtsbehörden voraussichtlich keine pauschalen Behauptungen wie das „Verwenden von Wasserzeichen“ akzeptieren werden. Anbieter werden zukünftig nachweisen müssen, wo und wie Inhalte gekennzeichnet werden, dass diese Kennzeichnung gängige Transformationen übersteht und wie diese Maßnahmen getestet und dokumentiert werden. De facto müssen Anbieter Transparenz als prüfbare Systemfähigkeit behandeln.

Die praktische Wirksamkeit dieser Maßnahmen dürfte maßgeblich davon abhängen, welche Standards sich bei den großen Branchenakteuren durchsetzen. Der C2PA‑Standard, der bereits von Microsoft, Adobe und Google unterstützt wird, zeichnet sich dabei als führender Kandidat ab.

Anbieter-Pflichten auf einen Blick

Auf Grundlage des CoP-Entwurfs sollten Anbieter sich darauf vorbereiten, die folgenden Pflichten zu erfüllen:

  • Sicherstellen, dass Nutzer von KI-Systemen, die für die direkte Interaktion ausgelegt sind, klar erkennen können, dass sie mit einem KI‑System interagieren.
  • Implementierung einer maschinenlesbaren Kennzeichnung sämtlicher synthetischer Audio‑, Bild‑, Video‑ und Textausgaben durch eine mehrschichtige Kennzeichnungsstrategie bestehend aus (i) digital signierten Herkunfts-Metadaten, (ii) unsichtbaren Wasserzeichen, die gängigen Transformationen wie Komprimierung oder Zuschneiden standhalten, sowie (iii) Fingerprinting- oder Protokollierungsmechanismen als ergänzende Rückfalloption, sofern Metadaten und Wasserzeichen nicht ausreichen.
  • Bewertung und ggf. Übernahme aufkommender technischer Standards, insbesondere des C2PA‑Standards zur Herkunfts- und Echtheitsbestimmung von Inhalten.
  • Einrichtung interner Verfahren zur laufenden Prüfung, Überwachung und Dokumentation der Wirksamkeit aller Kennzeichnungstechniken, sodass Transparenzmaßnahmen stets auditierbar bleiben.
  • Kontinuierliche Beobachtung der Weiterentwicklung des Verhaltenskodex und Bewertung, ob Aktualisierungen Anpassungen bestehender Compliance‑Maßnahmen erfordern.


Einrichtung betreiberseitiger Kennzeichnungen – Pflichten des Betreibers

Nach der KI-VO müssen Betreiber

  • sichtbar offenlegen, wenn es sich bei Inhalten um Deepfakes handelt oder wenn KI-generierte Texte zur Information der Öffentlichkeit in Angelegenheiten von öffentlichem Interesse veröffentlicht werden (Art. 50 Abs. 4 KI-VO). Eine Ausnahme besteht, sofern der Text einer maßgeblichen menschlichen Überprüfung unterzogen und unter redaktioneller Verantwortung veröffentlicht wurde.
  • natürliche Personen informieren, wenn sie Systemen ausgesetzt sind, die dazu bestimmt sind, Emotionen zu erkennen oder sie anhand biometrischer Merkmale zu kategorisieren (Art. 50 Abs. 3 KI-VO). Setzt ein Unternehmen etwa ein KI‑System zur Überwachung von Mitarbeiter‑Müdigkeit ein, so sind die betroffenen Personen unmissverständlich darüber in Kenntnis zu setzen, dass sie einer KI-gestützten Analyse unterzogen werden.

Die strengsten Regelungen des CoP-Entwurfs betreffen Deepfakes. Während der Begriff häufig mit realistischen „Face‑Swaps“ verbunden wird, ist die Definition der KI‑Verordnung erheblich weiter: Sie umfasst jede KI‑generierte oder ‑manipulierte Bild‑, Audio‑ oder Video‑Darstellung, die einen realistischen, aber falschen Eindruck von Personen, Orten, Objekten oder Ereignissen erzeugt. Damit können selbst gängige Bildbearbeitungen mittels Photoshop Transparenzpflichten auslösen.

Laut CoP-Entwurf müssen Deepfakes durch ein sichtbares Label gekennzeichnet werden. Die Anforderungen variieren je nach Format: Bei Nicht-Echtzeit-Videos oder Bildern ist ein dauerhaft sichtbares Symbol erforderlich. Bei reinen Audioformaten ist zu Beginn ein gesprochener Hinweis erforderlich. Selbst Deepfakes in künstlerischen, fiktionalen oder satirischen Werken müssen offengelegt werden, allerdings in nicht aufdringlicher Weise, um die kreative Ausdrucksfreiheit zu erhalten und gleichzeitig Rechte Dritter zu schützen.

Transparenzpflichten erstrecken sich ferner auf KI-generierte oder manipulierte Texte, die zur Information der Öffentlichkeit in Angelegenheiten von öffentlichem Interesse veröffentlicht werden, namentlich Nachrichtenartikel, Policy-Papiere oder offizielle Unternehmensmitteilungen. Eine Offenlegung ist stets erforderlich, es sei denn, der Betreiber kann sich auf die Ausnahme der menschlichen Überprüfung und redaktionellen Verantwortung berufen. Der CoP-Entwurf engt diese Ausnahme jedoch erheblich ein, indem er dokumentierte interne Verfahren, namentlich benannte verantwortliche Personen sowie nachvollziehbare Freigabeprozesse verlangt – und damit unmissverständlich klarstellt, dass die Ausnahme nicht als Vorwand für eine lediglich oberflächliche redaktionelle Kontrolle herangezogen werden kann.

In der Praxis werden Unternehmen ein standardisiertes Icon zur Kennzeichnung verwenden müssen. Solange noch kein EU-weit harmonisiertes interaktives Icon existiert, können Betreiber ein vorläufiges visuelles Label nutzen, etwa die Abkürzung „AI“ oder die lokale Sprachvariante „KI“ für deutschsprachige Nutzer, ähnlich wie in diesen Beispielen:

 

Das Icon muss für Nutzer beim erstmaligen Kontakt klar sichtbar sein und an einer geeigneten Stelle platziert werden. Langfristig sieht der CoP-Entwurf ein standardisiertes interaktives EU-Icon vor, über das Nutzer weiterführende Informationen zur Herkunft des Inhalts abrufen können, basierend auf den von Anbietern eingebetteten maschinenlesbaren Kennzeichnungen.

Transparenz muss somit ein integraler Bestandteil des Compliance‑Managements von Betreibern werden. Betreiber müssen Dokumentation über ihre Kennzeichnungspraktiken führen, Personal zu Offenlegungspflichten schulen und Überwachungsmechanismen implementieren, die es Nutzern und Behörden ermöglichen, falsch gekennzeichnete oder ungekennzeichnete synthetische Inhalte für eine schnelle Korrektur zu melden.

Betreiber-Pflichten auf einen Blick

Basierend auf dem CoP-Entwurf sollten Betreiber sich auf folgende zentrale Pflichten vorbereiten:

  • Sichtbare Kennzeichnung aller Deepfakes im Sinne der KI‑Verordnung mittels eines standardisierten Icons oder – bei reinen Audioformaten – eines gesprochenen Hinweises zu Beginn jeder Aufnahme.
  • Kennzeichnung von KI-‑generierten oder manipulierten Texten, die veröffentlicht werden, um die Öffentlichkeit in Angelegenheiten von öffentlichem Interesse zu informieren, oder alternativ Aufbau ausreichender und dokumentierter menschlicher Prüfprozesse und Veröffentlichung unter identifizierter redaktioneller Verantwortung.
  • Information natürlicher Personen, wenn sie Systemen zur Emotionserkennung oder zur Kategorisierung anhand biometrischer Daten ausgesetzt sind.
  • Einrichtung interner Compliance‑Dokumentation, Schulung von Personal zu Offenlegungspflichten und Implementierung von Mechanismen zur Meldung und Korrektur fehl- oder nicht gekennzeichneter synthetischer Inhalte.
  • Laufende Beobachtung der Weiterentwicklung des CoP und Bewertung, ob Compliance‑Maßnahmen angepasst werden müssen.

Fazit

Der CoP‑Entwurf verdeutlicht, dass die Erfüllung der Transparenzpflichten der KI-‑Verordnung weit über das bloße Anbringen einer Kennzeichnung hinausgeht. Anbieter wie Betreiber sind gleichermaßen gefordert, interne Richtlinien und Governance‑Strukturen zu etablieren, die eine einheitliche Kennzeichnung und Offenlegung über sämtliche Inhaltstypen, Vertriebskanäle und Nutzer‑Journeys hinweg gewährleisten.

Um rechtzeitig compliant zu sein, sollten Unternehmen:

  • ihre Rolle als Anbieter oder Betreiber nach der KI-VO bestimmen,
  • Lücken zwischen aktuellen Praktiken und den Transparenzpflichten gemäß Art. 50 KI-‑VO sowie dem CoP‑Entwurf identifizieren,
  • ggf. interne Richtlinien und Governance-Strukturen für KI-Transparenz entwickeln, einschließlich Kennzeichnungs-‑Workflows, und relevantes Personal schulen,
  • sofern erforderlich, technische Kennzeichnungs- und Offenlegungsmechanismen implementieren, Überwachungs- sowie Beschwerdeverfahren etablieren und die Compliance-Dokumentation vor Inkrafttreten finalisieren.