„Transparenz wird zum zentralen Qualitätsmerkmal“

Sebastian Posth, Gründer von Liccium, über den FAIA-Standard zur strukturierten KI-Kennzeichnung in Verlagen.

Die Integration von Künstlicher Intelligenz in die Verlagswelt ist längst keine Zukunftsmusik mehr – sie findet täglich statt, vom Lektorat bis zur Metadaten-Optimierung. Doch mit den neuen Möglichkeiten wächst auch der Druck auf die Branche: Wie lässt sich der Einsatz von KI gegenüber Autoren, Handelspartnern und Lesern ehrlich und rechtssicher dokumentieren? Ein simpler Satz im Impressum greift hier oft zu kurz.

Mit FAIA (Framework for AI Accountability) steht nun ein Standard bereit, der Struktur in das technologische Dickicht bringt. Wir haben mit Sebastian Posth darüber gesprochen, wie Verlage durch präzise Kennzeichnung nicht nur regulatorische Anforderungen erfüllen, sondern Transparenz als echtes Qualitätsmerkmal etablieren können.

Foto/video: KI-generert, Freepik

Welches Problem löst FAIA für Verlage – und warum reicht ein pauschaler KI-Hinweis im Impressum nicht aus?

Für Verlage entsteht mit dem Einsatz von KI eine neue Transparenzanforderung entlang der gesamten Produktions- und Vertriebskette. KI kann in unterschiedlichen Phasen eingesetzt werden: beginnend bei der Erstellung von Texten durch Autor:innen, über verlegerische Prozesse wie Lektorat, Übersetzung, Erstellung von Marketingmaterial und Metadaten-Optimierung bis hin zu nachgelagerten Systemen von Zwischenhändlern, Plattformen und Shops, in denen Inhalte automatisiert gelistet, beschrieben oder bewertet werden. In diesem Umfeld reicht eine pauschale Aussage wie „mit KI-Unterstützung erstellt“ nicht aus. Sie ist nicht standardisiert, nicht maschinenlesbar und liefert keine belastbare Information darüber, wo, wie und in welchem Umfang KI im Publikations-Workflow eingesetzt wurde. FAIA adressiert dieses Problem, indem es Verlagen eine strukturierte und nachvollziehbare Dokumentation von KI-Nutzung ermöglicht. Die Kennzeichnung ist technisch mit dem Werk verbunden und schafft konsistente Transparenz über Produktions-, Distributions- und Vertriebssysteme hinweg – gegenüber Handelspartnern, Plattformen und Kunden.

Wie funktioniert FAIA im Verlagsalltag? Wo im Produktionsprozess wird dokumentiert – und mit welchem Aufwand?

FAIA setzt dort an, wo KI tatsächlich eingesetzt wird – etwa bei der Erstellung von Inhalten, bei Zusammenfassungen, im Lektorat, bei Übersetzungen oder in der Bildbearbeitung. Die Kennzeichnung erfolgt nicht isoliert, sondern wird mit dem Werk verbunden, sobald Inhalte publiziert oder vertrieben werden. Der anfängliche Aufwand für Verlage liegt in der technischen Integration sowie in der Festlegung interner Regeln: wann KI eingesetzt wird und welche Art der Nutzung erfasst werden soll. Sind diese Grundlagen definiert, lässt sich die Kennzeichnung in bestehende Systeme und Publikations-Workflows einbetten. Ziel ist eine verlässliche Transparenz gegenüber Handelspartnern, Plattformen und Kunden, ohne den laufenden Betrieb unnötig zu belasten.

Unterscheidet FAIA zwischen „Rechtschreibprüfung mit KI“ und „vollständig KI-generiert“ – oder ist es eine Ja/Nein-Kennzeichnung?

FAIA arbeitet nicht mit einer einfachen Ja/Nein-Kennzeichnung. Es unterscheidet zwischen übergeordneten Flags und detaillierten Kennungen zur Art der KI-Nutzung – medienübergreifend für Text, Bild, Audio und Video. Auf oberster Ebene gibt es drei Flags: 

  • HCC (Human-Created Content) für Inhalte, die vollständig von Menschen erstellt wurden, 

  • AAC (AI-Assisted Content) für Inhalte, bei denen KI unterstützend eingesetzt wurde, 

  • AIG (AI-Generated Content) für Inhalte, die überwiegend durch KI erzeugt wurden. 

Ergänzend dazu beschreibt FAIA, wie KI konkret eingesetzt wurde. Die Kennungen machen sichtbar, ob KI an der inhaltlichen Struktur beteiligt war, eigenständige Bestandteile beigesteuert hat, bestehende Inhalte erweitert oder verbessert hat, nur oberflächliche Anpassungen vorgenommen hat oder Inhalte analysiert, ausgewertet oder übersetzt wurden. So lässt sich der tatsächliche Beitrag von KI präzise einordnen – unabhängig vom Medienformat und vom konkreten Arbeitsschritt. FAIA ist dabei kompatibel mit bestehenden Branchen-Klassifikationen, insbesondere mit den Kategorien der STM Association. Diese können in FAIA abgebildet und weiter präzisiert werden, ohne bestehende Verlags-Richtlinien oder Reporting-Strukturen zu ersetzen. Zusätzlich ermöglicht FAIA die Offenlegung des eingesetzten KI-Systems und seine Rolle im Publikationsprozess. Damit wird KI-Beteiligung transparent gemacht, ohne Rezipienten mit technischen Details zu überfrachten.

„Wenn Verlage keine systematische Transparenz über den Einsatz von KI schaffen, leidet vor allem das Vertrauen in ihre Inhalte und Prozesse“

Was sollten Verlage jetzt konkret tun, auch wenn FAIA noch nicht flächendeckend im Einsatz ist?

Verlage können bereits jetzt konkrete Vorbereitungen treffen. Dazu gehört zunächst, den Einsatz von KI im eigenen Haus klar zu regeln und festzulegen, welche Anforderungen für Autor:innen sowie für Mitarbeitende gelten – etwa in Bezug auf erlaubte Nutzungen, Offenlegungspflichten und Verantwortlichkeiten. Darauf aufbauend sollten die bestehenden Publikations-Workflows daraufhin betrachtet werden, an welchen Stellen KI typischerweise zum Einsatz kommt und welche dieser Anwendungen Auswirkungen auf das veröffentlichte Werk haben. Für diese Fälle ist eine konsistente Erfassung der KI-Nutzung sinnvoll. Sinnvoll ist außerdem, typische Anwendungsfälle wie Lektorat, Übersetzung, Covergestaltung oder Marketingmaterial exemplarisch zu betrachten und in kleinen Pilotprojekten zu testen, wie sich KI-Nutzung mithilfe des FAIA-Vokabulars erfassen lässt. So kann eine spätere Integration von FAIA vorbereitet werden, ohne größere Umstellungen in bestehenden Systemen und Abläufen vorzunehmen.

Was riskieren Verlage, die keine systematische KI-Transparenz schaffen – rechtlich, geschäftlich oder beim Leservertrauen?

Wenn Verlage keine systematische Transparenz über den Einsatz von KI schaffen, leidet vor allem das Vertrauen in ihre Inhalte und Prozesse. Für Autoren, Lizenzpartner, Handelspartner, Plattformen und Kunden bleibt unklar, wie Inhalte entstanden sind und welche Rolle KI dabei gespielt hat. Das kann Zweifel an redaktioneller Verantwortung, an Qualitätsstandards und an der Verlässlichkeit verlegerischer Entscheidungen hervorrufen – insbesondere in einem Umfeld, in dem große Mengen undokumentierter, KI-generierter Inhalte die Plattformen und Shops fluten. FAIA liefert die Basis für eine einheitliche, nachvollziehbare Kennzeichnung von KI-Nutzung. Verlage können damit klar kommunizieren, ob und wie KI an der Entstehung von Inhalten beteiligt war – konsistent über Vertriebskanäle hinweg und verständlich für Handelspartner und Kunden. In einem Markt mit wachsender Unsicherheit über Herkunft und Qualität von Inhalten wird Transparenz so zu einem zentralen Qualitätsmerkmal.

Aus dem KI-Briefing des DIGITAL PUBLISHING REPORT. Das erwartet Sie im wöchentlichen ai@media Briefing:

  • Exklusive Case Studies

  • Meinungsstarke Experteninterviews

  • Fundierte Schwerpunktthemen z.B. zu rechtlichen Fragen

  • Praxisnahe Tool- und Prompting-Tipps

  • Überblick der wichtigsten News und Events

Weitere Infos
s1YyxFEYFCUd

Sebastian Posth hat als Unternehmer in der Kultur- und Kreativbranche zahlreiche Innovationsprojekte vorangetrieben. Er ist Gründer von Liccium, einem Unternehmen, das Urhebern und Rechteinhabern hilft, die Authentizität, Herkunft und Urheberrechte ihrer Werke im digitalen Raum nachweisbar zu machen. Posth hat zudem das Projekt Creator Credentials initiiert, ein Rahmenwerk für digitale Identitäten in der Kreativbranche. Er ist ein international gefragter Keynote-Speaker zu Themen wie der Zertifizierung digitaler Medien sowie der Identifikation von Inhalten und Kreativschaffenden.