KI-Technologien : Fakt oder Fake – KI im Kulturbetrieb
Die KI gibt Inspiration, sie arbeitet unermüdlich, sie scheint alles zu wissen. Und seit Neustem kann sie künstlerische und mediale Inhalte in täuschend echter Qualität erstellen. Was bedeutet diese Entwicklung für das Internet, für die sozialen Netzwerke, für unseren täglichen Medienkonsum? Wie gehen wir damit um, dass jeder Text, jedes Video in unseren Social-Media-Feeds durch KI erstellt worden sein könnte?
Dass die Information, die in diesen Medien transportiert wird, unter Umständen komplett erfunden ist oder im besten Fall nicht von der Person stammt, die sie teilt. Was würde es für uns bedeuten, wenn alles um uns herum nur Fiktion oder Fake ist und nichts mehr der Wahrheit entspricht?
Fact oder Fake sind schwer unterscheidbar
Durch die neuen Technologien im Bereich der generativen Künstlichen Intelligenz (KI) können Videos, Texte und Stimmen in täuschend echter Qualität erstellt werden. So vermag das Videomodel Sora von Open AI beispielsweise Videosequenzen in cineastischer Qualität allein aufgrund einer Texteingabe zu produzieren. Wie gut die Videos von Sora sind, macht eine exklusive Umfrage von HarrisX für die Variety Intelligence Platform (VIP+) deutlich.
Das Ergebnis: Konsumenten in den USA haben Schwierigkeiten, von Menschen aufgenommene Videos von denen zu unterscheiden, die von Open AIs Text-zu-Video-Tool Sora generiert wurden. Die Mehrheit der amerikanischen Erwachsenen lag bei der Identifizierung des Ursprungs von fünf der acht gezeigten Videos – ob durch KI oder Menschen erstellt – falsch.
Die KI von Elevenlabs erlaubt es Benutzern, ihre Stimmen zu klonen und so jeden x-beliebigen Text mit ihrer eigenen Stimme, oder der von jemand anderem, zu sprechen. Dafür reichen je nach Ausgangsmaterial einige wenige Minuten gesprochener Beispiele, und schon ist ein überzeugender Stimmklon bereit. Neben der Möglichkeit, Texte sprechen zu lassen, kann die KI von Elevenlabs auch gesprochene Sprache durch KI-generierte Stimmen lesen lassen. Dies ist hilfreich bei der Erstellung von internationalen Fassungen von Filmen oder der Übersetzung von Konferenzen in andere Sprachen.
Neben diesen businessorientierten Anwendungsbereichen eröffnen KIs wie Sora oder Elevenlabs auch neue kreative Potentiale. Zweifelsohne sind diese von großem Wert für Künstler, Werbetreibende und andere Kreative. Der Komponist und Musikunternehmer Walter Werzowa beschreibt KI als „kreative Muse, ein Partner in der Entfaltung meiner eigenen Kreativität“. Ähnlich sieht das Markus Mooslechner, Produzent und Filmautor bei Terra Mater Studios. Für ihn ist KI „ein kreativer Buddy“, der ihn in allen Phasen seiner Arbeit begleitet.
Was auf den ersten Blick nach einer großartigen Chance für die einzelnen Kreativen aussieht, entpuppt sich bei genauerem Hinsehen jedoch auch als eine gigantische Herausforderung für die Kreativbranche insgesamt.
Wird KI zum Hauptproduzenten kommerzieller Musik?
Guy Chambers, Songwriter von Robbie Williams und Kylie Minogue, äußerte vor Kurzem seine Bedenken in Bezug auf den raschen Fortschritt der KI in der Musik: „Es besteht das Risiko, dass KI, nachdem sie ohne Bezahlung alle großartigen Ideen aus der Geschichte der Popmusik abgegriffen hat, zum Hauptproduzenten kommerzieller Musik wird, weil sie die Kosten echter Musiker unterbieten kann.“
Gerhard Maier von der Seriencamp Conference ist der Meinung, dass „KI als kreativer Partner dienen kann, der nicht nur die Produktionskosten senkt, sondern auch kleinen Teams ermöglicht, hochwertige Inhalte zu schaffen. Doch während einige die technologischen Möglichkeiten erkennen und nutzen, bleiben viele in der Branche skeptisch und uninformiert, was die echte Innovation bremst.“ Ob die systematische Nutzung von KI in der Filmbranche zu einer Explosion von neuen Formaten, Inhalten oder Perspektiven führen wird, ist für Maier eine offene Frage: „Die Technologie bietet zwar die Chance, unkonventionelle und kreative Projekte zu verwirklichen, die bisher nicht finanzierbar waren, doch befürchte ich, dass viele einfach erfolgreiche Formate kopieren werden, anstatt echte Innovationen zu wagen.“
Neben diesen grundlegenden Hürden entsteht durch die generativen KI-Technologien jedoch auch ein großer Bedarf an Verifizierbarkeit und Authentifizierbarkeit von Inhalten.
Erkannt haben dieses Problem die Akteure der digitalen Wirtschaft schon vor einiger Zeit. 2019 wurde die Content Authenticity Initiative (CAI) von Adobe, „New York Times“ und Twitter ins Leben gerufen, um einen offenen Standard für Provenienz-Metadaten zu schaffen, der die Echtheit und Herkunft digitaler Inhalte verifizieren soll, um der Verbreitung von Desinformation entgegenzuwirken.
Und auch Open AI plant die Werkzeuge der CAI zu implementieren, wie es auf der Website von Sora heißt. Insgesamt ist sich die KI-Branche der großen Gefahren von generativer KI im Bereich der Fake News und Deepfakes bewusst und betont, dass Fragen nach Urheberschaft und Authentizität eine hohe Priorität in der Entwicklung von neuen Produkten besitzen.
Wasserzeichen für digitale Inhalte
Mati Staniszewski, Co-Founder von Elevenlabs, kündigte unlängst im Rahmen der Fortune Brainstorming AI London Conference an, „dass Elevenlabs zusätzlich zu ihrem ‚AI Speech Classifier‘ auch mit Wasserzeichen experimentiert, damit Partner den KI-Content verifizieren können“. Er ist der Meinung, dass es über kurz oder lang auch eine einfache Überprüfung von Inhalten auf den Social-Media-Plattformen geben wird.
Dass diese Ideen konkrete Gestalt annehmen, macht die jüngst veröffentlichte Ankündigung Metas deutlich, nach der seit Mai möglichst alle KI-generierten Inhalte auf den Plattformen Facebook, Instagram und Threads als solche gekennzeichnet werden sollen. Bei der Identifikation dieser Inhalte konzentriert sich Meta nach eigenen Angaben auf sogenannte „branchenübergreifende Signale von KI-Bildern“ und die niederschwellige Selbstmeldung durch Nutzer. Diese neue Herangehensweise erweitert die bisher geltende Regel, nach der KI-generierte Fotos oder Videos, die zu Verunsicherung und Desinformation führen könnten, gelöscht würden.
Lösungen bleiben fraglich
Ob die skizzierten Lösungsansätze von Meta oder der Content Authenticity Initiative das Problem von Deepfakes lösen können, ist jedoch fraglich. Einerseits sind einfache Wasserzeichen leicht zu entfernen, andererseits müsste jede Social-Media-Plattform alle gängigen KIs und deren „Signaturen“ kennen.
Einen anderen Weg beschreitet eine lose miteinander verbundene Gruppe von Musikern und Künstlern, die sich mit der Verbindung von KI und Blockchain-Technologie befassen. Mark Redito, Musiker und Technologe aus Los Angeles, beschreibt beispielsweise eine dezentralisierte Zukunft von generativer KI für Kunst und Musik, in der Blockchain-Technologie zur Verifizierung der Herkunft von Kunstwerken verwendet wird, eine Idee, die bereits 2013 mit Ascribe durch Masha und Trent McConaghy auf der Bitcoin Blockchain umgesetzt wurde und mit der massenartige Verbreitung von generativem KI-Content einen Durchbruch erleben könnte.
Holly Herndon setzt mit ihrem KI- und Blockchain-Projekt Holly+ auf eine ähnliche Strategie. Sie ermöglicht es anderen Künstlern, mit ihrem eigens entwickelten Stimmklon zu interagieren und neue Werke zu schaffen. Holly+ verwendet zur Überprüfung der Authentizität von Werken eine dezentrale autonome Organisation (DAO), in der Mitglieder über die Zertifizierung und Prägung neuer Werke abstimmen, die mit Holly Herndons Stimmmodell erstellt wurden. So wird die Echtheit der KI-generierten Werke auch für Dritte transparent und nachvollziehbar.
Blockchain-Projekt Story Protocol
Einen weiteren Ansatz zur Bewältigung der Herausforderungen, die mit der Authentizität von KI-generierten Inhalten einhergehen, bietet das Blockchain-Start-up Story Protocol. Seine Technologie ermöglicht es Kreativen, ihre geistigen Eigentumsrechte effizient zu verwalten, indem sie ihre Werke als „IP Assets“ auf der Blockchain registrieren können. Dadurch können Urheber transparente, automatisch durchsetzbare Lizenzierungs- und Vermarktungsoptionen nutzen und die Echtheit von Inhalten verifizieren.
Die Entwicklung von Standards und Technologien zur Authentifizierung von Inhalten, initiiert durch Programme wie die Content Authenticity Initiative und unterstützt durch Blockchain-Anwendungen und die Implementierung in Social-Media-Plattformen, öffnet nicht nur Türen für verbesserte Sicherheitsmaßnahmen, sondern birgt auch das Potential für innovative Geschäftsmodelle. In einer Welt, in der Authentizität und Vertrauen immer mehr an Bedeutung gewinnen, könnten sich Unternehmen, die sich auf die Verifizierung der Echtheit digitaler Inhalte spezialisieren, als unverzichtbare Akteure etablieren.
Durch die Etablierung von Authentizität als einen zentralen Wert schaffen diese Geschäftsmodelle nicht nur neue Märkte und Umsatzquellen, sondern fördern auch eine verantwortungsbewusste Nutzung und Verbreitung digitaler Inhalte in unserer Gesellschaft.