Konferenz »Shaping AI« der Bundestagsfraktion Bündnis 90 / Die Grünen
Die Bundestagsfraktion Bündnis 90/ Die Grünen veranstaltete am 19. April 2024 die eintägige Konferenz »Shaping AI – Demokratisch. Nachhaltig. Innovativ.«, auf der Expert*innen aus Wissenschaft, Wirtschaft, Verwaltung und Zivilgesellschaft und die interessierte Öffentlichkeit gemeinsam mit den Abgeordneten zum Thema künstliche Intelligenz ins Gespräch gekommen sind.
Ein Bericht von Marco Urban
Es gab Reden und Debatten in der großen Halle des Paul-Löbe-Hauses, das sehr gut besucht war und 14 Foren in den Ausschusssitzungssälen. Hier wurde das gesamte Feld der KI thematisiert. Für uns relevant waren die Foren »Fortschritt und Fairness: Urheber*innen schützen, Innovationen ermöglichen« und »KI im Journalismus: Revolution oder Evolution der Informationslandschaft«.
Generative Sprachmodelle werden auf der Grundlage großer Datenmengen entwickelt. Dafür werden Millionen von digitalen Inhalten gesammelt, ohne dafür zu bezahlen. Kulturschaffende haben in den letzten Jahren klar vor den wirtschaftlichen Folgen gewarnt und klare Regulierung gefordert. Im Forum »Fortschritt und Fairness« diskutierten Awet Tesfaiesus, Erhard Grundl und Tobias Bacherle mit Stefanie Valdés-Scott, der Leiterin Politik und Regierungsbeziehungen von Adobe, der Musikerin und Komponistin Balbina sowie Rechtsanwalt Prof. Dr. Jan Bernd Nordemann darüber, ob und wie innovative KI-Tools mit einem starken Urheberrechtsschutz vereinbart werden können. Im Kern ging es um die Interessen der Industrie versus derer der Urheber*innen.
Jan Bernd Nordemann forderte Standards für das Opt-Out durch die Urheber*innen als notwendige Grundlage für Lizenzvereinbarungen. Das Training wird dort urheberrechtlich reguliert, wo es hardwaremäßig stattfindet. Außerhalb Europas dürfte es also schwierig werden. Der EU AI-Act legt aber fest, dass die Anbieter*innen von Trainingsdatenbanken und KI-Anwendungen, die in Europa angeboten werden, das Training auch nach EU-Regeln durchführen müssen.
Balbina wies darauf hin, dass nicht-demokratische Länder ihre KIs womöglich mit ihren nicht-demokratischen Inhalten trainieren. Damit liefern die KI-Anwendungen auch entsprechende Ergebnisse.
Stefanie Valdés-Scott konnte Adobe als gutes Beispiel vorstellen, da Adobes FireFly nur mit Bildern trainiert wird, für die Adobe auch die entsprechenden Rechte eingeholt hat. Üblicherweise werden Bilder und andere Daten einfach aus dem Netz gescraped (gekratzt oder gesammelt), ohne vorher eine Genehmigung der Urheber*innen einzuholen oder diese entsprechend zu honorieren.
Katharina Uppenbrink von der Initiative Urheberrecht berichtete, dass die IU gerade ein Rechtsgutachten in Auftrag gegeben hat, welches die Frage klären soll, ob das Scraping von Daten im Netz und die folgende Nutzung in Trainingsdatenbanken ohne Erlaubnis der Rechteinhaber*innen überhaupt vom Text-Datamining-Gesetz (TDM) gedeckt ist.
Vertreter*innen der Industrie (Bitcom bspw.) waren der Meinung, dass das Text-Datamining-Gesetz greife und man bestehende Urheberrechtsregeln, auch im Hinblick auf ähnliche Werke die aktuell erlaubt sind, nicht ändern sollte.
Ich habe dem erwidert, dass neue Technologien selbstverständlich Anpassungen bei den entsprechenden Gesetzen nötig machen. Darüber hinaus habe ich meine Verwunderung kundgetan, dass ein Opt-Out-Verfahren anscheinend als gesetzt gilt. Die KI-Industrie hat hier tatsächlich erfolgreich ein Narrativ gesetzt. Das ist aber nicht der übliche Weg – normalerweise werden Rechteinhaber*innen gefragt, ob Werke verwendet werden dürfen. RA Nordemann stimmte mir zu, war aber der Meinung, dass »der Zug abgefahren« sei.
Im Forum »KI im Journalismus« diskutierten Tabea Rößner und Erhard Grundl mit den Expertinnen Hannah Möllers, Justiziarin des Deutschen Jounalisten-Verbands (DJV), Prof. Wiebke Loosen, Lehrstuhl für Journalismusforschung der Universität Hamburg und Lina Timm, Geschäftsführerin bei Media Lab Bayern die Frage: Wie verändern sich Journalismus und die Medienrezeption durch KI? Es ging auf der einen Seite um die Möglichkeiten der KI, Journalist*innen die Arbeit zu erleichtern, auf der anderen Seite aber auch um die Gefahren KI-generierter Inhalte und natürlich Fake-News.
Hannah Möllers brachte das treffend auf den Punkt: »KI kann individuelle Inhalte kreieren und wird die Welt der Nachrichten verändern.« Lina Timm fragte, wie KI-Inhalte gekennzeichnet werden können. Es herrschte Einigkeit darüber, dass die klassischen Medien die Informationshoheit an Soziale Medien und Messengerdienste verloren haben. Die Einnahmen des Journalismus wandern von den Verlagen zu den Big-Five IT-Konzernen. Verbindungen der IT-Industrie mit den Verlagen, wie bei Google und Axel Springer, wirken nicht zugunsten der Journalist*innen. Sie profitieren nicht, müssen stattdessen um ihre Arbeitsplätze und Aufträge fürchten. Ein Vergütungsanspruch für Urheber*innen ist also notwendig, um diese an der Wertschöpfung zu beteiligen. Wiebke Loosen forderte, dass Journalismus gemeinnützig werden müsse, da er sich nicht mehr aus Abos finanzieren kann.
Beide Foren haben gezeigt, dass es für uns als Urheber*innen und Fotojournalist*innen schwieriger wird. Wir befinden uns im Wettbewerb mit den großen KI- oder IT-Konzernen, die ihre KI-Modelle mit unserer Kreativität trainieren, ohne uns zu fragen oder gar zu honorieren.
Der AI-Act der Europäischen Union ist ein erster Schritt, um die Urheber*innen zu schützen. Bislang handelt es sich aber eher um eine Willensbekundung: Es wird festgestellt, dass die Rechte der Urheber*innen zu achten sind. Jetzt kommt es drauf an, wie der AI-Act im Detail umgesetzt wird. Hier gibt es viel Handlungsbedarf seitens der Politik – und auch die Verbände der Urheber*innen sind gefordert, sich einzubringen.
Aufzeichnung des zentralen Bühnenprogramms auf YouTube:
Der Veranstaltungsbericht mit Fotos und den Graphic-Recordingergebnissen kann hier eingesehen werden.