über generative ki / „a plea against meat chauvinism.”
Inhalt
KI – technische Funktionsweise 1
Urheberrechtliche Fragestellungen 10
Input – Hintergrund / Evolution 10
Zur technischen Funktionsweise 11
KI an sich als Vervielfältigung 12
Urheberrechtsverletzungen bei Gelegenheit des Trainings 14
Hintergrund der Urheberrechtsschranke des § 44b 15
Kontext – Telos – Anwendungsbereich 38
Regelungskonzept – Instrumente 41
Urheberrechtliche Transparenz durch Art. 28b 45
Nutzungsbeispiele Deepfake, Chatbot, Emotionserkennung Art. 52 46
Regulierungsbedarf bei der Nutzung i.e.S. 49
Janik Hauser
Schäufeleinstraße 6a
80687 München
13. Fachsemester
Matrikelnummer 6383912
Wissenschaftliche Hausarbeit zum Seminar
Legal Tech und Änderungen des Rechts durch Digitalisierung
Prof. Dr. Roland Broemel
Goethe-Universität Frankfurt am Main
Wintersemester 2022/2023
Literatur:
(Alle genannten Quellen werden in den Fußnoten als Kurzzitate mit Nachnamen der Autor:innen und einer Ziffer angegeben, die für Seitenzahl oder Randnote steht)
Allhutter et al.:
Der AMS-Algorithmus . Eine Soziotechnische Analyse des Arbeitsmarktchancen-Assistenz- Systems, 2020
Berz et al.:
Generative KI, Datenschutz, Hassrede und Desinformation – Zur Regulierung von KI-Meinungen ZUM 2023, 586
Zitiert als: Berz
Baumann, Malte:
Generative KI und Urheberrecht – Urheber und Anwender im Spannungsfeld NJW 2023, 3673
Blasek, Katrin:
KI-Regulierung in der Volksrepublik China RDi 2023, 557
Bundestag — Wissenschaftliche Dienste:
Sachstand: Anpassung des Urheberrechts an die Erfordernisse des digitalen Binnenmarktes, 2021
Zitiert als: BT Sachstand
Wandtke/Bullinger:
Urheberrecht, 6. Aufl. 2022
Busche, Daniel:
Einführung in die Rechtsfragen der künstlichen Intelligenz JA 2023, 441
Bußmann et al.:
Die Schutzfähigkeit von KI- Trainingsdaten de lege lata RDi 2022, 391
Bomhard/Merkle:
Regulation of Artificial Intelligence EuCML 2021, 257
Zitiert als: Bomhard II
Bomhard/Merkle:
Europäische KI-Verordnung RDi 2021, 276
Bomhard/Siglmüller:
AI Act – das Trilogergebnis RDi 2024, 45
Dornis, Tim:
Die „Schöpfung ohne Schöpfer“ – Klarstellungen zur „KI-Autonomie“ im Urheber- und Patentrecht GRUR 2021, 784
Dornis, Tim:
Der Schutz künstlicher Kreativität im Immaterialgüterrecht GRUR 2019, 1252
Zitiert als: Dornis II
Dreier/Schulze:
Urheberrechtsgesetz, 7. Aufl. 2022
Zitiert als: Bearbeiter/Dreier/Schulze
de la Durantaye, Katharina:
»Garbage in, garbage out« – Die Regulierung generativer KI durch Urheberrecht ZUM 2023, 645
Ebers et al.:
Der Entwurf für eine EU-KI- Verordnung: Richtige Richtung mit Optimierungsbedarf RDi 2021, 528
Ebers, Martin:
Standardisierung Künstlicher Intelligenz und KI-Verordnungsvorschlag RDi 2021, 588
Zitiert als: Ebers II
Ebert/Spiecker gen. Döhmann:
Der Kommissionsentwurf für eine KI-Verordnung der EU NVwZ 2021, 1188
European Parliament:
Amendments adopted by the European Parliament on 14 June 2023 on the proposal for a regulation of the European Parliament and of the Council on laying down harmonized rules on artificial intelligence (Artificial Intelligence Act) and amending certain Union legislative acts – (COM(2021)0206 – C9 0146/2021 – 2021/0106(COD))
abrufbar unter: https://beck-link.de/2bnxh
Zitiert als: EP/Amendments June 2023
Endres/Mühleis:
Verbotener Code MMR 2023, 725
Engelmann et al.:
Regulierung von Legal Tech durch die KI-Verordnung RDi 2021, 317
Frank/Heine:
KI-Einsatz im Betrieb unter der KI-Verordnung NZA 2023, 1281
Freud, Sigmund:
Gesammelte Werke in 18 Bänden mit einem Nachtragsband, Bd. 12, 2001
Geminn, Christian:
Die Regulierung Künstlicher Intelligenz ZD 2021, 354
Gerecke, Martin:
Social Media und Recht: Einige urheberrechtliche Gedanken zu generativen KI-Modellen GRUR-Prax 2023, 381
Gola/Heckmann:
Datenschutz-Grundverordnung - Bundesdatenschutzgesetz 3. Auflage 2022
Gräfe/Kahl:
KI-Systeme zur automatischen Texterstellung MMR 2021, 121
Haar, Tobias:
KI-Regulierung: Gelingt die Quadratur des Kreises? MMR 2023, 397
Hacker, Philipp:
Die Regulierung von ChatGPT et al. – ein europäisches Trauerspiel GRUR 2023, 289
Zitiert als: Hacker II
Hacker, Philipp:
Immaterialgüterrechtlicher Schutz von KI-Trainingsdaten GRUR 2020, 1025
Zitiert als: Hacker III
Hacker/Berz.
Der AI Act der Europäischen Union – Überblick, Kritik und Ausblick ZRP 2023, 226
Zitiert als: Hacker
Hahn, Johanna:
Die Regulierung biometrischer Fernidentifizierung in der Strafverfolgung im KI-Verordnungsentwurf der EU-Kommission ZfDR 2023, 142
Halim/Gasser:
Vektoren zukünftiger Governance von Künstlicher Intelligenz RDi 2023, 217
Heiss, Stefan:
Artificial Intelligence Meets European Union Law EuCML 2021, 252
Hepp, Andreas:
Die Herausforderungen der Regulation und Governance von kommunikativer KI: Drei Thesen aus kommunikations- und medienwissenschaftlicher Sicht ZUM 2023, 553
Hetmank/Lauber-Rönsberg:
Künstliche Intelligenz – Herausforderungen für das Immaterialgüterrecht GRUR 2018, 574
Hinderks , Tobias:
Die Kennzeichnungspflicht von Deepfakes ZUM 2022 , 110
Hoffmann-Riem, Wolfgang:
Die digitale Transformation als rechtliche Herausforderung JuS 2023, 617
Holthausen, Joachim:
Einsatz künstlicher Intelligenz im HR-Bereich und Anforderungen an die „schöne neue Arbeitswelt X.0“ RdA 2023, 361
Hugenholtz/Quintais:
Copyright and Artificial Creation: Does EU Copyright Law Protect AI-Assisted Output? IIC 2021, 1190
Hutson, Matthew:
Conflicting Visions for AI Regulation, Nature Vol 620 (2023), 260
Iaia, Vincenzo:
To Be, or Not to Be ... Original Under Copyright Law, That Is (One of) the Main Questions Concerning AI-Produced Works GRUR Int. 2022, 793
Jütte, Bernd:
What Is Sust[AI]nable Intellectual Property? IIC 2023, 1311
Kalbhenn, Jan:
Designvorgaben für Chatbots, Deepfakes und Emotionserkennungssysteme: Der Vorschlag der Europäischen Kommission zu einer KI-VO als Erweiterung der medienrechtlichen Plattformregulierung ZUM 2021, 663
Kastl-Riemann, Graziana:
Algorithmen und Künstliche Intelligenz im Äußerungsrecht ZUM 2023, 578
Kim, Daria:
The Paradox of the DABUS Judgment of the German Federal Patent Court GRUR Int. 2022, 1162
Krausen, Jean-Marcel:
Künstliche Intelligenz als die letzte Erfindung des Menschen? GRUR 2023, 841
Krone, Felix:
Urheberrechtlicher Schutz von ChatGPT-Texten? RDi 2023, 117
Kumkar/Rapp:
Deepfakes ZfDR 2022, 199
LeCun et al.
Deep learning, Nature 521.7553 (2015), 436
Legner, Sarah:
Erzeugnisse Künstlicher Intelligenz im Urheberrecht ZUM 2019, 807
Lennartz, Jannis:
„Digitale Puppenspieler“ – die Nachbildung von Körper und Stimme durch KI NJW 2023, 3543
Maamar, Niklas:
Urheberrechtliche Fragen beim Einsatz von generativen KI- Systemen ZUM 2023, 481
Mayinger, Samantha:
Die künstliche Person, 2017
Martini/Wiesehöfer:
Auf dem Weg zur Regulierung von General-Purpose-AI – eine erste Bestandsaufnahme und Kritik der Regelungsentwürfe NVwZ 2024
Mezei, Péter:
Artificial Intelligence and Intellectual Property GRUR Int. 2022, 390
Militsyna, Kateryna:
Human Creative Contribution to AI-Based Output – One Just Can(’t) Get Enough GRUR Int. 2023, 939
Mitchell, Melanie:
Artificial intelligence: A guide for thinking humans, 2019
Mohn, Matthias:
Dürfen Arbeitnehmer ChatGPT zur Erledigung ihrer Aufgaben einsetzen? NZA 2023, 538
Möhring/Nicolini:
Urheberrecht, 4. Aufl. 2018
Möller-Klapperich, Julia:
ChatGPT und Co. – aus der Perspektive der Rechtswissenschaft NJ 2023, 144
Müller-Peltzer/Tanczik:
Künstliche Intelligenz und Daten RDi 2023, 452
Pesch/Böhme:
Artpocalypse now? – Generative KI und die Vervielfältigung von Trainingsbildern GRUR 2023, 997
Picht/Thouvenin:
AI and IP: Theory to Policy and Back Again – Policy and Research Recommendations at the Intersection of Artificial Intelligence and Intellectual Property IIC 2023, 916
Pistor, Katharina:
Rule by data: The end of markets? Law & Contemp. Probs. 83 (2020), 101
Pukas, Jonathan:
KI -Trainingsdaten und erweiterte kollektive Lizenzen GRUR 2023, 614
Ramalho, Ana:
Originality redux: an analysis of the originality requirement in AI-generated works AIDA 2019, 2
Raue, Benjamin:
Die Freistellung von Datenanalysen durch die neuen Text und Data Mining-Schranken (§§ 44b, 60d UrhG) ZUM 2021, 793
Rocco, Salvatore:
World Wide AI: Regulatory and Strategy Developments in the Use of Artificial Intelligence by States LTZ 2022, 212
Roos/Weitz:
Hochrisiko-KI-Systeme im Kommissionsentwurf für eine KI-Verordnung MMR 2021, 844
Rostalski/Weiss:
Der KI-Verordnungsentwurf der Europäischen Kommission ZfDR 2021, 329
Santos, Victoria:
Nicht besser als nichts ZfDR 2023, 23
Schack, Haimo:
Auslesen von Webseiten zu KI -Trainingszwecken als Urheberrechtsverletzung de lege lata et ferenda NJW 2024, 113
Scheufen, Marc:
Generative KI und Autorenrechte — IW-Kurzbericht, No. 79/2023, Institut der deutschen Wirtschaft (IW), Köln 2023
Schoch/Schneider:
Verwaltungsrecht Werkstand: 3. EL August 2022
Schricker/Loewenheim:
Urheberrecht, 5. Aufl. 2017
Senftleben, Martin:
Generative AI and Author Remuneration IIC 2023, 1535
Siglmüller/Gassner:
Softwareentwicklung durch Open-Source-trainierte KI – Schutz und Haftung RDi 2023, 124
Škiljić, Alina:
When Art Meets Technology or Vice Versa: Key Challenges at the Crossroads of AI-Generated Artworks and Copyright Law IIC 2021, 1338
Man-Cho So et al.:
Artificial Intelligence and Intellectual Property, 2021
Söbbing/Schwarz:
Urheberrechtliche Grenzen für lernende künstliche Intelligenz RDi 2023, 415
Spies, Axel:
ChatGPT & Co. – Keine Insellösungen MMR 2023, 469
Zitiert als: Spies II
Staehelin, Alesch:
Begriff und Wesen der Künstlichen Intelligenz GRUR 2022, 1569
Steege, Hans:
Auswirkungen von künstlicher Intelligenz auf die Produzentenhaftung in Verkehr
und Mobilität NZV 2021, 6
Zitiert als: Steege II
Steege, Hans:
Definition von Künstlicher Intelligenz in Art. 3 Nr. 1 KI-VO-E MMR 2022, 926
Steege/Chibanguza:
Der Anwendungsbereich (Art. 2) des EU-Verordnungsentwurfs zur Regulierung von KI SVR 2022, 401
Stierle, Martin:
A De Lege Ferenda Perspective on Artificial Intelligence Systems Designated as Inventors in the European Patent System GRUR Int. 2021, 115
Strowel, Alain:
ChatGPT and Generative AI Tools: Theft of Intellectual Labor? IIC 2023, 491
Teichmann, Fabian:
Das Hinweisgeberschutzgesetz (HinSchG) im Kontext generativer künstlicher Intelligenz – eine experimentelle Untersuchung möglicher Missbrauchsmöglichkeiten und ihre dogmatischen Implikationen NZWiSt 2023, 289
Teubner, Gunther
Digitale Rechtssubjekte? Zum privatrechtlichen Status autonomer Softwareagenten AcP 2018,155
Thiel, Markus:
„Deepfakes“ – Sehen heißt glauben? ZRP 2021, 202
Varytimidou, Christina:
The New A(I)rt Movement and Its Copyright Protection: Immoral or E-Moral? GRUR Int. 2023, 357
Vasel, Johann:
Künstliche Intelligenz und die Notwendigkeit agiler Regulierung NVwZ 2023, 1298
Veil, Winfried:
Ende des Wilden Westens oder wirrer Wildwuchs? ZGI 2022, 197
Waas, Bernd:
KI und Arbeitsrecht RdA 2022, 125
Wagner, Kristina:
KI-generierter Content: Ein Boost für den Public Domain oder Quell neuer Urheberrechtswerke? MMR 2023, 811
Wagner, Gerhard:
Haftung für Künstliche Intelligenz – Eine Gesetzesinitiative des Europäischen Parlaments ZEuP 2021, 545
Wehde, Alexander:
Regulierung von Large Language Models in DSA und AIA-E MMR-Aktuell 2023, 455171
Werry, Susanne:
Generative KI-Modelle im Visier der Datenschutzbehörden MMR 2023, 911
von Welser, Marcus:
Generative KI und Urheberrechtsschranken GRUR-Prax 2023, 516
von Welser, Marcus:
ChatGPT und Urheberrecht GRUR-Prax 2023, 57
Zitiert als: Welser II
Wymeersch, Paulien:
EU Copyright Exceptions and Limitations and the Three-Step Test: One Step Forward, Two Steps Back GRUR Int. 2023, 631
Xiao, Yang:
Decoding Authorship: Is There Really no Place for an Algorithmic Author Under Copyright Law? IIC 2023, 5
Internetquellen:
(Alle genannten Quellen wurden zuletzt abgerufen am: 4.2.2024. Sie werden in den Fußnoten als Kurzzitate mit Nachnamen der Autor:innen, dem kleingeschriebenen Kürzel der Fundstelle und ggf. der Seitenzahl angegeben)
Beuth, Patrick. Wie sich ChatGPT mit Worten hacken lässt, Spiegel Online, 12.1.2023
Brown et al. Language models are few-shot learners. arXiv:2005.14165 [cs]. 22.7.2020
Duffy/Bank. AI-Act: Neue Dokumente zeigen große Nähe zwischen Aleph Alpha und der Bundesregierung, Lobby Control, 29.1.2024
Eickemeier/Wulf. AI-Act: Vorläufiges Ergebnis der Trilogverhandlungen geleakt, Lexology, 23.1.2024, zitiert als: Heuking/lexology
Eliaçık, Eray. AI Prompt Engineering is the Key to Limitless Worlds, Dataconomy, 24.2.2023
Engler/Anderljung. Transcript for the Policy Debate "The Brussels effect: Will Europe's AI regulation achieve global impact?“, Stiftung Neue Verantwortung, 16.11.2022, zitiert als: Engler/snv bzw. Anderljung/snv
Genzmer, Jenny. Wie die EU Künstliche Intelligenz künftig regulieren will — Interview mit Philipp Hacker, Deutschlandfunk Kultur, 27.1.2024, zitiert als: Hacker/deutschlandfunk
Grinbaum/Adomaitis. The ethical need for watermarks in machine-generated language. arXiv:2209.03118 7.9.2022, zitiert als: Grinbaum/arXiv
Hacker, Philipp et al. Understanding and Regulating ChatGPT, and Other Large Generative AI Models: With input from ChatGPT, Verfassungsblog, 20.1.2023, zitiert als: Hacker/verfassungsblog
Hacker, Philipp. Stellungnahme — Ausschuss für Digitales, Ausschussdrucksache zu 20(23) 151, 23.5.2023, zitiert als: Hacker/Stellungnahme
Hacker/Engel/Mauer. Regulating ChatGPT and other Large Generative AI Models, arXiv 2302.02337, 12.5.2023, zitiert als: Hacker et al. II
Hacker, Philipp. What’s Missing from the EU AI Act, Verfassungsblog, 13.12.2023, zitiert als: Hacker/verfassungsblog2
Hurtz, Simon. Wie Taylor Swift mit sexualisierten Deepfakes verleumdet wird, Süddeutschen Zeitung, 26.1.2024
Janisch, Wolfgang. Schufa-Geschäftsmodell steht auf der Kippe, Süddeutschen Zeitung, 7.12.2023
Klaus, Julia. Warum das Papst-Foto nicht nur witzig ist, ZDF-heute, 27.3.2023
Krause, Kati. Mütter in Spanien wehren sich: Mit KI erstellte Teenager-Nacktbilder beschäftigen die Justiz
Kreye, Andrian. Ein echter Rembrandt - aus dem Rechner, Süddeutschen Zeitung, 16.4.2016, zitiert als: Kreye/sz-online II
Kreye, Andrian. Jetzt beginnt ein neuer Kampf um Urheberrechte, Süddeutschen Zeitung, 22.5.2023
Leibowicz, Claire. Sechs Fragen und Antworten zu Wasserzeichen für KI generierte Inhalte, Heise-online, 15.8.2023
Lindern, Jakob. Überraschende Allianzen im Kampf um KI-Regulierung, Zeit-Online, 29.1.2024
Meier, Christian. Warum die KI so gerne lügt, Süddeutschen Zeitung, 28.3.2023
Meineck et al. Die sieben quälendsten Fragen zur KI-Verordnung, Netzpolitik.org 26.1.2024
Mey, Stefan. EU plant weitreichende Ausnahmen für biometrische Überwachung via KI, Der Standard, 23.1.2024
Müller, Angela. Europa reguliert KI – zugunsten von Big Tech und Sicherheit-Hardlinern. Algorithm Watch. 25.1.2024
o.V., Warum der EuGH der Schufa klare Grenzen setzt, Deutschlandfunk, 7.12.2023
o.V. Gesetz über künstliche Intelligenz: Rat und Parlament einigen sich über weltweit erste Regelung von KI, Homepages des Europäischen Rats, 9.12.2023
o.V. AI Act: Offener Brief der Kreativwirtschaft an die Bundesregierung "Wir hoffen auf Ihr politisches Rückgrat, das Richtige zu tun“, Börsenblatt, 29.1.2024
o. V. (geleakt von Luca Bertuzzi). Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL LAYING DOWN HARMONISED RULES ON ARTIFICIAL INTELLIGENCE (ARTIFICIAL INTELLIGENCE ACT) AND AMENDING CERTAIN UNION LEGISLATIVE ACTS — 2021/0106(COD) — DRAFT — [Final draft as updated on 21/01], Google Docs, 21.1.2024, zitiert als: AIAct_final/googledocs:
Propp/MacCarthy. Machines learn that Brussels writes the rules: The EU’s new AI regulation, Brookings, 5.5.2021, zitiert als: Propp/brookings
Samuelson, Pam. Generative AI meets copyright law, Berkeley News, 16.5.2023, zitiert als: Samuelson (Zeitangabe der Fundstelle)
Sarel, Roee. Restraining ChatGPT, SSRN, aktualisiert: 16.1.2024
Spies, Axel. EU AI Act: Werden kleinere und mittlere Unternehmen zu stark reguliert? Was sollen Foundation Models tun? Beck-Blog, 03.08.2023
Spies, Axel. Dem Recht eine Nasenlänge voraus Beck-aktuell 13.12.2013
Steinschaden, Jakob. Der AI Act hat nun einen sprichwörtlichen FLOP, Trending Topics, 9.12.2023
Stoffels, Markus. Millionenstrafe gegen Amazon in Frankreich wegen Überwachung von Mitarbeitern, Beck-Blog, 24.01.2024
Thüsing, Gregor. Schufa-Urteil zum Datenschutz: Das EuGH-Urteil wird zum Problem für KI, Legal Tribune Online, 10.12.2023
Weiß, Eva-Maria. AI Act geleaked: 900 Seiten regeln künftig KI, Heise-online, 23.1.2024
Weiß, Eva-Maria. AI Act: Abstimmung auf der Kippe, doch Unternehmen sollten sich rüsten, Heise-online, 25.1.2024
Weiß, Eva-Maria. Vorwurf aus Italien: ChatGPT verstößt gegen Datenschutzregeln, Heise-online, 29.1.2024
Wolfram, Stephen. What is ChatGPT doing...and why does it work? Stephen Wolfram Writings, 14.2.2023
URLs: (zur besseren Lesbarkeit der Quellen separat aufgeführt)
Beuth, Patrick. https://www.spiegel.de/netzwelt/web/chatgpt-wie-sich-die-kuenstliche-intelligenz-mit-worten-hacken-laesst-a-2a3dd1b4-7405-40e0-8ba0-172915f38e57
Brown et al.
https://arxiv.org/abs/2005.14165
Duffy/Bank.
Eickemeier/Wulf.
https://www.lexology.com/library/detail.aspx?g=eca9e289-4c2a-4eb1-add3-db214e204d84
Eliaçık, Eray.
Engler/Anderljung.
Genzmer, Jenny.
https://www.deutschlandfunkkultur.de/was-bringt-der-ai-act-der-eu-dlf-kultur-47159c2e-100.html
Grinbaum/Adomaitis.
https://arxiv.org/abs/2209.03118
Hacker, Philipp et al.
https://verfassungsblog.de/chatgpt/
Hacker, Philipp.
Hacker/Engel/Mauer.
https://arxiv.org/abs/2302.02337
Hacker, Philipp.
https://verfassungsblog.de/whats-missing-from-the-eu-ai-act/
Hurtz, Simon.
https://www.sueddeutsche.de/wirtschaft/taylor-swift-ki-deepfake-x-pornografie-1.6339457
Janisch, Wolfgang.
Klaus, Julia.
Krause, Kati.
Kreye, Andrian.
Kreye/sz-online II
https://www.sueddeutsche.de/kultur/verwertungsgesellschaften-gema-vg-bild-kunst-vg-wort-1.5867454
Leibowicz, Claire.
Lindern, Jakob.
https://www.zeit.de/digital/2024-01/ki-gesetz-ai-act-bundesregierung-zustimmung/komplettansicht
Meier, Christian.
https://www.sueddeutsche.de/wissen/sprachmodelle-halluzinationen-chat-gpt-1.5776399
Meineck et al.
Mey, Stefan.
Müller, Angela.
https://algorithmwatch.org/de/ki-regulierung-europa-big-tech-und-sicherheit/
Deutschlandfunk, 7.12.2023
https://www.deutschlandfunk.de/schufa-score-eugh-urteil-100.html
Homepages des Europäischen Rats, 9.12.2023
Börsenblatt, 29.1.2024
AIAct_final/googledocs:
https://drive.google.com/file/d/1xfN5T8VChK8fSh3wUiYtRVOKIi9oIcAF/view
Propp/MacCarthy.
Samuelson, Pam.
https://news.berkeley.edu/2023/05/16/generative-ai-meets-copyright-law/
Sarel, Roee.
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4354486
Spies, Axel.
Spies, Axel (Beck-aktuell)
Steinschaden, Jakob.
https://www.trendingtopics.eu/der-ai-act-hat-nun-einen-sprichwoertlichen-flop/
Stoffels, Markus.
Thüsing, Gregor.
https://www.lto.de/persistent/a_id/53380/
Weiß, Eva-Maria.
https://www.heise.de/news/AI-Act-geleaked-900-Seiten-regeln-kuenftig-KI-9605638.html
Weiß, Eva-Maria.
Weiß, Eva-Maria.
Wolfram, Stephen.
https://writings.stephenwolfram.com/2023/02/what-is-chatgpt-doing-and-why-does-it-work/
Künstliche Intelligenz
Seit in den 1950er-Jahren die ersten Computer aus Transistoren zusammengeschaltet wurden, fragen sich Forscher, ob diese damals sog. Elektronengehirne dem menschlichen Gehirn so ähnlich werden können, dass sie als „intelligent“ bezeichnet werden müssen. Während diese Frage weiterhin offen ist, hat die Forschung zur Künstlichen Intelligenz (in der Folge “KI”) inzwischen einiges erreicht, u.a. dass Softwaresysteme aus Beispielen lernen können.
KI – technische Funktionsweise
Prinzipiell haben solche lernfähigen Software-Systeme zahlreiche innere Parameter (das sind Gewichtungen der elektronischen Schaltstellen), die bestimmen, mit welcher Ausgabe das System auf eine Eingabe reagiert. In einer Trainingsphase werden dem System Eingaben und gewünschte Ausgaben präsentiert. Sofern das System die Ausgabe nicht korrekt erzeugt, werden die internen Parameter angepasst. Je mehr solcher internen Parameter das System hat, desto komplexere Aufgaben kann es lösen – und desto mehr Trainingsdaten sind wiederum erforderlich, um alle Parameter anzupassen. Eine spezielle Form des machine learning ist dabei das sog. deep learning.
Diese Methode ermöglicht computergestützten Modellen, die aus mehreren Ebenen bestehen, Repräsentationen von Daten mit verschiedenen Graden an Abstraktion zu lernen. Dadurch wurde der Stand der Technik hinsichtlich Spracherkennung, Objektidentifizierung und viele weiteren Bereichen wie Arzneimittelforschung und Genetik drastisch verbessert. Die über Jahrzehnte verfeinerte Methode des deep learning entdeckt dabei komplizierte Strukturen in großen Datensätzen, indem es den Fehlerrückführungsalgorithmus (“backpropagation”) verwendet, um abzubilden, wie ein System seine internen Parameter ändern sollte, die dazu dienen, die Repräsentation in jeder Schicht aus der Repräsentation in der vorangegangenen Schicht abzuleiten. Tiefe sog. convolutional neural networks (ConvNets) haben Durchbrüche bezüglich der Verarbeitung von Bild, Video, Sprache und Audio erzielt, während rückgekoppelte neuronale Netze sequentielle Daten wie Text und Sprache fortschrittlich erschlossen haben.
Ein so entstandenes Modell (das, je nach Komplexität, bis zu zehn Milliarden Rechenoperationen pro Eingangsdatum beinhalten kann) wird sodann durch spezifisches Training für eine bestimmte Aufgabe angepasst, sog. fine tuning. Das geschieht vorwiegend, indem das System etwa selbst Texte schreibt, oder anderen Inhalt generiert und Menschen immer wieder Feedback geben, ob die Ergebnisse gut sind, sog. reinforcement learning with human feedback.
KI – Definitionen
Weder innerhalb der Rechtswissenschaften noch in anderen Disziplinen oder gar disziplinübergreifend existiert eine einheitliche Definition von KI. Defizitär übersetzt aus dem Englischen artificial intelligence, geht dabei bezüglich ersterem Bestandteil die Natur imitierende und Kunstfertigkeit erfordernde Komponente verloren, während „intelligence“ grundlegende (mitunter philosophische) Fragen der Wortbedeutung aufwirft. Der Terminus ist infolge seiner Offenheit zum Sammelbegriff geworden: Das Phänomen KI bezieht sich, insoweit ist eine Eingrenzung jedoch möglich, auf nicht-deterministische Algorithmen, d.h. Computerprogramme, deren Funktion sich nicht ausschließlich entlang einer von den menschlichen Entwicklern vorgegebenen Struktur (sog. Entscheidungsbaum) bewegt. Bereits im Zeitpunkt der Inbetriebnahme lösen sich die Arbeitsprozesse dieser Systeme von der rein schrittweisen Ausführung der Befehle im Programmcode.
Der Begriff generative KI, als eine Unterform des Phänomens, ist ebenfalls nicht final definiert. Es ist jedoch üblich, sich damit auf KI-Systeme zu beziehen, die die Erzeugung neuen Outputs ermöglichen. Dies trifft zwar streng genommen auch auf entscheidende (zB Ampelsysteme) oder kategorisierende KI (wie bspw. biometrische Fernidentifikation, s.u.) zu, die schließlich ebenfalls eine Ausgabe von kommunikativem Gehalt erzeugt. Der Begriff – nach der gängigen Verwendung, die auch im vorliegenden Aufsatz Anwendung findet – bezieht sich allerdings nur auf Systeme, die im engeren Sinne Bilder, Texte, Videos, Musik, o.Ä. herstellen.
Regulierung generativer KI
De lege lata
Ausgewählte Rechtsgebiete
Stand Januar 2024 ist KI keineswegs unreglementiert. Anknüpfungspunkte finden sich u.a. in DSGVO, BetrVG, UrhG, im Äußerungsrecht, in Verbraucherschutzgesetzen sowie auf EU-Ebene im DSA, die fast alle jedoch den Begriff “KI” nicht verwenden. Rechtsprechung mit KI-Bezug oder zumindest KI-Nähe kommt aufgrund der bereits weit verbreiteten Nutzung monatlich neue hinzu. Dennoch gilt: Den Skopus bestehender Regulierungen schlicht auf die neuartige Technologie auszudehnen, scheitert an einer Vielzahl offener Fragen, über die im juristischen Feld jeweils breit diskutiert wird. Der dergestaltige rechtliche Rahmen soll im Folgenden ansatzweise durch ausgewählte Beispiele der Nutzung dargestellt werden.
DSGVO
Schlagzeilen machte im Dezember 2023 das EuGH-Urteil zur Auskunftei Schufa. In den Medien fand sich gar die Annahme, deren Geschäftsmodell befinde sich auf der Kippe, was wiederum andernorts als “vollmundige” Übertreibung abgetan wurde. Das Unternehmen sammelt Daten von rund 68 Mio. Menschen und berechnet damit deren Kreditwürdigkeit unter Zuhilfenahme von Algorithmen. Geklagt und gewonnen hatte eine Frau, der ein Kredit infolge einer Bonitätsprüfung verwehrt wurde. Das Gericht stützte seine Entscheidung maßgeblich auf Art. 22 DSGVO, der jedem EU-Bürger ein Recht auf eine nicht vollautomatisierte Entscheidung gewährt, was auch unter Privaten gilt. Zudem wurde ihr Anspruch bekräftigt, Auskunft über die Berechnung des scores erteilt zu bekommen, was die Schufa im Zusammenhang mit dem Geschäftsgeheimnisschutz verweigern wollte. An diesem Punkt wird allerdings bereits deutlich, dass der Gegenstand des Rechtsstreits nicht mit generativer KI im oben beschriebenen Sinne zusammenzubringen ist: Zwar wird der score durch einen automatisierten und durchaus komplexen Datenverarbeitungsvorgang ausgegeben, mithin generiert. Jedoch geschieht dies nach einer starr festgelegten Gewichtung einer Vielzahl von Kriterien, die wiederum abschließend (quasi “händisch”) von natürlichen Personen festgelegt werden und folglich rekonstruierbar sind. Ungeachtet dessen prognostiziert der Prozessvertreter der Schufa dem Urteil eine weitreichende Ausstrahlwirkung auf KI-gestützte Vorgänge. Der Anwendungsbereich der DSGVO ist in derartigen Konstellationen, soweit personenbezogene Daten verarbeitet werden, jedenfalls eröffnet. Dass das Aufeinandertreffen von Vollautomatisierung und Bonitätsprüfung eine europagrundrechtlich hoch delikate Situation kreiert, lässt sich schließlich auch daran ablesen, dass derartige Systeme im KI-VO-E (s.u.) unter der Kategorie “hohes Risiko” geführt werden. Und mehr noch – für jeden Arbeitnehmer gilt generell: Werden personenbezogene Daten in eine KI-Anwendung eingegeben und kann das von der KI produzierte Ergebnis aufgrund deren opaken blackbox-Charakters nicht nachvollzogen werden, ist dies mit dem Grundsatz der Transparenz aus Art. 5 Ia DSGVO) schwerlich vereinbar. Bei einer Weiterverarbeitung der Daten durch die betreffende Anwendung (zB Chat GPT) sind zudem die Auskunftsrechte für Betroffene nach den Art. 13 bis 15 DSGVO zu beachten. Ein heikles Problem, auf das in der Literatur in diesem Zusammenhang außerdem hingewiesen wird, ist, dass generative KI anfällig für sog. Inversionsangriffe ist. Dabei können für das Training verwendete personenbezogene Daten durch die Verwendung eines bestimmten Prompts aus dem Modell reproduziert werden. Je wahrscheinlicher ein solches Szenario indes ist, desto ungünstiger ist dies (neben anderen Kriterien wie dem Einsatzzweck der Anwendung) für den Ausgang der Abwägung im Rahmen von Art. 6 I UA 1f DSGVO (Wahrnehmung berechtigter Interessen für den Fall, dass eine Einwilligung fehlt). Überblicksartig lässt sich also festhalten, dass mit der DSGVO durchaus Rechte (insb. auf Berichtigung, Löschung, Einschränkung der Datenverarbeitung sowie das Widerspruchsrecht nach Art. 16–18, 21 DSGVO) für die Konfrontation mit generativer KI einhergehen. Dass es sich dabei nicht um ein stumpfes Schwert handelt, war eindrücklich zu beobachten, als die italienische Datenschutzbehörde (GPDP) im April 2023 gestützt auf Art. 58 Abs. 2 lit. f DSGVO dem Konzern OpenAI vorübergehend die Verarbeitung der Daten von in Italien ansässigen Personen untersagte, bis dieser u.a. bei Transparenz, Opt-out-Möglichkeiten und Jugendschutz nachgebessert hatte. Dennoch wird in der Forschung auf die Wirksamkeitsgrenzen der Verordnung in Anbetracht des rasanten Wandels hingewiesen, welche insbesondere mit der gestiegenen Bedeutung von nicht-personenbezogenen Daten in Verbindung stehen.
DSA
Ebenso wie bei der DSGVO handelt es sich auch bei dem nachfolgend betrachteten DSA nicht um eine genuin technikrechtliche Regelung. Das wird schon daraus ersichtlich, dass deren Anwendungsbereich nicht über eine dezidierte Beschaffenheit der Informationstechnik definiert wird, sondern über die Reichweite der infragestehenden Plattform und die Charakteristika der Letzteren. Die Plattformen werden, um der zunehmenden Flut an Hassrede und Desinformation Herr zu werden, mit weitreichenden Pflichten (u.a. Moderation, notice-and-takedown, dahingehende Transparenz, Risikomanagement, Nutzungsmöglichkeit ohne Empfehlungssysteme) belegt und mit empfindlichen Bußgeldern bedroht. Wenngleich es möglich ist, hinsichtlich der Regelungstechnik (Stufenaufbau) und dem Regelungsgegenstand (bspw. Filteralgorithmen sozialer Netzwerke) Überschneidungen von DSA und KI-VO-E zu identifizieren, bleibt für die hier gegenständliche Frage, wie die generative KI de lege lata gerahmt ist, folgender Befund: Der DSA wurde mit Blick auf menschliche Nutzer oder einschlägige Twitter-Bots verabschiedet, die in sozialen Netzwerken posten, aber nicht mit Blick auf vielgestaltige und große KI-Modelle, die dort ihr wildes Unwesen treiben. So wird nicht zuletzt betont, dass der sachliche Anwendungsbereich des DSA wohl nicht auf generative KI-Anwendungen erstreckt werden könne. Das wird plausibel, wenn man die in Bezug genommenen Anwendungen in den Blick nimmt: Art. 2 I, II DSA gilt nur für Vermittlungsdienste, definiert als reine Durchleitungs-Institutionen (wie sie beispielsweise in Providern vorliegen), oder Cashing- bzw. Hosting-Dienste. Hierbei kommen Modelle generativer KI den Letztgenannten noch am nächsten, weil durch die Eingabeprompts in der Tat, wie es die Definition erfordert, Informationen angefordert werden. Allerdings werden diese vom Modell neu generiert, anstatt (wie in Art. 3 g iii DSA gefordert) nutzerseitig bereitgestellt worden zu sein. Eine Anwendung der Norm schlägt fehl. Hinzu kommt, dass Telegram-Kanäle ebenfalls nicht umfasst sind. Dass es jedoch Bedarf gibt für ein schlagkräftiges Regelwerk à la DSA, verdeutlicht eine aktuelle Studie: Dort wurde gezeigt, dass Sprachmodelle für die automatisierte Massengenerierung von professionell anmutenden Hassreden genutzt werden können. Hierbei ist sogar ohne viel Aufwand der dazugehörige Computercode für eine möglichst effiziente Verbreitung in den sozialen Medien zu erlangen. Diese Anordnung wirft ein Schlaglicht darauf, dass eine bereits bekannte Problematik transformationsbedingt in einer neuen Dimension erscheinen kann. Die limitierte Reichweite des DSA, aus der ein Bedarf nach einer anders konzipierten Regelung erwächst, wird pointiert von Berz und Hacker beschrieben: “Die schiere Menge der von den Modellen generierten Inhalte erschwert es, alle generierten Inhalte manuell zu überprüfen und zu moderieren. Um dieses Problem [...] zumindest abzuschwächen, müssen die Modellentwickler geeignete Kuratierungstechniken anwenden: sowohl solche, die bei der Zusammenstellung der Trainingsdatensätze ansetzen, als auch solche, die den Output des Modells überprüfen und gegebenenfalls filtern”.
Arbeitsrecht
Ein weiteres Beispiel für den Versuch, die disruptive Technologie einzuhegen, findet sich im Bereich des Arbeitsrechts. Neben dem Umstand, dass oben erwähnte Garantie einer nicht vollautomatischen Entscheidung auch auf die algorithmische Auswahl von Bewerbungsunterlagen im Bereich der HR anwendbar ist, zielt das Betriebsrätemodernisierungsgesetz auf eine Stärkung der Mitbestimmungsrechte im Kontext von KI-Einsätzen im Arbeitsleben. Zusätzlich zu der Pflicht, solche Einsätze kundzutun und sie rechtzeitig mit der Arbeitnehmervertretung zu beraten (§ 90 II BetrVG), tritt auch das praktisch diffizile Erfordernis, die technischen Pläne über die Funktionsweise der Anwendungen vorzulegen. Der naheliegenden Situation einer Überforderung des Betriebsrats im Angesicht der komplexen Technologie wird mit der erleichterten Möglichkeit, einen Sachverständigen zu Rate zu ziehen, begegnet (§ 80 III BetrVG). Unter den von Waas skizzierten vielgestaltigen Einsatzszenarien von KI (zB Nachverfolgung der Einpack-Vorgänge in einem Warenhaus einschließlich deren Geschwindigkeit und dahingehende Warnsysteme gegenüber dem Vorgesetzten) weisen einige die Charakterzüge einer verbotenen oder zumindest mitbestimmungspflichtigen Überwachung der Arbeitnehmer auf, wie sie bereits der § 87 I BetrVG adressiert. Dabei ist zu beachten, dass bereits die bloße objektive Eignung zur Überwachung den Mitbestimmungs-Mechanismus auslöst. In einem Fall vor dem BAG hatte hierzu die Einführung von Standardsoftware aus einem Office-Paket ausgereicht, weil durch diese Daten erhoben wurden, welche der Leistungsanalyse iSe Überwachungstechnik dienen konnten. Insoweit existiert mithin ein effektiver gesetzlicher Rahmen für KI im Beschäftigungsbereich, auch wenn vertreten wird, dass der Gesetzgeber der technischen Entwicklung allgemein noch “deutlich hinterherhinkt". In Anbetracht des Umstands, dass es sich bei den meisten betrieblichen Anwendungsfällen um kategorisierende bzw. analysierende Systeme handelt, wobei der Gegenstand dieses Aufsatzes allein generative KI-Anwendungen sein soll, werden weitere Instrumente des Arbeitnehmerschutzes hier nicht vertieft. Davon zu trennen ist freilich die Frage, wie es rechtlich zu bewerten ist, wenn zur Erbringung der Arbeitsleistung von generativer KI Gebrauch gemacht wird. Geschieht dies ohne das Wissen des Weisungsbefugten, kommen – insbesondere wenn bei der Weiterverwendung des Ergebnisses Urheberrechtsverstöße zu befürchten sind – Anzeigepflichten als Ausfluss von § 241 II BGB in Betracht. Wenn ein arbeitgeberseitiges Verbot, die Technik zu benutzen, umgangen wird, ist eine Pflichtverletzung unproblematisch. Zusätzlich kann man sich fragen, ob es dem Prinzip der höchstpersönlichen Leistungserbringung (§ 613 BGB) widerspricht, eine generative KI zu verwenden. Die Forschung hierzu ist dürftig. Maßgeblich dürfte es darauf ankommen, ob die Art und Weise, wie die betreffende Anwendung eingesetzt wird, eher mit der Verwendung eines Werkzeugs zu vergleichen ist, oder doch eher der Delegation an eine andere eigenständig agierende Entität gleichkommt. Insoweit bestehen Parallelen zu der unten behandelten Diskussion um den Schöpfer-Begriff aus dem Urheberrecht. Im Gegensatz zu den Immaterialgüterrechten ist das Arbeitsrecht jedoch auf die Arbeitsleistung als Vorgang und weniger auf deren Ergebnis fokussiert, weshalb eine vollständige Delegation an KI als zulässige Möglichkeit ausscheiden dürfte. Wenn jedoch lediglich Teilaufgaben durch die Anwendung übernommen werden, während deren Zusammenführung, Korrektur und Ergänzung von dem Arbeitnehmer als mastermind stammen, dürfte dies – ähnlich wie zum Urheberrecht vertreten – unschädlich sein. Im Hinblick auf eine zunehmende Integration der generativen KI in den (Arbeits-) Alltag muss auch eine konkludente Abbedingung von § 613 S. 1 BGB eingehender in Betracht gezogen werden.
Äußerungsrecht
Wenn von KI-generierter Hassrede und Desinformation die Rede ist, liegt es nahe, sich nach der Rolle des Strafrechts zu dessen Bekämpfung zu fragen. In diesem Zusammenhang ist zunächst festzustellen, dass de lege lata die KI mangels Rechtspersönlichkeit nicht strafmündig ist. Das Schuldprinzip erfordert das Potential zu einer autonomen Willensentschließung, welches in der KI nicht vorhanden ist. Allerdings kann sie, da sie menschenähnlich kommuniziert, zum Zwecke der Manipulation – vielfältig und schwer vorhersehbar – als Werkzeug eingesetzt werden. In diesem Fall ändert sich grundsätzlich nicht die Qualität der Straftaten oder die Art der Täterschaft. Es soll, aufgrund der Nähe zum Anwendungsfall generativer KI, für diesen Aufsatz auf den Bereich des Äußerungsrechts fokussiert werden. Diese Querschnittsmaterie aus §§ 823 Abs. 1, 1004 Abs. 1 BGB, den §§ 185, 186, 187 StGB bzw. §§ 22, 23 KUG führt als ihren Kern immer eine Grundrechtsabwägung (Art. 2 I ggf. iVm Art. 1 I GG auf Betroffenen- und Art. 5 I GG auf Äußererseite). Da es in der Regel um Äußerungen in der Öffentlichkeit geht, ist schließlich die Meinungs- und Informationsfreiheit der Öffentlichkeit und deren möglicherweise berechtigtes Interesse an der getätigten Äußerung zu berücksichtigen. Die Judikatur behandelt, soweit ersichtlich, nur Fälle von analytics-Anwendungen und keine KI ieS. Dennoch werden dort schon einige Weichen gestellt. So wurde für ein Bonitäts-Scoring mit 15 Faktoren durch den BGH noch eine tatsachengestützte Meinungsäußerung angenommen, wobei die algorithmische Entstehungsweise unberücksichtigt blieb. Dies änderte sich zwei Jahre später als für den Suchwortergänzungsvorschlag (Autocomplete) von Google eine (notabene!) unwahre Tatsachenbehauptung der Suchmaschine angenommen wurde. Mit der Entscheidung zu Yelp im Jahr 2020 kehrte der BGH zur Lesart einer Meinungsäußerung (notabene der Plattform!) zurück, wenn Bewertungsfaktoren ersichtlich frei gewichtet werden.
Auswertung
Bemerkenswert ist in der Zusammenschau der Urteile, dass der BGH der Gedankenfigur aus der Literatur eine Absage erteilt, die in automatisierter Bewertung Wertneutralität sehen möchte. Die algorithmische Entstehungsweise spielt insofern nur dann eine Rolle, wenn sie den Empfängerhorizont prägt. Dies könnte meines Erachtens als Zugeständnis an die anerkannte Gefahr eines automation bias interpretiert werden, der Plattformen eine gesteigerte Marktmacht sichert. Aus Sicht des Verfassers bestehen außerdem Parallelen zur urheberrechtlichen Diskussion, ob anschließend an das Text-und-Data-Mining (TDM) überhaupt wesenhaft Neues geschaffen werden kann oder ob es sich gleichsam um rein abbildende Verfahren handelt. In der Betrachtungsweise als erschöpfender Rahmen für generative KI-Innovationen, begegnet jedoch auch diesem Rechtsgebiet Kritik: Bleibt es doch weitgehend dem nationalen Deliktsrecht der EU-Mitgliedstaaten überlassen, weshalb erhebliche Divergenzen bestehen. So hat etwa der BGH bereits einmal die Vollstreckung eines polnischen Urteils zum Äußerungsrecht in Deutschland als ordre-public-widrig angesehen. Somit sind alle bis hier angesprochenen Rechtsgebiete mit erheblichen Defiziten behaftet, wenn es darum geht, eine Technologie zu rahmen, die sich in etwa 450 mal so schnell verbreitet, wie einst das Telefon. Es mag daher vielleicht erstaunen, dass ausgerechnet das Urheberrecht das einzig bereits existierende Rechtsgebiet sein soll, das generative KI in die Knie zwingen könnte. Zur Erläuterung dieser steilen These soll jenem jedenfalls das folgende Kapitel gewidmet sein.
Urheberrechtliche Fragestellungen
Im Zusammenhang mit der Herstellung generativer KI-Systeme und deren Nutzung sind insbesondere zwei Vorgänge aus Sicht des Urheberrechts relevant und die dahingehende rechtliche Bewertung umstritten: Das sog. Training, bei dem das System eine große Zahl an Daten im Internet sucht und analysiert, sog. input-Seite und später die Erstellung eines KI-Produktes (Text, Foto, Video, Design, Code, etc.) durch den Endnutzer, sog. output-Seite. In beiden Fällen ist die Diskussion recht vielschichtig und kann hier nur ansatzweise rekonstruiert werden.
Input – Hintergrund / Evolution
Convolutional networks gibt es nicht erst seit vorgestern. Eines der ersten seiner Gattung wurde in den 1990ern von Yann LeCun erfunden und im Anschluss von der U.S.-Post zum automatisierten Erkennen von handschriftlichen Postleitzahlen genutzt. Diese Aufgabe ist technisch alles andere als trivial, wenngleich der Mensch sie leicht bewältigt. Trotz regen Interesses seitens einer hoch kompetitiven Entwicklerszene ermöglichten den Durchbruch der Technologie jedoch erst zwei Entwicklungen in der Außenwelt: einerseits die massenhafte Verfügbarkeit von Bildern durch die private Nutzung des Internets (später auch fotofähige Smartphones) und andererseits der Ausbau der Hardware. Das umfangreiche Training, der ConvNets ist nur mit spezieller Computer-Hardware, insb. leistungsstarken grafischen Verarbeitungseinheiten, möglich. Zur Gewinnung der trainingsnotwendigen Daten durchforstet die betreffende Software also gleichsam das frei zugängliche worldwide web nach demselben technischen Prinzip, nach dem auch Suchmaschinen funktionieren. Bereits aus der Parallelwertung in der Laiensphäre kann der Verdacht entstehen, dass dabei keine dezidierte Rücksicht auf die (dem System womöglich unbekannten) Rechte der hinter den Inhalten stehenden Urheber genommen wird. Und in der Tat konnten Forscher der Berkeley Universität belegen, dass GPT-4 eine Vielzahl von Romanen (darunter bspw. Werke von J. K. Rowling oder J. R. R. Tolkien) wörtlich kennt und Namen in Textpassagen ergänzen kann. Um diesen anekdotischen Befund rechtlich präzise bewerten zu können, ist jedoch der Einblick in die technischen Abläufe des TDM erforderlich.
Zur technischen Funktionsweise
Im Bereich der KI-Anwendungen wird, wie Söbbing und Schwarz ausführen, zunächst ein gefundener Inhalt (Bild, Text) algorithmisch analysiert und die darin enthaltenen visuellen Merkmale extrahiert. Alle eingesetzten Algorithmen sind darauf trainiert, bestimmte visuelle Muster und Merkmale in Bildern, wie Formen, Linien, Farben oder Texturen zu erkennen. Anschließend werden sodann bestimmte Merkmale entnommen, die der Identifizierung des Inhalts oder der Kategorisierung des Bildes dienen (sog. Merkmalsextraktion). Dies kann beispielsweise die Erkennung von Objekten, Gesichtern, Text oder bestimmten Mustern sein. Basierend auf den extrahierten Merkmalen wird das Bild in verschiedene Kategorien oder Klassen eingeordnet (sog. Klassifizierung bzw. labeling). Dies kann beispielsweise bedeuten, dass das Bild als Landschaft, Tier, Mensch oder Gegenstand identifiziert wird. Diese Klassifizierung kann auf vordefinierten Kategorien basieren oder selbst durch maschinelles Lernen ermöglicht werden, indem der Algorithmus zuvor mit einer großen Menge gelabelter Bilder trainiert wurde oder sich selbst trainiert hat.
Zur rechtlichen Einordnung
Für die rechtliche Einordnung ist nun fraglich, ob es sich bei diesem Vorgehen um eine Vervielfältigung des Ausgangswerks iSd § 16 UrhG handelt. Der Begriff der Vervielfältigung ist in der EU einheitlich und autonom im Lichte der Information-Society-Richtlinie (InfoSoc) auszulegen. Vervielfältigung ist dabei jede „körperliche Festlegung, die geeignet ist, das Werk den menschlichen Sinnen unmittelbar oder mittelbar wahrnehmbar zu machen“. Ohne Belang ist, ob die Vervielfältigung gezielt oder auch nur bewusst erfolgt. Zudem spielt es keine Rolle, mit welchen Mitteln die körperliche Festlegung des Werks unternommen wird. Ein Lichtbildwerk kann etwa nicht nur durch Fotografieren oder Kopieren, sondern durch Nachstellung des fotografierten Objekts und Fotografie dessen vervielfältigt werden. Keine Vervielfältigung liegt dagegen in der bloßen Übernahme von Motiven oder Stilen, die als abstrakte Eigenschaften von Werken gemeinfrei sind. Für eine Vervielfältigung reicht es aus, wenn das Werk nur in weiteren Zwischenschritten oder mittels technischer Geräte, gegebenenfalls begleitet durch selbstständige technisch notwendige Vervielfältigungen, wahrnehmbar gemacht werden kann. Zudem ist nicht erheblich, ob es sich bei dem Vervielfältigungsstück um eine verkleinerte oder komprimierte Version des Werks handelt.
KI an sich als Vervielfältigung
Soweit ersichtlich ist, angewendet auf das Training generativer KI-Anwendungen, herrschende Meinung, dass in der Analyse (Merkmalsextraktion) als solcher keine urheberrechtlich relevante Handlung liegt. Ein Computer ist frei darin, Werke in Einzelteile zu zerlegen, um daraus Informationen zu gewinnen. Die einem Werk zugrunde liegenden semantischen Informationen sind vom Zuweisungsgehalt des Urheberrechts nicht erfasst, weil das Urheberrecht die Weiterentwicklung von Kunst und Kultur ermöglichen soll und deswegen nur das Werk in seiner konkreten Gestaltung als syntaktische Information schützt. Söbbing und Schwarz führen dazu aus, dass beim TDM nur die schlichten Daten, nicht aber der geistige Inhalt der analysierten Werke genutzt würden. Bei einer generativen KI bestehe der (revolutionäre) Unterschied zu einem Chatbot bisheriger Art gerade darin, dass diese nicht mit vorgefertigten Antworten operiere, sondern durch das deep learning in die Lage versetzt worden sei, eine eigenständige, jeweils neue Antwort auf eine Anfrage zu generieren. Der denklogische Ansatz, durch die Aufforderung an bspw. einen Bildgenerator, ein Bild in der Stilrichtung eines bestimmten Künstlers herzustellen, vervielfältige das Programm bei ihm vorhandene Daten schlicht, sei bereits falsch. Daher sei das vorher erfolgende TDM nichts anderes als ein “Lernprozess und Inspiration seitens eines Künstlers vor der Schaffung seines Werks”. Aus dieser Richtung kommt auch das Diktum, maschinelles mining und menschlich-alltägliches reading seien gleichzusetzen.
Dem ist jedoch entgegenzuhalten, dass nicht nur einzelne Rechteinhaber, sondern auch Stimmen in der Forschung auf der Position stehen, die trainierten KI-Modelle enthielten komprimierte Kopien aller für das Training genutzten Bilder. Dabei wird zT ein Vergleich zu der Komprimierungsmethode JPEG gezogen, für die, trotz Zersplitterung der Bildinformationen, eine Vervielfältigung unproblematisch bejaht wird. In der Konsequenz seien die KI-Modelle selbst als Vervielfältigungen der Trainingsbilder zu werten. Dieser Vergleich ist so nicht haltbar. Im Hinblick auf die Vorgehensweise, die zur Sichtbarmachung des Bildes führt, besteht ein wesentlicher Unterschied: Während bei JPEG-Dateien die Vorschrift bekannt ist, mit der eine Rekonstruktion erfolgt, liegt diese bei KI-Modellen im Dunkeln. Denn die Werke erfahren ihre körperliche Festlegung in Form von Modellparametern im System. Sofern diese nicht bekannt sind, kann die Rekonstruktion nur anhand von trial-and-error erfolgen, nämlich bei der anschließenden Nutzung Dies ändert jedoch nichts an dem Befund: Mithilfe eines “geschickten Eingabeprompts” lassen sich mitunter tatsächlich einzelne Bilder oder andere Komponenten aus den Modellen hervorholen, welche unfallweise (nahezu) vollständig als Information gleichsam vom KI-System “erinnert” werden, anstatt, wie vorgesehen, fragmentiert worden zu sein. Einer Vervielfältigung im Rechtssinne und damit ein Verstoß gegen die alleinigen Verwertungsrechte des Urhebers (§§ 7 und 15 ) steht auch der Umstand, dass die Trainingsbilder für die Wahrnehmbarmachung nicht einfach abgespielt werden können, sondern gleichsam neu konstruiert werden, nicht entgegen.
Allerdings handelt es sich hierbei um Ausnahmen. In der Regel dürften laut Pesch und Böhme die Trainingsbilder nicht in ihren wesentlichen Zügen vorhanden sein. Urheber, für die das keinen Trost darstellt, und die Entschädigung fordern, sehen sich jedoch mit erheblichen Beweisschwierigkeiten konfrontiert. Ohne Einblick in das System sind sie – nach bisherigem Stand der Forschung – auf Probierdurchläufe mit unbekannter Erfolgsaussicht verwiesen. Diesbezüglichen Nachbesserungsbedarf hat die Bundesregierung indirekt bereits eingestanden (siehe Kapitel 3). Im Regelfall scheidet die trainierte KI als Bezugspunkt für eine Vervielfältigung mithin aus.
Urheberrechtsverletzungen bei Gelegenheit des Trainings
Weitgehend unbestritten ist aber andererseits auch, dass im Rahmen der Vorbereitungshandlungen bzw. zur Sicherung der Ergebnisse des TDM, eine Duplizierung und/oder Speicherung der Trainingsbilder unumgänglich ist. Zwar schließen Söbbing und Schwarz eine Vervielfältigung für manche Gestaltungen des TDMs aus und identifizieren eine andere Gruppe von Fällen, in denen existierende Vervielfältigungen unter die in Art. 5 I der Richtlinie 2001/29/EG vorgesehene verbindliche Ausnahme für vorübergehende Vervielfältigungshandlungen fielen. Zudem scheinen Gräfe und Kahl mit ihrem Verweis auf die temporäre Speicherung im Arbeitsspeicher sogar vom überwiegenden Vorliegen solcher “flüchtigen” und “wirtschaftlich nicht eigenständig bedeutsamen” Vervielfältigungen auszugehen. Im Endeffekt wird aber auch hier nicht bestritten, dass das TDM grundsätzlich nicht ohne flankierende Vervielfältigungen der Werke auskommt, für die auch die Privatkopie-Ausnahme des § 53 nicht in Betracht kommt. Tatbestandlich ergibt sich somit – das Vorliegen eines Werks iSd § 2 unterstellt – vonseiten der KI-Entwickler eine relevante Verwertungshandlung, welche jedoch gemäß § 15 ausschließlich dem Schöpfer zugewiesen ist, insofern keine Lizenz vorliegt – die Einholung von Lizenzen wiederum ist im Zusammenhang des TDM aufgrund der enormen Menge an Objekten eher unwahrscheinlich, jedenfalls häufig unpraktikabel.
Rechtfertigung
Zu fragen ist sodann nach einem gesetzlichen Erlaubnistatbestand, einer sog. Urheberrechts-Schranke (weil sie dem zunächst ausschließlichen Verwertungsrecht des Urhebers Grenzen setzt). In Betracht käme der § 60d I. Dieser erfordert eine Forschungsorganisation, weshalb zB. Aleph Alpha (mit Servern in Bayreuth) sich hierauf nicht berufen könnte. Problematisch sind mitunter private-public-partnerships – aufgrund der Milliardenförderung durch Microsoft ist zB LAION ein Grenzfall. Veräußerungen von Datenbanken in private Hand dürften als Ausfluss dieses Prinzips nur in Form einer Linksammlung zulässig sein. Für den kommerziellen Gebrauch rechtmäßig zugänglichen Trainingsmaterials kommt – von § 44a einmal abgesehen – hingegen § 44b I infrage. Die Norm kehrt im Ergebnis den Regel-Ausnahme-Fall einer zustimmungsbedürftigen Nutzung um. Insofern also kein Opt-out erklärt wurde, kann eine Abgrenzung zwischen wissenschaftlicher und kommerzieller Verwendung dahinstehen. Der Opt-out muss maschinenlesbar sein. Bejaht wird dies etwa für sog. robots.txt oder einen entsprechenden Hinweis in den AGBs bzw. dem Impressum der Seite. Somit wäre – im Einklang mit dem Gesetz – die von Burchhard gedanklich geprobte Revolution im Rechtsanwendergewerbe (durch mining der Bestände von beck.online und juris) derzeit noch zum Scheitern verurteilt. Unbedingt zu beachten ist bei sonstigem Vorliegen der Voraussetzungen zudem die Löschpflicht aus § 44b II am Ende des Entwicklungszyklus.
Hintergrund der Urheberrechtsschranke des § 44b
In der gesamten Diskussion um die Regulierung von generativer und nicht-generativer KI, ist die “richtige” Balance zwischen Innovation und anderen – meines Erachtens mitunter als inferior gerahmten – Belangen ein bedeutender Topos. So kritisieren Picht und Thouvenin einerseits die DSGVO dafür, “erhebliche Hindernisse” für die Verwendung von Daten zu kreieren (Datenminimierung, Zweckbindungsprinzip), andererseits das Datenbankherstellerrecht für die Untersagung von “nützlichen” Komplettentnahmen eines Datensatzes und stellen dem weitaus permissivere und auslegungsoffenere Regelwerke zum Urheberrecht aus der Schweiz gegenüber. Kritisiert wird mithin ein gescheiterter Interessenausgleich. Der für den vorliegenden Gegenstand in Betracht kommenden Urheberrechtsschranke wird von den Autoren indes attestiert, dass bereits ihre Anwendbarkeit auf KI-Training ungewiss sei. Dies nicht zuletzt, weil deren Entstehung zeitlich vor der schlagartigen Bekanntheit von generativen KI-Systemen liegt. Wie zuletzt sogar vonseiten der Technologiebranche selbst – ob dies einer Furcht vor der Technik-Apokalypse, ökonomischen Motiven, oder einer perfiden Marketingstrategie entspringt, sei dahingestellt – findet sich also in dem Diskurs um das Recht der vernehmbare Ruf nach Rechtssicherheit. Diese beiden Kriterien sollen die unten folgende Diskussion der TDM-Schranke strukturieren. Sie sind jedoch meines Erachtens zugleich eine dienliche Folie für die Analyse der Gesetzesgenese:
Die dem § 44b zugrundeliegende DSM-Richtlinie wurde (20 Jahre nach InfoSoc) mit dem Ziel einer Stärkung des europäischen Binnenmarkts erlassen. Sie enthielt zunächst nur eine Privilegierung wissenschaftlicher Forschung. Womöglich aufgrund vergleichbarer Lobbyarbeit, wie sie zum Entstehungszeitpunkt dieser Abhandlung die endgültige Verabschiedung des KI-VO-E der Europäischen Union verzögert, wurde sie jedoch schließlich auf kommerzielle Akteure ausgeweitet. Vermutlich, um die daraus resultierende einschneidende Wirkung für Rechteinhaber abzumildern, entstand zeitgleich die Möglichkeit eines Opt-out.
Diskussion
Das Endresultat wird in der Forschung zT als lose/lose-Szenario beschrieben: Einerseits riskieren die Entwickler der Systeme Rechtsverletzungen im großen Stil. Andererseits führten verschiedene Gründe auf Urheberseite zum effektiven Leerlaufen des Rechtevorbehalts. Und wenn dieser doch gelingen sollte, bleibe in der Konsequenz die profitable Verwertung der Werke aus, während die Programmierer guter Datensätze ermangeln, welche jedoch wiederum zur Innovation essentiell wären. Statt einem Ausgleich der Interessen erfolge eine beidseitige Beschneidung. Aus Sicht der Urheber sei insbesondere unbefriedigend, dass mit dem erfolgreichen Setzen eines robots.txt jegliche webcrawler ausgesperrt würden. Das führe dazu, dass die Werke auch im Rahmen üblicher Suchmaschinen-Ergebnisse nicht mehr angezeigt würden und somit faktisch unsichtbar seien. Dies ist für Künstler, deren Lebensunterhalt an ihrer Reichweite hängt, nicht hinnehmbar. Auf praktischer Ebene wird bemängelt, dass das Training mit Online-Piraterieseiten erlaubt bleibt. Für die TDM-Schranken reicht es nämlich aus, dass die Werke rechtmäßig zugänglich sind. Ob die Werke rechtmäßig online gestellt wurden, ist demgegenüber irrelevant. Dies erlaube ein Training mit Piraterieseiten, auf denen sich Unmengen raubkopierter Werke finden. Zudem wird mangels eines leicht verständlichen technischen Standards schlicht die fehlerfreie Umsetzbarkeit (für nicht stets technikaffine Urheber) in Zweifel gezogen. Ungelöste Probleme bestünden schließlich für analoge und älter als die Vorschrift datierende Werke. Rechtsunsicherheit entstehe auch im Hinblick auf regelungstechnische Detailfragen: etwa, ob Nutzungen zum Training generativer KI eine neue eigenständige Nutzungsart sind, d.h. ob und in welcher vertraglichen Konstellation Urheber oder Verwerter berechtigt sind, den Vorbehalt zu erklären. Gleichermaßen unklar ist, wann genau die Löschpflicht einsetzen soll.
Eine andere Ansicht argumentiert ökonomisch: So hätten die wichtigsten internationalen Konkurrenten der EU abweichende Ansätze gewählt und zielen mit diesen nicht auf eine Dynamik der Lizenzierung. Die USA, Kanada, Singapur, Südkorea, Japan, Israel und Taiwan hätten breitere und flexiblere Urheberrechtsbeschränkungen eingeführt. In den USA werde TDM routinemäßig als transformativer faire use angesehen, worunter, wie in Japan, weder der Kultur- noch der High-Tech-Sektor zu leiden habe. Angesichts hoher Transaktionskosten, die nach dem EU-Modell anfielen, könnte die High-Tech-Industrie deshalb beschließen, KI-Trainingsaktivitäten in andere Regionen zu verlegen, die ein günstigeres Umfeld böten.
Den Telos der Vorschrift, nämlich dass die Zusammenschau einer Vielzahl von Werken einen Informationsgehalt offenbart, der rechtlich weder den einzelnen Urhebern noch den Inhabern von Datenbanken zugeordnet werden kann, stellt schließlich eine Großzahl der betroffenen Urheber infrage: Für sie stellt sich der Vorgang des TDM als Ausbeutung ihrer intellektuellen (Recherche-)Leistung dar, deren Ergebnisse mit ihrem Berufsstand in Konkurrenz treten. Diese Auffassung ist in den USA Gegenstand der Gerichtsverfahren mit teilweise hohen Entschädigungsforderungen (während des Entstehens dieser Abhandlung allseits beachtet: New York Times vs. Microsoft und OpenAI). Diese Prozesse befinden sich allerdings noch in einem frühen Stadium, weshalb mit einer höchstrichterlichen Klärung – und damit einhergehendem Rechtsfrieden – innerhalb des Jahres 2024 nicht zu rechnen ist.
Lösungsvorschlag
Einen Weg aus diesem Dilemma möchte ein Ansatz weisen, der in der jüngeren Diskussion vermehrt auftaucht. Ausgehend von dem Problem, dass hohe Transaktionskosten entstehen, wenn die Entwickler von KI mit jedem Urheber gesondert Lizenzverträge aushandeln und abschließen müssen, wird nach einer praktikablen Variante gesucht. Nach dem Muster eines TDM-Tarifs würden die Kosten auf der Seite der Nutzer geschützter Werke quasi automatisch anfallen, was zunächst die aufwendigen Verhandlungen einsparen würde. Gleichzeitig entfällt damit der markthemmende Effekt, der dadurch entsteht, dass Entwickler auf deren Abschluss warten müssen und bis dahin im Ungewissen über die anfallenden Kosten sind. Von der technischen Seite aus wäre laut Maamar zu erreichen, dass Rechteinhaber mit ihrem maschinenlesbaren Opt-out die Erklärung verbinden, welcher Tarif und gegebenenfalls welche Vergütungsstufe anwendbar sein soll. Dies wäre vermutlich jedoch nicht ohne einen beträchtlichen Umstellungsaufwand realisierbar. In der Literatur wird allerdings auch darauf hingewiesen, dass das europäische Urheberrecht mit dem Institut der Verwertungsgesellschaften bereits über nützliche Voreinstellungen verfügt, die Letzteren dezimieren würden.
Verbunden ist damit in gewisser Hinsicht ein Ansetzen beim Kollektiv der Autoren. So begründet und konzipiert Senftleben sein ähnlich gelagertes lump-sum-levy-system (in der Nachfolge von Dietz) über eben jenes neu zu kreierende Rechtssubjekt. Es erscheint dem Verfasser zunächst keineswegs evident, dass bei der Aufteilung unter so vielen Beteiligten nennenswerte Beträge zustandekommen können. Außerdem entfällt somit die Chance des einzelnen Urhebers, durch besonderes Verhandlungsgeschick oder eine herausragende Leistung einen Betrag zu erzielen, der über der Pauschale liegt. Für ihn gilt in gewisser Hinsicht "mitgefangen – mitgehangen”. Aus Sicht der urheberpersönlichkeitsrechtlichen Komponente der Regelung fällt schließlich – mE schwer – ins Gewicht, dass ein Künstler, der schlichtweg dagegen ist, sein Werk als Gegenstand des TDM zu überlassen – etwa weil er die Technologie in Gänze ablehnt –, damit gänzlich schutzlos stünde. Er müsste sich hinter die paywall zurückziehen, bzw. nach der Konzeption von Durantaye (weitaus aufwendiger als bislang) einen Widerspruch gegenüber den Verwertungsgesellschaften erklären. Das Internet als seine Präsentationsfläche entfiele demzufolge – mit entsprechenden Konsequenzen für die Allgemeinheit. Zumindest unter diesem Aspekt erscheint der an sich notwendige Lösungsvorschlag aus Verfassersicht als Wegbereiter einer “privatwirtschaftlichen Landnahme des Internets”. Es ist zudem keineswegs garantiert, dass die von der Branche ersehnten Lizenzmodelle auch den Erwartungen entsprechen. Durantaye etwa führt das Beispiel von Shutterstock-Fotografen an, welche auf die Plattform 2112 Bilder einspeisen, aber nur 37 $ pro Jahr damit einnehmen. Ähnlich unbefriedigend ist die Situation bezüglich bereits erfolgter Rechtsverletzungen: Da das Training sich allenfalls mit großem Aufwand rückgängig machen lässt, werden Gerichte den Urhebern Unterlassungs- bzw. Beseitigungsansprüche vermutlich nicht zusprechen. Etwaige Schadensersatzansprüche jedoch würden ihnen wahrscheinlich nur Pfennigbeträge einbringen.
Output – Hintergrund
Die andere kontrovers diskutierte Fragestellung betrifft den rechtlichen Umgang mit den Produkten generativer KI, dem sog. output. Dabei spielt es eine wichtige Rolle, dass die kontinentale Rechtstradition zur Rechtfertigung von Ausschließlichkeitsrechten (welche sich in ausgleichungspflichtiger Opposition zum Allgemeininteresse am Werkgenuss befinden) stark auf dem Gedanken des droit d’auteur fußt. Die in der angelsächsischen Tradition prominenter betonten utilitaristischen Abwägungen sind daher von geringerer Bedeutung. In Anknüpfung an Kant und Hegel dient das geistige Eigentum demnach auch und vor allem der Selbstverwirklichung. Durch die Zuweisung von Rechten wird die Persönlichkeit in ihrer Entwicklung und den Möglichkeiten individuellen Ausdrucks gefördert. Diese Tradition ist dem Recht noch anzusehen: Nach § 1 UrhG genießen Urheber von Werken der Literatur, Wissenschaft und Kunst Schutz für ihre Werke, wobei in § 2 II näher konkretisiert wird, dass „nur persönliche geistige Schöpfungen“ Werke iSd UrhG sein können. Schon in dieser Werksdefinition wird die enge persönliche Verbindung zwischen dem Urheber und seinem Werk offenbar, welche sich laut Wagner durch das gesamte Urheberrecht zieht. In weiterer Ausprägung dieser persönlichen Verbindung ist in den §§ 12 ff. das Urheberpersönlichkeitsrecht anerkannt, welches zudem nicht übertragbar ist. Während der Urheber zwar Nutzungs- und Verwertungsrechte an seinem Werk einem Dritten einräumen kann, bleibt somit immer ein gewisses Band zwischen dem Urheber und seinem Werk bestehen.
Dass Künstler bei der Produktion jedoch nicht vollkommen unabhängig – wie eine Äolsharfe gleichsam von einer göttlichen Kraft gelenkt – agieren, sich ihre Schöpfung vielmehr auch aus der Betrachtung und Analyse anderer Kunstwerke speist, anerkennt das Urheberrecht mit der Freien Benutzung aus § 24 aF, welche, obgleich als europarechtswidrig erklärt, in ihrem Kern noch immer erlaubt sein dürfte. Daraus folgt: Sowohl die Verwertung des Werks, als auch seine als originell betrachtete Entstehung ist dabei also immer in einem Kontext zu betrachten. Während oben die Frage behandelt wurde, ob dieser Vorgang des Sich-Inspirieren-Lassens (wie ihn § 24 aF adressiert) zu dem TDM in Analogie gesetzt (und somit eine Vervielfältigung verneint) werden kann, soll hier gefragt werden, wie es sich rechtlich auswirkt, wenn dieser Vorgang nicht in das Werk einfließen kann, wenn gleichsam das Band zwischen Werk und Schöpfer (das Originalität begründet) durchtrennt ist. Offensichtlich kommt das Urheberrecht an seine Grenzen.
Samuelson führt den kuriosen Fall einer Comic-Zeichnerin an, welcher von der amerikanischen Urheberrechtsbehörde der Schutz ihres Werkes zuerst zuerkannt, und dann – nachdem sie auf social media die Involvierung von generativer KI in den Schaffensprozess offengelegt hatte – wieder aberkannt wurde. Aus dem Bereich des Patentrechts, der hier nicht weiter vertieft wird, ist eine ähnliche Problematik justiziabel geworden: In der Food Container-Rechtsprechung hatte das BPatG zu entscheiden, ob es rechtens war, dass das Patentamt einem Kläger die Anerkennung einer Erfindung verweigert hatte, weil dieser in dem entsprechenden Formular als Name des Erfinders nicht sich, sondern die angeblich autonom agierende KI eingetragen hatte. Auch im Patentrecht ist der Anthropozentrismus fest verankert. Zum Teil wird diese Verankerung in der Literatur jedoch als überkommen oder das Beharren auf ihr als ideologisch eingefärbt, dargestellt.
Nun gibt es Maschineneinsatz in der Kunstproduktion nicht erst seit Stable Diffusion. Wie früher Pinsel und Staffelei waren etwa für die Technomusik der 90er erst Synthesizer und später PCs mit entsprechender Software unverzichtbare Mittel für die Künstler, um ihren Ideen einen Ausdruck zu verleihen. Und tatsächlich wurde in den Anfängen des urheberrechtlichen Softwareschutzes vertreten, dass dem Inhaber der Urheberrechte an einer (Kompositions-)Software auch das Urheberrecht an dem Output der Software zuzuordnen sei, da insofern Verantwortlichkeit statt Vorhersehbarkeit genüge. Diese Ansicht hat sich jedoch nicht durchgesetzt. Stattdessen wurde – wie auch bei aleatorischer Kunst – von dem Einsatz eines Hilfsmittels ausgegangen und dem Künstler in der Rolle des Konzepteurs und Arrangeurs der (teilautomatisierten) Produktion urheberrechtlicher Schutz gewährt. Allerdings wird, soweit ersichtlich, nicht vertreten, dass dieser Usus mit dem Publikwerden von large language models (LLMs) und anderen Generative-KI-Anwendungen nicht zumindest einer grundlegenden Neubewertung zu unterziehen wäre. Schließlich handelt es sich dabei nicht um auf einige Optionen begrenzte Regelsets – wie beim Mozartschen Würfelspiel – sondern um zT (quasi-)autonom agierende Systeme. Der Werkzeuggedanke erscheint zunehmend inadäquat. Dem Rechnung tragend erkennt der britische Copyright, Designs and Patents Act 1988 explizit auch computer-generated works als schutzfähig an, wenn sie allein von einem Computer ohne Beteiligung eines menschlichen Autors geschaffen wurden.
Zur rechtlichen Einordnung
Der oben erwähnte Schöpfer, an den das Urheberrecht seine Ausschließlichkeitsrechte anknüpft, ist in gewisser Hinsicht die dogmatische Kehrseite seines Werks. Der Urheber existiert rechtlich nicht, ohne ein Werk vorgelegt zu haben, während andersherum jedes Werk einen Urheber hat. Damit, dass etwas als ein Werk identifiziert werden kann, sind keine sonderlich hohen Anforderungen verbunden. Die Rechtsprechung hat bereits eine sog. Kleine Münze als hinlänglich individuell und künstlerisch verarbeitet (“Gestaltungshöhe”) angesehen, um ihr Schutz zuzuerkennen. Auf europarechtlicher Ebene wurde – als das Pendant zur Kleinen Münze für automatisch generierte Sprachwerke – mit Infopaq entschieden, dass ein 11-Wörter-Textfragment sich schon als Werk qualifizieren könne. Dies belegt, dass die Originalität eines Werks schon anhand eines kleinen Umfangs an Material bzw. innerhalb weniger (sprachlicher) Zeichen manifestiert werden kann. Bei Texten, deren Inhalt jedoch wesentlich durch die in ihnen enthaltenen Informationen bestimmt wird, so wie bei den Afghanistan Papers, geht der EuGH davon aus, dass es dem Urheber bei der Ausarbeitung nicht möglich war, seinen schöpferischen Geist in origineller Weise zum Ausdruck zu bringen. Diese Formulierung gibt zu erkennen, dass es bei der Frage nach einer geistigen Schöpfung weniger um die Wertung der Fähigkeiten des Schöpfers geht, sondern eher darum, ob diese beim jeweils gewählten Prozess und in Anbetracht des vorgelegten Produktes tatsächlich Einzug erhalten konnten und ggf. auch Einzug erhalten haben. Insbesondere soll durch die Gerichte kein Qualitätstest erfolgen. Beispielsweise von Chat GPT erzeugte Texte wären isoliert betrachtet problemlos als Sprachwerke iSd. § 2 I Nr. 1 (nicht abschließende Liste) einzuordnen, insbesondere weil deren Wahrnehmbarkeit auf dem Bildschirm ausreichend gewährleistet ist.
Problematisch ist jedoch, dass es sich laut § 2 II um eine persönliche geistige Schöpfung handeln muss. Dies streitet entschieden dafür, dass der Urheberschutz menschlicher Kreativität vorbehalten ist. Zwar wird vertreten, dass allein die blackbox-Eigenschaft der Systeme noch nicht notwendigerweise zu einer Ablehnung der gestalterischen Tätigkeit führen muss, solange das Ergebnis (aus dem autorseitig bekannten Möglichkeitsraum) im Rahmen der Autorintention bleibt. Hinsichtlich des kreativen Akteurs ist jedoch de lege lata die Rechtslage eindeutig: Wie auch bei einem Tier, handelt es sich bei der generativen KI-Anwendung um eine Entität, die keine persönliche Schöpfung hervorbringen kann.
Davon zu trennen ist die Frage, ob die dementsprechenden Erzeugnisse somit gänzlich ungeschützt sind, oder ob mittels anderer Konstruktionen wie den Leistungsschutzrechten oder einem sui generis Recht ein Ausschluss ungewollter Nutzungen erfolgen kann. In Betracht kommt dabei bspw. das Datenbankherstellerrecht, § 87a. Dieses knüpft nämlich gerade nicht an eine persönliche Schöpfung an, sondern zielt auf Investitionsschutz zugunsten des Datenbankherstellers. Es versagt jedoch bei näherer Betrachtung. Umfasst sind schließlich nur Datenakkumulationen, bei denen die einzelnen Elemente unabhängig voneinander sind. Für ein von der KI generiertes Musikstück beispielsweise ist jedoch genau dieses Erfordernis nicht mehr gegeben: In seine Einzelteile zerlegt, würde der Wert ihres informativen, literarischen, künstlerischen, musikalischen oder sonstigen Inhalts sehr wohl beeinträchtigt sein. Zudem bestünde sonst die Gefahr, dass der engere Skopus des § 2 durch das Datenbankherstellerrecht schlicht unterlaufen würde. Auch erörtert wird in der Literatur, das Tonträgerherstellerrecht zum Schutz der musikalischen Erzeugnisse von KI anzuwenden. Dies umfasst jedoch nur einen kleinen Teil der vielen denkbaren Szenarien der KI-Produktion. Insgesamt werden laut Dornis die KI-Erzeugnisse durch die Leistungsschutzrechte, wenn überhaupt, dann nur defizitär abgedeckt.
Die Abfederung über das Recht zum unlauteren Wettbewerb nach dem UWG wird von der Forschung ebenfalls in Betracht gezogen. Hinsichtlich der Vervielfältigung von KI- Musik oder -Malerei ist an die Tatbestände des § 4 Nr. 3 UWG zu denken. Dabei ist durchaus von einer „Nachahmung“ auszugehen, möglicherweise auch die wettbewerbliche Eigenart des entstehenden Werkes zu bejahen. Entscheidend für die Anwendbarkeit außerhalb des sondergesetzlichen Bereichs der Immaterialgüterrechte ist laut BGH jedoch die Gefahr eines Marktversagens. Dass diese wiederum nicht als evident gelten kann, werde ich unten in der Diskussion zeigen.
insb. EuGH
Das deutsche Urheberrecht ist stark gemeinschaftsrechtlich durchwirkt, wenngleich das Rechtssystem darauf ursprünglich nicht ausgelegt ist. Der europarechtliche Werkbegriff aus der Richtlinie 2006/116/EG, der einer Definition am nächsten kommt, statuiert (wiederum abgeleitet von Art. 2 I der Berner Übereinkunft), dass eine “eigene geistige Schöpfung des Autors” verlange, dass der Gegenstand erstens “des Autors eigene”, d.h. nicht kopierte, und zweitens “geistige Schöpfung” sein muss. Diese zwei Aspekte werden in der Regel unter “Originalität" zusammengefasst. Die Rechtsprechung ab 2009 folgt dieser Linie. Expressis verbis wird – wie auch im Deutschen – nirgends im EU-Urheberrecht ein menschlicher Autor gefordert. Während die InfoSoc-RL von 2001 die Mitgliedstaaten zwar verpflichtet, insbesondere das Vervielfältigungs- und Verbreitungsrecht zugunsten der “Autoren” zu gewähren, enthält sie sich gleichzeitig einer Definition des Begriffes. An vielen Stellen ist die anthropozentrische Ausrichtung allerdings eine unbenannte Selbstverständlichkeit. Die EuGH-Rechtsprechung manifestiert dies in der Formulierung von einem Urheber, der sich im Rahmen “(freier und) kreativer Entscheidungen” betätigt und hierbei seine “Persönlichkeit” ausdrückt. In diesem Zusammenhang wurde eine Kasuistik herausgearbeitet, die die Freiheit solcher Entscheidungen vor der Folie möglicher Unfreiheiten, d.i. Beschränkungen, illustriert. Diese können regelbasierter, technischer, funktionaler oder informativer Natur sein. All diese Aspekte können, Hugenholtz zufolge, indes eine Bedeutung für die rechtliche Bewertung KI-unterstützten Outputs erlangen.
Etwas unscharf und iE wohl der Rechtsprechung der Mitgliedstaaten überlassen bleibt, ob dieser kreative Freiraum, der dem Urheber bei der Produktion des Werkes entsteht, auch auf kreative Art und Weise genutzt werden muss. Die Formulierung in der Kasuistik des EuGH deutet darauf an manchen Stellen hin. Demzufolge wäre es der Werkeigenschaft abträglich, wenn etwa ausschließlich die naheliegendsten Entscheidungen getroffen würden. Wie oben erwähnt, darf es jedoch bei der Subsumtion unter dieses Kriterium nicht zu einem Qualitätstest kommen. Zusammenfassend lässt sich somit feststellen: Das europarechtlich durchwirkte Urheberrecht anerkennt trotz vielfacher Absenkung des Gestaltungshöheanfordernisses keine Schutzfähigkeit für autonom durch KI generierte Werke, schließt diese allerdings auch nirgends expressis verbis aus.
Lösungsvorschlag I
Für eine mögliche Lösung des Problems der Originalität im Bezug auf generative KI ist insbesondere der von Hugenholtz und Quintas aus der Painer-Rechtsprechung abgeleitete 4-Stufen-Test von Bedeutung. Er fokussiert – die Zugehörigkeit zu einer einschlägigen Werkkategorie voraussetzend – auf die Kriterien Resultat kreativer Entscheidungen und deren Ausgedrückt-Sein im Output. Letzteres Kriterium wird dabei sogar für komplett unvorgesehene und nicht nachvollziehbare (“quasi-random”) KI-Entscheidungen bejaht, weil hierunter eine generalisierte Autorintention verstanden wird, die nur eine vage Konzeption des Werks beinhalten muss. Diese Anforderungen sind also offenbar äußerst gering angesetzt. Die zweite Voraussetzung, die nach Auffassung der Autoren keiner eingehenderen Betrachtung bedarf, ist Produkt einer menschlich-geistigen Anstrengung. Während dieser Punkt in der breiten Diskussion seit Jahren die Gemüter zu erhitzen vermag, wird er für diese Analyse kursorisch damit abgehandelt, dass eine komplett autonome KI ein futuristisches Szenario sei und KI-Output “immer mit einer Form menschlicher Intervention Hand in Hand gehen” würde, “sei es bei der Entwicklung der KI-Software, der Erfassung und Auswahl von Trainingsdaten, der Einstellung funktionaler Spezifikationen, oder der Überwachung des kreativen Prozesses”. Die Frage nach dem erforderlichen Ausmaß dieser menschlichen Einmischung, wird sodann jedoch in das angeblich wichtigste Kriterium des Tests gleichsam hinübergerettet:
Originalität bzw Kreativität – vom EuGH beschrieben als des Urhebers Möglichkeit “to express his creative abilities in the production of the work by making free and creative choices” – sei demnach auf verschiedenen Ebenen und in verschiedenen Phasen des Produktionsprozesses denkbar. An diesem Punkt wird sich der Argumentation aus Painer bedient, um hierfür zusätzlich in drei Phasen zu unterteilen: conception, execution und redaction (etwa: Konzeption, Ausführung und Nachbearbeitung oder Redaktion bzw. Finalisierung). In Ersterer wird ein Plan erstellt, der bereits konkretisierte Entscheidungen (über Genre, Material, konzeptuelle Fragen sowie Plot, Melodien oder Themen) beinhalten muss. Gegebenenfalls muss der Input für das System, also die Trainingsdaten, kuratiert werden. Die zweite Phase beinhaltet die Umwandlung des Plans in eine Rohversion der endgültigen Arbeit (also malen, schreiben, aufnehmen, codieren, etc.). Hier wird nun die KI tätig, was sich jedoch nicht wesenhaft sondern nur graduell von einer seit dem 19. Jhdt. fortschreitenden Mechanisierung (als Hilfsmittel) unterscheide. Zuletzt folgt eine Weiterverarbeitung und Überarbeitung des Outputs. Es wird betont, dass diese Phase eine große Bandbreite von Aktivitäten enthalten könne. So würden etwa bei Übersetzungsprogrammen vielfache Formulierungsalternativen angeboten.
Aus dieser Darstellung wird insbesondere folgende Überlegung abgeleitet: Wenn der rechtlich relevante Schöpfungsprozess in drei Phasen zerfalle, von denen nach bisher herrschender Auffassung insbesondere die mittlere (execution) relevant zu sein schien, ist es dann möglicherweise zulässig, die vollständige Übernahme einer der Phasen durch KI mit einem menschlichen Beitrag in den anderen Phasen zu kompensieren? Hugenholtz und Quintas argumentieren eindeutig in eine Richtung, die das bejahen möchte, wobei sie klarstellen, dass somit nicht automatisch (d.h. bedingungslos) jeder Output als originell gelten kann. So wären einfache Wettervorhersagen möglicherweise nicht schützenswert. Hier tut sich aus Verfassersicht ein Widerspruch auf, wurde doch vorher im Text eben darauf abgestellt, dass in der Phase der Kuration der Daten bereits eine signifikante Kreativleistung angenommen werden kann. Insofern dann aber keine Unterscheidung zwischen kreativer und nicht-kreativer Kuration in der Konzeptionsphase gemacht wird, ist nicht ersichtlich, weshalb der profane (“mundane”) Wetterbericht ausgenommen sein soll. Hier muss interpretiert werden, dass Produkte mit geringerer Schöpfungshöhe einen (ansonsten von den Autoren nicht quantifizierten) kleineren kreativen Beitrag gleichsam absorbieren. Auch ist zu berücksichtigen, dass der Artikel aus dem Jahr 2021 stammt und das System GPT-3 noch als neue und spektakuläre Entwicklung rahmt, weshalb das disruptive Potenzial der Technologie noch nicht vollständigen Eingang in die Argumentation und der Autoren Auffassung von Originalität bei KI-Output gefunden haben dürfte.
Diskussion
Den Überlegungen von Hugenholtz und Quintas hält Dornis entgegen, dass sie nicht der Realität der KI-Anwendungen entsprächen, welche sich nicht-determiniert und auf einer nicht mehr im Detail zu überschauenden Datengrundlage entwickeln. Auch Dornis geht nicht von einer Autonomie ieS aus, da zB die künstlichen neuronalen Netzwerke des Kollektivs Obvious immer Portraitbilder eines bestimmten Stils und mit bestimmten Inhalten auswürfen und nicht eigenmächtig eine neue Stilrichtung oder andere Inhalte wählten. Letztlich sei jedoch der eigenschöpferische Zurechnungszusammenhang zwischen dem Menschen und dem Output unterbrochen. Stark gemacht wird der Unterschied zwischen der Beherrschung der Maschine einerseits und der Beherrschung von deren internen Umsetzungsprozessen andererseits. Auch die Gleichsetzung der Konzeption des KI-Einsatzes (Parameterwahl oder Datenkuration) mit einem “konkret gestaltenden Beitrag” wird in Zweifel gezogen. Einer rechtlich vermeintlich relevanten Differenzierung zwischen Autonomie und Automation wird entgegengehalten, dass u.U. bereits im Falle der Automation ein Kontrollverlust eintreten könne. Als zentraler Einwand dürfte jedoch gelten, dass die menschlichen Beiträge aus dem Vorfeld, die bei Hugenholtz und Quintas großzügig mit einberechnet werden, aus der Sicht von Dornis zwar zur Entwicklung der KI als solcher beitrügen, sich aber nicht “unmittelbar formativ und konkret auf die Ergebnisse der KI-Schöpfungsprozesse” auswirken würden. Genau diese – nämlich die im Endprodukt Gestalt annehmenden – Beiträge iSe kreativen Entscheidung, so könnte man anfügen, sind jedoch alleiniger Ausgangspunkt einer urheberrechtlichen Beurteilung infolge der Rechtsprechung des EuGH. Aus den genannten Gründen sei schließlich auch die schiere Auswahl zwischen einzelnen KI-generierten Exemplaren kein ausreichender Beitrag. In dem Zusammenhang wird auch die Präsentationstheorie Kummers (jedoch ohne weiteren Begründungsaufwand) abgelehnt. Alles in allem handele es sich bei dem Modell von Hugenholtz und Quintas mithin um eine Hilfskonstruktion, die lediglich ein “dogmatisches Vakuum” zu vermeiden suche.
Meines Erachtens ist in dem Zusammenhang außerdem zumindest fraglich, ob eine von deepL angebotene Neuübersetzung oder einzelne Formulierungsalternativen überhaupt, wie behauptet, als kreative Freiheit oder nicht doch eher als determinierte Option verstanden werden muss. So bietet die Technik zwar ein anderes wording an, aber bspw. nicht den Gedanken gänzlich anders aufzubauen oder etwa aus einer Theaterkritik ein Schmähgedicht zu machen oder auch nur den Stil geringfügig zu verändern – etwa in Richtung eines jovialeren Duktusses, etc. Im Endeffekt geht es bei den KI-Systemen schließlich um Wahrscheinlichkeiten. Diese sind mithin voll intelligibel und ein Rückgriff darauf nur schwer als kreativ zu begreifen. Mit dieser Überlegung steht der zutreffende Einwand von Dornis in Verbindung, bei KI-Übersetzungen sei die “schöpferische Abnabelung” der Systeme besonders augenfällig, weil das Programm die verschiedensten Eingabetexte bewältigen können soll und es daher gerade keine “persönliche Handschrift” der Entwicklerin aufweisen darf. Dementsprechend würde es sich bei den alternativen Angeboten von deepL aus Verfassersicht um die oben erwähnte “obvious choice” handeln, die zumindest nach hier vertretener Auffassung schwerlich für Originalität streiten kann.
Grundsätzlich erscheint die Beurteilung der Originalitätsfrage – die in Anbetracht der droit d’auteur-Doktrin durchaus für sich alleine stehen könnte – in der Forschung vielfach eingefärbt von der jeweiligen Haltung, die die Autorinnen zu der Problematik eines möglichen Marktversagens einnehmen. Somit wird in gewisser Hinsicht vom Ende her gedacht. Dies als Probeüberlegung im Rahmen der dogmatischen Lösungssuche zu unternehmen, ist sicherlich sinnvoll. Allerdings sollte dabei nicht der breite und vielschichtige Diskurs hintangestellt werden, wie die Gesellschaft in Anbetracht einer disruptiven Technologie, die mit der Kreativität eine der Grundfesten ihres Selbstbildes zumindest vertretbar in ihrem Ansehen gefährdet, umgehen möchte. Was ihr menschliche Autorschaft wert ist. Zudem ist die Haltung der Rechtsgelehrten mitunter nicht eindeutig zu identifizieren. Dornis geht so zunächst von einer Schutzverweigerung als “stimmige Lösung” aus, führt dafür den Verdienstgedanken an (eine KI muss nicht belohnt werden) und beurteilt den Meinungsstand in der Literatur bezüglich des “ökonomischen Kalküls” als überwiegend ablehnend (gemeint ist wohl, dass überwiegend Urheberinnenschutz abgelehnt wird, weil dies als ökonomisch vorteilhaft betrachtet wird). Sodann wird jedoch erläutert, dass die Doppelentlohnungsthese (Softwareschutz und Produktschutz) verkürze: Eine Schutzverweigerung für die Produkte würde auf den Wert der Systeme direkt durchgreifen und so Innovationsanreize beseitigen, was plausibel gemacht wird, aber eindeutig nicht dafür streitet, es bei der jetzigen Rechtslage zu belassen. Ebenfalls diffus ist die Position zur praktischen Machbarkeit einer Schutzverweigerung: Letztere führe dazu, dass der KI-Einsatz verschwiegen würde und Akteurinnen Schutz erlangen, die ihn mangels Beteiligung nicht verdienten. Dies ist jedoch aus meiner Sicht nur ein funktionierendes Argument, wenn man die Maßstäbe des Autoren teilt (und eben den Beitrag zur Schöpfung tatsächlich als “irrelevant” einordnet). Die Gegenseite würde es gerade als wünschenswert betrachten, dass etwa bei der Patentanmeldung Details zum Erfindungsprozess außenvor bleiben und der “findende” Mensch verantwortlich zeichnet. In der Konsequenz, wie Dornis anscheinend impliziert, einer Gruppe de lege ferenda Rechte zusprechen zu wollen, die sie “nicht verdient”, nur damit Umgehungstatbestände vermieden werden, mutet jedenfalls paradox an. Die insoweit vom Autoren in Aussicht gestellten “dramatischen Konsequenzen", nämlich viele neu entstehende Schutzrechte, klingen für eine unvoreingenommene Leserin in der Folge auch weniger dramatisch, eher wünschenswert. Jene werden zwar metaphorisch verunglimpft (“Dickicht”, “mit allen nur vorstellbaren Nebenwirkungen”) – aber sonst der Vorstellung der Leserinnenschaft überlassen, was negativ an einer “pausenlosen” und “ewig” währenden Erfindertätigkeit der KI sein soll.
Lösungsvorschlag II
Eine konkretisierende Darstellung der Problematik findet sich bei Militsyna. Hier werden (ausgehend von dem Befund, dass die Werkzeugeigenschaft von generativer KI oder deren Ablehnung in der Literatur häufig als Prämisse auftaucht, anstatt dass der Verlauf einer dahingehenden Grenzlinie zu skizzieren versucht wird) Szenarien verschiedener Beiträge zur Schöpfung beschrieben und ausgewertet. Dafür soll einem verbreiteten Unverständnis gegenüber der Technik hinter den Systemen entgegengewirkt werden, das zu einer Anthropomorphisierung und zT Glorifizierung der generativen KI führe. Es wird klargestellt, dass es sich bei der allgemein berichteten KI-Autonomie um nicht mehr als ein hohes Maß an Automatisierung handle. Indem sodann Werkzeuge als “dem Ausdrücken von Ideen Unterstützung leistend” definiert werden, wird eine Subsumtion der KI-Systeme hierunter möglich. Gleichwohl wird die schnell wachsende Komplexität der Systeme eingestanden, die die Notwendigkeit von menschlichem Kreativ-Input erkennbar dezimiere. Diese Dezimierung wirke sich allerdings per se noch nicht auf die Zuerkennung von Schutzrechten aus, solange eine gewisse Schwelle nicht unterschritten wird. Anders als in der Darstellung von Hugenholtz und Quintas wird demnach die Ratio der Kleinen Münze aufrechterhalten und nicht impliziert, dass durch ein Mehr an maschinellen Beiträgen (iSd oben beschriebenen Absorption, quasi nach dem Gedanken einer Quote) die Schwelle für den erforderlichen menschlichen Beitrag angehoben werden müsste. Vorgeschlagen wird, gleichsam eine Subtraktionsmethode für die Ermittlung der Originalität anzuwenden.
Für die erste Stufe des Tests ist nach der Beschaffenheit der involvierten KI zu fragen (zB statistical vs. sub-symbolic vs. symbolic), und hierbei insbesondere zu bestimmen, inwieweit Nutzerinnen oder Entwicklerinnen “die Kontrolle über den Ausdruck des Outputs behalten”. Militsyna betont, dass die Variabilität des Outputs eines Systems in der komplexen Interaktion der Komponenten Aufbau (Methoden und Modelle) und Training (welche Daten, welcher Prozess, Techniken) besteht. Andernorts wird gerade diese Variabilität argumentativ angeführt, um Vorhersehbarkeit des Outputs zu verneinen und in der Folge einen Schutz durch das Urheberrecht zu verwehren. Somit wird schon hier deutlich, dass nach dem von Militsyna vorgeschlagenen Modell Juristinnen tief in die rechtliche Bewertung der außerhalb ihres Fachgebiets liegenden Technikfragen einzusteigen hätten. Zum Beispiel müsse man verschiedene Methoden des Trainings (die als “key factors” bezeichnet werden) unter die Lupe nehmen. Der zweite Teil des Tests, der nach einer Quantifizierung der menschlichen Beiträge fragt, erachtet solche, die für die Erschaffung des Systems geleistet werden, demnach auch explizit als relevant. Der dritte Teil des Tests unterzieht die menschlichen Beiträge einer qualitativen Auswertung und begegnet dabei der Schwierigkeit von sog. Chamäleon-Beiträgen (deren Verortung zwischen kreativ und rein technisch nur anhand einer genaueren Betrachtung des Kontexts erfolgen kann). Der vierte Teil des Tests setzt schließlich an, die schöpfungsspezifische Distanz (“creative distance”) zwischen den zuvor identifizierten Beiträgen und dem Endprodukt zu bewerten. Es wird also gefragt, inwieweit der Output aus nicht-determinierten, nicht-technischen Beiträgen des Menschen hervorgegangen ist. Hierfür ist die Autorinnenintention zu ermitteln. Abschließend – fünftens – muss bewertet werden, ob die freien und kreativen Entscheidungen umfangreich genug waren, um für Originalität zu streiten. Die sich hierbei stellenden Herausforderungen seien nicht grundlegend neu, sondern schon seit jeher Teil des Urheberrechts und im Endeffekt von dem Recht der jeweiligen Nationalstaaten zu bewältigen. Es sei jedoch wahrscheinlich, dass sich in Anbetracht generativer KI die dahingehenden Standards in naher Zukunft ändern würden. In Anwendung des Tests werden sodann Konstellationen mit KI-Entwicklerinnen als Urheberinnen für möglich erachtet, nämlich wenn die Nutzerin durch das System gebunden ist und/oder es auf ihren Beitrag nicht ankommt. Ist sie hingegen in der Lage, schöpferische Beiträge zu leisten, rücke sie gleichsam näher an das Endprodukt und durchtrenne somit die Autorinnenschafts-Ansprüche der KI-Entwicklerin. Dies ergebe sich allein daraus, dass die Benutzerin entscheide, Output herstellen zu wollen, das Gerät anschalte, und das Programm in Betrieb setze und somit den Grund für die Schöpfung bilde. Urheberinnenschaft entsteht gleichsam nach dem Veranlasserprinzip. Hierbei sei allerdings entscheidend, “dass die Kontrolle über den Prozess nicht aufgegeben wird”. Was damit gemeint sein kann, ist für den Verfasser keineswegs evident. Es wird jedoch auch nicht näher dargelegt. Stattdessen erfolgt ein Verweis auf die oben dargestellten drei Schöpfungsphasen nach Painer und eine dahingehende Kompensationsmöglichkeit. In diesem Zusammenhang erscheint der Autorin denn auch KI-Einsatz nicht mehr zu sein als “kontrolliertes Outsourcing”, das keine neue Gefahr für das Urheberrechtssystem beinhalte. Der Schritt, eine Vielzahl an Differenzierungskriterien aufzuwerfen, und die Feststellung der Schutzfähigkeit somit – mE gewinnbringend – zu verkomplizieren, scheint an dieser Stelle wieder halb zurückgenommen zu werden, zugunsten eines optimistischen Plädoyers für Rechteanwärterinnen, die die Widerständigkeit des Mediums oder eine Kreativblockade scheuen und deshalb die Maschine bemühen. Prima facie wirft auch hier das rechtliche Vakuum einer “Schöpfung ohne Schöpferin” seine Schatten.
Diskussion
Zuzugeben ist dem Ansatz jedoch, dass – indem er die Lösung des Problems über eine Mitautorinnenschaft (dogmatisch) mangels Kollaboration im Verhältnis Entwicklerin/Benutzerin und (praktisch) zur Vermeidung komplexer Rechteaufteilung verwirft – ein realistischer Blick auf die Auswirkungen der Originalitätsfrage und somit auf die ganze Dimension der Problematik geworfen wird. Überdies belegt eine umfassende Erörterung der Konstellationen, in denen keine Autorinnenschaft angenommen werden kann (zB weil die Umsetzungsmöglichkeiten des prompts zu mannigfaltig sind), einen differenzierten Blick auf die Bedingungen der Originalität, zumal hier ein fortschreitender Trend vonseiten der Technik identifiziert wird, den Menschen vom Akteur zum Beiwerk zu degradieren. Entsprechend wird eine Autorinnenschaft durch bloßes Auswählen aus den KI-Ergebnissen klar negiert und gegen relevante Beiträge in der Redaktionsphase abgegrenzt. Auch deshalb stellt sich der Beitrag Militsynas iE als eine den Details zugewandte und praxisnahe Weiterentwicklung der Analysen von Hugenholtz und Quintas dar. Eine Stütze erfährt diese Deutung, wenn man sich vergegenwärtigt, dass die von letztgenannten Autoren nur am Rande eingeräumten Wechselwirkungen zwischen den drei Phasen der Schöpfung des idealtypischen Modells, bei Militsyna zu einem Argument weiterentwickelt wird: Indem die Konzeptionsphase (aufgrund ihrer möglichen Vagheit) sich in die automatisierte Ausführungsphase teilweise fortsetze, werde es “zunehmend schwierig” eine Autorinnenschaft bei den Nutzerinnen zu verteidigen. Der Einsatz der Technik macht somit gleichsam (jedenfalls nach dieser Deutung) einen Schnitt in eine hermeneutische Hin- und Her-Bewegung zwischen den Werkphasen, mit der sich die Schöpferin ihrem Gegenstand annähert. Wo demnach die Phasenbildung in dem ersten Stadium des urheberrechtlichen Diskurses nach Verfassersicht noch dazu genutzt wurde, geringe Schöpfungsanteile genügen zu lassen, und heikle Fragen in die nächste Phase der Schöpfung “hinüberzuretten”, entpuppt sie sich in dem darauffolgenden Stadium offenbar als Quelle der Verunsicherung.
Weitere Lösungsansätze
In der Literatur finden sich noch weitere Ansätze, wie mit den KI-generierten Resultaten umzugehen sein könnte. Dabei wird zT den oben erörterten Prämissen widersprochen, größtenteils jedoch die KI als Nicht-Urheber und der mögliche (und dann unschädliche) Einsatz als Werkzeug bestätigt. Über das Gesagte hinausgehende Beiträge beschäftigen sich so etwa mit der sachenrechtlichen Figur der Fruchtziehung (§§ 953 ff. BGB) in analoger Anwendung oder als regelungstechnische Grundlage für ein maßgeschneidertes Leistungsschutzrecht de lege ferenda. Der Fokus bei dem Ansatz, in dieser Gestalt von Wagner vorgelegt, liegt, wie die Idee der Fruchtziehung bereits vermuten lässt, auf der KI-Entwicklerin als der vom Recht Begünstigten. Eine solche Lösung muss sich freilich den Einwand gefallen lassen, dass hierdurch die Allokation von Rechten mehr eine Vervielfachung als eine Vereinheitlichung darstellt. Schließlich möchte die Endnutzerin den Output u.U. weiterverwerten, sähe sich dann jedoch mit den Ausschließlichkeitsrechten der KI-Programmiererin konfrontiert, bei der andererseits eine Vielzahl von Rechten anfallen könnte, an deren Weiterverwertung (iSd § 15) gar kein Interesse besteht. In diesem Fall würde man sich mit der Vergabe von Lizenzen behelfen, was mitunter ohnehin als Zukunft der Branche prognostiziert wird, dann aber die Frage aufwirft, warum die Rechte nicht gleich bei der Endnutzerin entstehen sollen.
Die Balance zwischen dem produzentinnenseitigen Verwertungsinteresse und dem Allgemeininteresse an einem erlaubnisfreien Zugriff auf das Produkt soll bei diesem Ansatz über die Schutzdauer gelöst werden, welche im Vergleich zum Urheberrecht “deutlich eingeschränkt” sein soll – dies zumal bereits ein Schutz der KI selbst über § 69a ff. bestehe. Freilich kann angezweifelt werden, ob es sich dabei tatsächlich um einen adäquaten Interessenausgleich handelt. Schließlich wird von Wagner selbst eingestanden, dass KI-Produkte gleichermaßen wie andere zeitgenössische Kreativprodukte kurzlebig sind. Wenn man dem hinzufügt, dass sich diese Tendenz im Hinblick auf die Flutung des Marktes mithilfe einer gleichsam niemals schlafenden KI-Konkurrenz noch verschärfen könnte, dann entsteht der Eindruck, dass mit dem am (Designschutz angelehnten und drei Jahre umfassenden) Modell der zeitgenössischen Dynamik (Verbreitungsmöglichkeiten via Internet, schnell wechselnde trends bspw. auf Instagram oder TikTok) nicht ausreichend Rechnung getragen wurde, und so nur bereits wertlose Kreationen in die public domain gelangen.
Bezüglich eines Marktversagens positioniert sich Wagner mit überdurchschnittlicher Eindeutigkeit aufseiten der Durchgriffsthese: So dürfte der Wert einer KI-Software “maßgeblich durch die KI-generierten Produkte geprägt werden”. Denn eine Lizenznehmerin, die eine erlaubnisfreie Übernahme des KI-generierten content fürchten muss, sobald sie diesen der Öffentlichkeit zugänglich macht, wird eine maßgeblich geminderte Zahlungsbereitschaft aufweisen. Gleichermaßen unumwunden ist auch die Behandlung der Originalitätsfrage: Skizziert werden – zunächst recht generell – Szenarien, bei denen KI-generierter Output entweder nachfolgend verändert oder in einem Gesamtwerk eingebunden wird. Ganz konkret wird jedoch im Anschluss festgestellt: “Sofern dieser eigenpersönliche Input für sich genommen über eine hinreichende Schöpfungshöhe verfügt, dürfte nicht anzuzweifeln sein, dass auch das Endprodukt als solches Urheberrechtsschutz genießt”. Dies ist insoweit bemerkenswert, dass in aller Klarheit formuliert wird, dass der menschliche Kreativbeitrag als solcher, d.h. isoliert zu betrachten sei. Unerheblich, um welche Textsorte (Roman,Wetterbericht), welche Werkgattung (Skulptur, Video) es sich auch immer handeln möge, oder wie umfangreich sich der Einsatz automatisierter Systeme gestaltet (jahrelanges Training wie beim Projekt Next Rembrandt): Maßgeblich soll alleine die nicht-maschinelle Mitwirkung – vor der Folie der Anforderungen an die Gestaltungshöhe – sein. Es ist dies eines der eindeutigen Plädoyers für ein Vorgehen, das man als Subtraktionsmethode bezeichnen könnte. Für den Verfasser liegt allerdings gerade in dieser Eindeutigkeit eine offene Flanke des Beitrags: Marktversagen ohne empirische Evidenz ist schwer zu begründen. Insoweit diese noch nicht zu erlangen ist, muss zumindest substantiiert dargelegt werden, nach welchen Mechanismen sich ein solches wahrscheinlicherweise ereignen wird. Ein pauschaler Verweis genügt nicht. Zugute zu halten ist dem Beitrag indes die klare Formulierung des Subtraktionsgedankens. Ein fiktives Nutzungsbeispiel soll im Folgenden dessen Anwendung erproben:
Im Zusammenhang mit der nachträglichen Veränderung des Outputs als Rechte begründende Handlung könnte sich (angelehnt an Painer und die Satellitenbilder-Entscheidung) folgender Sachverhalt stellen: Anhand einer KI-Anwendung können Lehrer, um Kosten zu sparen, mit den social media-Profilen der Schülerinnen und Schüler Klassenfotos erstellten. Eine dementsprechende Ausgabe verändert Lehrerin L mit einem schwachen Sepiaeffekt und erstellt davon mehrere Abzüge. Ist L Urheberin und damit allein nutzungsbefugt? Die Antwort dürfte negativ ausfallen. So wie auch eine Lehrperson im Rahmen althergebrachter Klassenfotos, die im Vorfeld grundlegende Entscheidungen über das Arrangement (Anordnung der Personen, Hintergrund) getroffen hat, keine Rechte am Bild erwirbt, dürfte auch das Setzen des Filters keinen Input mit hinreichender Schöpfungshöhe darstellen. Denkbar ist hingegen nach dem Wagnerschen Modell ein Leistungsschutzrecht für die fiktive Entwicklerin hinter der Technologie, die es erlaubt, ein optimiertes Klassenfoto aus Online-Profilen zu erstellen.
Ein anderes Beispiel: Programmiererin P arbeitet im Forschungsteam zum Next Rembrandt. Um sich einen Urlaub zu finanzieren, fotografiert sie heimlich ein Vorabergebnis des Generatoren ab und gibt dessen Ausführung beim Amanuensis A in Auftrag, den sie – anhand ihrer Expertise bzgl. Rembrandt aus der Arbeit im Projekt – grob überwacht. Wird P bezüglich des am Markt vermutlich heiß begehrten Portraits die allein Berechtigte? Das ist schwer denkbar, schließlich ist ihr Beitrag zur Veränderung des Outputs, der nur in der dürftigen Überwachung einer Handlangerin besteht, die wiederum auf ein reines Abmalen beschränkt ist, verschwindend gering. In einer Abwandlung trifft P jedoch auf eine Malerin B, die – vergleichbar mit dem berühmten Kunstfälscher Beltracchi – das Werk Rembrandts genauestens kennt. Sie verändert in der Folge die defizitäre Farbgebung der Vorabversion, Details in der Mimik, und fügt sprechende Einzelheiten an der Kleidung des Porträtierten und in dem Pinselstrich hinzu. Da weder Ideen und Konzepte als solche noch “der Stil Rembrandts” schutzfähig sind, und für die Ermittlung der Schöpfungshöhe keine “Quotenbildung” erfolgt, ist von einem originellen Werk auszugehen, mit B als Urheberin. P ginge als reine Ideenliferantin leer aus, ebenso das KI-Projektteam. Zwar mag deren Software über § 69a UrhG geschützt sein – ihr Output ist jedoch, sowie er einmal an die Öffentlichkeit gelangt ist, nicht mehr einzuhegen und damit quasi nicht mehr verwertbar.
Eine letzte hier zu erwähnende Position zieht die Prämissen der anderen Ansätze in gewisser Hinsicht in Zweifel und fragt: “Is there really no place for an algorithmic author under copyright law?”. Zwar könne, laut Xiao, das aktuelle Urheberrecht die jüngsten Entwicklungen noch abdecken. Allerdings sei die fernere, aber mit Bestimmtheit eintreffende Zukunft in den Blick zu nehmen, wenn die KI auch auf eigene Veranlassung kreativ tätig werde. In dem Rahmen wird rechtsgenetisch analysiert, dass der Schutz der Urheberin gänzlich un-“romantisch”, nämlich als Strategie der Ausbeutung von Kreativleistung durch Verwerterinnen seinen Anfang genommen habe. Sodann wird die auch andernorts analysierte Herabsenkung der Originalitätsschwelle mit einem shift in der rechtlichen Perspektive in Verbindung gebracht: Weg von der Person der Autorin hin zu dem avisierten Publikum. Pointiert wird die Trennlinie zwischen menschlicher und maschineller Kreation selbst als artifact, als künstlich hergestellt, bezeichnet. Unter anderem daraus folgert Xiao die Möglichkeit der Anerkennung der KI als Schöpfer. Im Anschluss an diese Anerkennung solle jedoch die Autorinnenschaft von der Eigentumsdimension entkoppelt werden. Eine Zuordnung der Eigentums soll schließlich zugunsten der Programmiererin (quasi als Inversion der work-made-for-hire-Doktrin) erfolgen, welche damit – billigerweise – ihre Verhandlungsposition gegenüber ihrer Vorgesetzten verbessern könne.
Nach den vorangegangenen Betrachtungen zu der Situation de lege lata, soll nun im Folgenden ein gemeinschaftsrechtliches Gesetzesprojekt mit dem Gegenstand KI behandelt werden.
KI-VO-E der EU
Kontext – Telos – Anwendungsbereich
Im Frühjahr 2021 hat die Europäische Kommission mit ihrem Verordnungsentwurf nach mindestens zwei Jahren Debatte, den weltweit ersten umfassenden Rechtsrahmen im Bereich der KI angestoßen. Dieses viel beachtete Ereignis kann als vorläufiger Kondensationspunkt einer Entwicklung des Diskurses betrachtet werden, der vom Abstrakten zum Konkreten verläuft: Während man sich anfangs insbesondere mit allgemeinen Prinzipien befasste, die bei der Nutzung von KI zu beachten sind, bewegt man sich mittlerweile zunehmend auf spezifische Regulierungsmöglichkeiten zu, was zumindest der Rechtssicherheit Vorschub leistet.
Bei dem sog. Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz handelt es sich um ein großes regulatorisches Experiment. Zum einen, weil versucht wird, branchenübergreifend eine Dachregelung für KI zu etablieren, die die Technik als solche adressiert, also viele potentielle Anwendungsszenarien der Norm antizipieren muss. Zum anderen identifizieren Kommentatorinnen bez. des Telos der Vorschrift eine gewisse Dissonanz: Politischer Anlass und verfassungsmäßiger Regelungsgrund nach Art. 114 AEUV ist auf der einen Seite, dass einer Fragmentierung des europäischen Binnenmarktes durch verschiedene nationale Regime vorgebeugt werden soll. Damit geht ein ökonomischer Fokus einher. Auf der anderen Seite soll ein lückenloser Grundrechtsschutz für die Bürgerinnen im Angesicht der schnell an Bedeutung gewinnenden Technologie gewahrt bleiben, was einen öffentlich-rechtlichen Blickwinkel eröffnet. In der praktischen Umsetzung müssten diese konfligierenden Ziele zu Problemen führen. Nimmt man die Aufmachung und das begleitende Narrativ in den Blick, geht es der EU jedoch eindeutig um die Schaffung eines vertrauenswürdigen Ökosystems unter dem Motto “Technologie im Dienste der Menschheit”.
Herausgehoben wird in der Forschung der weite territoriale Anwendungsbereich der Verordnung. Jede Regulierung von Technik birgt das Risiko, dass Forschung und Entwicklung in ein Drittland verlagert werden, in dem weniger strenge Vorgaben gelten, wie zB derzeit in China und den USA. Das gilt in besonderem Maße für KI, da diese unkörperlich ist und sich – aus technischer Sicht – problemlos vom Ausland aus entwickeln, betreiben, nutzen und (re-)importieren lässt, wobei ein Abwandern von Innovation ins Ausland – zumindest einem der beiden – Verordnungsziele entgegengesetzt wäre. Die KI-Verordnung strebt demzufolge einen umfassenden räumlichen Geltungsbereich an. Sie soll sich an alle richten, die innerhalb der Europäischen Union an der KI-Wertschöpfungskette beteiligt sind (Marktortprinzip). Darüber hinaus wird die Verordnung jedoch auch eine extraterritoriale Wirkung erreichen. Denn sie richtet sich nach Art. 2 I KI-VO-E auch an Anbieterinnen von KI, die in einem Drittland niedergelassen sind und die KI innerhalb der Union in Betrieb nehmen oder auf den Markt bringen. Außerdem betroffen sind Anbieterinnen und Nutzerinnen von KI, die außerhalb der EU niedergelassen oder ansässig sind, aber innerhalb der Union KI-generierte Ergebnisse verwenden.
Viel Beachtung hat auch die (Legal-)Definition des sachlichen Anwendungsbereichs und somit der KI als solcher gefunden: KI-Systeme waren nach dem ersten Vorschlag “Software, die mittels einer oder mehrerer Techniken oder Konzepte aus Anhang I entwickelt werden und für eine gegebene Reihe an vom Menschen definierten Zielen Ausgabewerte generieren kann, die aus Inhalten, Vorhersagen, Empfehlungen oder Entscheidungen bestehen können, die die Umgebung beeinflussen, mit der sie interagieren” (Art. 3 KI-VOE). Anhang I listet konkrete Ansätze wie das überwachte und verstärkte maschinelle Lernen, aber auch allgemeinere Konzepte wie „statistische Methoden“. Mit dieser weiten Definition samt Regelbeispielen umfasste der Entwurf auch Software, die wohl von Informatikern nicht als KI bezeichnet worden wäre. Per delegiertem Rechtsakt war die Liste zudem noch erweiterbar. Allerdings war die Gestaltung der KI-Definition im Anschluss Gegenstand vielfacher Kritik. Im März 2023 fand sodann eine politische Einigung über viele der umstrittenen Punkte der Definition statt. Unter Anderem war zB kritisiert worden, dass die für andere Rechtsfragen inhaltlich ausschlaggebende Autonomie-Komponente (ebenso die Opazität) fast gar nicht berücksichtigt sei. Dem Vorschlag der OECD Folge leistend, wurde schließlich eine abgewandelte Definition verwendet: Danach fallen maschinengestützte Systeme unter den KI-Begriff, die entwickelt wurden, “um mit unterschiedlichen Autonomiegraden zu operieren und die nach der Implementierung Anpassungsfähigkeit zeigen können. Sie schließen für explizite oder implizite Ziele aus den Eingaben, die sie erhalten, wie sie Ausgaben wie Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erzeugen können, die physische oder virtuelle Umgebungen beeinflussen können”.
Der Gesetzestext hat inzwischen das Trilogverfahren durchlaufen und wird noch auf fachlicher Ebene überarbeitet. Er wird wohl im Sommer 2024 verabschiedet, nachdem das Europaparlament, der Rat und die Mitgliedstaaten ihm zugestimmt haben. Die EU setzt auf die Wirkung ihrer Vorbildfunktion und bezüglich der EU-Gesetzgebung auf den sog. Brüssel-Effekt. Dieser kann bezüglich Brasilien bereits als eingetreten gelten: Das Land orientiert sich an dem europäischen Regelwerk. Hervorgehoben wird in der Literatur sofern auch die geopolitsche Dimension des Gesetzes: International soll durch die Einführung eines sog. trusted-values-driven digital ecosystem eine Abgrenzung vom amerikanischen “Digitalkapitalismus” und dem chinesischen “Digitalkommunismus” erfolgen.
Regelungskonzept – Instrumente
Hierfür entwerfen die Normgeberinnen einen risikobasierten Ansatz. Unterschieden wird in drei Kategorien: Während übermäßig riskante KI-Systeme (zB social scoring oder Verhaltensmanipulation) ganz verboten werden und Betreiberinnen von minimal riskanten Systemen nur zu freiwilligen Maßnahmen (wie etwa codes of conducts) genudget werden sollen – was in diesem Aufsatz nicht weiter vertieft wird –, gelten für sog. Hochrisikosysteme eine Vielzahl (je nach Anwendungsbereich wiederum abgestufter) Pflichten.
Als Hochrisikosysteme bezeichnet werden laut Entwurf (neben den qua Produktsicherheitsrecht bereits mit Regeln versehenen) die in Anhang III genannten KI-Systeme (Art. 6 II KI-VO-E), wobei dort acht Anwendungsfelder genannt werden, u.a. die Strafverfolgung, die Verwaltung und der Betrieb kritischer Infrastrukturen sowie die biometrische Identifizierung und Kategorisierung natürlicher Personen, trotz hohem Gefahrenpotential jedoch keine militärische KI. Qua delegiertem Rechtsakt kann die Kommission diese Liste jedoch erweitern (Art. 7 I KI-VO-E). In den Fokus genommen wird demzufolge Technik im Kontext.
Auf diese technischen Entitäten werden nun verschiedene Mechanismen gebündelt angewandt. Sie sind in den Art. 8 ff. KI-VO-E ausdekliniert und können durchaus als umfangreich bezeichnet werden. Verpflichtend sind demnach die Einrichtung von Risikomanagementsystemen (Art. 9 KI-VO-E), die Validierung und Prüfung von Datensätzen (Art. 10 KI-VO-E) oder die Einhaltung umfassender Dokumentations- (Art. 11, 12 KI-VO-E) und Transparenzpflichten (Art. 13 KI-VO-E). Eine menschliche Aufsicht und Überwachung nach dem Inverkehrbringen soll außerdem gewährleistet sein (Art. 14 KI-VO-E). Die Rede ist hier mitunter von einer Art "Stopp"-Knopf für die KI. Die Systeme sind so zu konzipieren, dass sie von Menschen wirksam beaufsichtigt werden können, um Grundrechtsrisiken einzudämmen. Dafür soll die menschliche Aufsicht stets die Fähigkeiten und Grenzen des KI-Systems im Blick behalten und den Betrieb überwachen können. Der Person soll mithin vonseiten der Technik eine kritische Haltung im Bezug auf ihr eigenes übermäßiges Vertrauen (automation bias) gegenüber dem KI-Ergebnis nahegelegt oder zumindest offengehalten werden. Ein angemessenes Niveau an Genauigkeit, Robustheit und Cybersicherheit während des gesamten Lebenszyklus (inklusive fail-safe- oder backup-Plänen) fordert Art. 15 KI-VO-E.
Zuletzt müssen die Systeme einer Konformitätsbewertung unterzogen werden, bevor sie auf den Markt gebracht werden (Art. 19, 43 KI-VO-E). Aufgrund dieses Mechanismus und der damit einhergehenden Zertifizierungen läuft der regulatorische Ansatz auch unter der Bezeichnung “KI-TÜV”, eine Metapher, die vermutlich den prima facie schwer zu durchblickenden Pflichtenpluralismus des Entwurfs zu veranschaulichen sucht. Bei der Konformitätskontrolle wird jedoch, und insofern hinkt diese Analogie, wenn für die Systeme Normierungsvorschriften (der untergesetzlichen Einrichtungen) existieren und diese allesamt angewandt werden, eine Konformität vermutet und die Anbieterinnen können zwischen einem internen Prüfverfahren oder einem Verfahren unter Beteiligung einer notifizierten Stelle wählen. Das Kfz wird gleichsam in der eigenen Garage inspiziert.
In dem Entwurf aus dem Jahr 2021 waren die Modelle der hier gegenständlichen generativen KI indes noch nicht enthalten. Erst mit dem durchschlagenden Publicity-Erfolg von Chat GPT sahen sich die Normgeberinnen veranlasst, noch nachzubessern, weil die Subsumtion unter die vorliegenden Kategorien unmachbar schien. Gemäß der Kompromissvorschläge von EU-Parlament und Ministerrat sollten daher weitere Kategorien (außerhalb der Risikoklassen) nämlich foundation models und general purpose AI-Systeme entstehen, definiert als Modelle, die auf der Grundlage großer Datenmengen trainiert werden und die für eine Vielzahl von Aufgaben eingesetzt werden können, auch ohne dafür explizit vorhergesehen zu sein. Teilweise wird kritisiert, dass diese Nachbesserungen mit sprichwörtlich heißer Nadel gestrickt worden seien. Der Begriff der foundation models selbst wird unter Darlegung seiner – in der Tat eher spontan anmutenden – Genese dezidiert angegriffen. Die Haftungsrisiken für die Entwicklerinnen waren ursprünglich mit jenen aus der Kategorie Hochrisiko, s.u., zu vergleichen. In der Folge von umfangreichen Lobbybemühungen wurde die Regulierung der foundation models – nunmehr GPAIS genannt – jedoch noch einmal liberalisiert. Dies geht aus einer Arbeitsfassung des Gesetzesentwurfs hervor, die am 21. Januar 2014 geleakt worden ist. Zum Einsatz kommt nun wohl ein gestuftes System bezüglich der Anwendbarkeit: KI-Systeme, die mit 10^25 FLOPS oder mehr Rechenleistung trainiert wurden (derzeit, soweit ersichtlich, nur GPT 4 betroffen), bedürfen als Modell mit systemischem Risiko (Art. 52a KI-VOE) unter anderem einer cyber security protection, müssen Modellevaluierungen durchführen und haben eine Meldepflicht gegenüber der Kommission, wenn Unregelmäßigkeiten auftreten, während kleinere Modelle weiterhin nur mit den vergleichsweise moderaten Dokumentations- und Datengovernacepflichten belegt sind.
Diskussion
Nur in Einzelfällen, wie bspw. bei dem System GPT 4, dürfte generative KI unter die Kategorie foundation model mit systemischem Risiko fallen und zu Maßnahmen im Umfang der Hochrisikosysteme verpflichtet sein. Die übrigen Pflichten werden in der Literatur als angemessen bezeichnet. Deshalb soll hier die Diskussion um die Art. 6 ff. KI-VO-E nur überblicksartig wiedergegeben werden: Es wird zu bedenken gegeben, dass die ex ante Konformitätsbewertung an technische Grenzen stoße, weil sich die adressierten Systeme kontinuierlich weiterentwickelten, was inzwischen sogar Teil ihrer Definition geworden ist. Unklarheit sei überdies mit der Frage verbunden, wann die substanzielle Modifizierung iSd Verordnung vorliegt, nach der die Systeme einer Neubewertung bedürften. Allgemein werde zu sehr auf den Selbstvollzug der Regeln gesetzt, weshalb “Vollzugsdefizite” insb. bezüglich der Art. 19, 43 KI-VO-E vorprogrammiert seien. Dem muss jedoch entgegengehalten werden, dass die Kommission diese Mechanismen selbst nur als vorübergehende Lösung betrachtet und anerkennt, dass sowohl die Technik als auch ihre Regulierung sich noch verändern werden. Die Rede ist auch von einer Übergangsphase, in der der Rückgriff auf Verhaltenskodizes genügen soll. Hinsichtlich der Stopptaste sei fraglich, ob ein einfaches und umfassendes Abschalten im praktischen Einsatz der Hochrisiko-KI-Systeme ohne Weiteres überhaupt möglich sei, ohne dass größerer Schaden angerichtet wird, wie zB bei der Verwaltung oder dem Betrieb kritischer Infrastrukturen. Sofern die Fehlerfreiheit der Daten iSd Art. 10. KI-VO-E Gegenstand ist, werden tiefgreifende Unklarheiten dargelegt, wie dieser Begriff auszulegen ist, und es wird zudem zu bedenken gegeben, dass sich die Anforderung in Widerspruch setzen könnte mit den zur DSGVO entwickelten Strategien der differential privacy. Im Zusammenhang mit einem effektiven Grundrechtsschutz wird moniert, dass zentrale Freiheitsgarantien wie zB im Bezug auf social scoring nur unwesentlich geschützt (wenn die Praxis für private Akteurinnen weiterhin möglich ist) oder hoch sensible Praktiken gar durch die Hintertür erlaubt werden (wie bei der biometrischen Fernidentifizierung mit extensiven Ausnahmeregelungen). Unter demokratietheoretischer Hinsicht wird die weitreichende Einbeziehung von demokratisch nicht legitimierten Normierungsinstitutionen angemahnt und als machtblind charakterisiert. Diese interessanten und gesellschaftlich äußerst relevanten Fragen können hier allerdings nicht vertieft werden. Eine nähere Betrachtung sollen im Folgenden noch die Regelungen in Bezug auf das Urheberrecht und sog. Deepfakes (als Nutzungsbeispiel generativer KI) erfahren und zuletzt einzelne Aspekte aufgeworfen werden, die sich unter Regulierung der Nutzung ieS zusammenfassen lassen.
Urheberrechtliche Transparenz durch Art. 28b
Das oben dargestellte Problem der massenhaften Urheberrechtsverletzung im Rahmen des TDM sollte durch den Entwurf Stand Dezember 2023 in Angriff genommen werden. Neben einer Legaldefinition von generativer KI war dort im Art. 28b IVc KI-VO-E für Anbieter entsprechender Modelle vorgesehen “unbeschadet der Rechtsvorschriften der Union oder der Mitgliedstaaten oder der Union zum Urheberrecht (sic!) eine hinreichend detaillierte Zusammenfassung der Verwendung von urheberrechtlich geschützten Ausbildungsdaten [zu] dokumentieren und öffentlich zugänglich machen” zu müssen. Die – offenbar nicht besonders umfangreiche – Literatur zu diesem Vorhaben hat herausgehoben, dass es dabei um die Verhinderung einer widerrechtlichen Weiter- beziehungsweise Wiederverwendung gegangen wäre. Retrospektive Vergütung der Urheberinnen wäre daraus nicht erfolgt. Unsicherheit bestand hinsichtlich der Frage, ab welchem Grad der Offenbarung die entsprechende Liste hinreichend detailliert gewesen wäre. Dies wiederum hätte mE möglicherweise davon abgehangen, welchem Zweck die Listung genau hätte “gereicht” haben sollen. Für den Fall, dass ein hoher Grad an Detailliertheit hiermit verbunden gewesen wäre, hatten, aufgrund der mangelhaften Verfügbarkeit von Metadaten, Stimmen in der Literatur bereits eine Unmöglichkeit der Compliance oder zumindest stark marktkonzentrierende Effekte prognostiziert. Andernfalls wurde die Effektivität der Regelung angezweifelt. Spannungsgeladen ist die Frage nach der Fairness gegenüber den Urheberinnen auch deshalb, weil sie immer im Zusammenhang zu der Verfügbarkeit einer soliden Menge an qualitativ hochwertige Daten steht, anders gewendet, die Vorenthaltung des Materials durch die Künstlerinnen mit der Gefahr eines garbage-in-garbage-out-Szenarios verbunden ist.
Stand Ende Januar 2024 ist nur klar, dass diese Regelungsgehalte im Entwurf nicht unangetastet geblieben sind. Der Art. 28b KI-VO-E ist nicht in die vorläufige Endversion übernommen worden. Stattdessen finden sich die Gedanken daraus nun großteils in den Erwägungsgründen wieder. Im geleakten Entwurf bleibt noch unklar, wo und wie diese Regelungen letztendlich im AI-Act verankert werden. Als Erwägungsgründe allein wären die Transparenzpflichten kaum erfolgreich durchzusetzen. In der Forschung sind schon seit längerem Strategien in der Erprobung, anhand derer auch ohne gesetzliche Offenlegungspflicht eine Rechtewahrnehmung durch die Urheberinnen möglich werden würde, beim sog. watermarking. In ähnliche Richtung gehen Versuche, die Bilder (wenngleich für das menschliche Auge nicht wahrnehmbar) so zu präparieren, dass beim TDM keinerlei Merkmale daraus zu exzerpieren wären, womit jedoch freilich zugleich eine Verwertung (also ein win/win-Szenario) abgewendet wäre. Solange diese Verfahren jedoch technisch noch nicht ausgereift sind, kann aus Sicht der Urheberinnen nur mit einer gesetzlichen Regelung Abhilfe geleistet werden. Diese allerdings scheint Stand Ende Januar 2024 auf der Kippe zu stehen.
Nutzungsbeispiele Deepfake, Chatbot, Emotionserkennung Art. 52
Im Anschluss an die massenhafte Verbreitung eines durch Manipulation entstandenen Videos, in dem Bundeskanzler Scholz ein Verbotsverfahren zuungunsten der AfD ankündigt, mahnte Regierungssprecher Hebestreit, trotz humoristischen Beigeschmacks sei die Angelegenheit “sehr sehr ernst”. Manipulierte (Bewegt-)Bilder würden immer stärker in die Öffentlichkeit dringen, bzw. vom Boulevardjournalismus oder feindlichen Mächten genutzt. Dennoch ist das geltende Strafrecht eher zurückhaltend, was Straftaten etwa im Hinblick auf Wahlen durch sog. Deepfakes anlangt. Offenbar ist dies ein relevantes Einsatzfeld der Technik, wie man an einem entsprechenden Strafgesetz im Bundesstaat Kalifornien erkennen kann: verboten ist dort die Generierung und Verbreitung von Deepfakes von Politikern 60 Tage vor einer Wahl. Neben dem fragmentarischen Charakter des Strafrechts kann diese Zurückhaltung auch mit einer Skepsis gegenüber paternalistischer Überaktivität und im Hinblick auf wünschenswerte Verwendungen (bspw. in der Kunst) erklärt werden. Schließlich ist die Manipulation für sich genommen nicht grundsätzlich unerwünscht. In strafrechtlicher Hinsicht ist die Verbreitung von manipuliertem Bildmaterial jedenfalls nach § 201a II StGB – Verletzung des höchstpersönlichen Lebensbereichs und von Persönlichkeitsrechten durch Bildaufnahmen – strafbar, sofern die Bildaufnahme geeignet ist, dem Ansehen der abgebildeten Person erheblich zu schaden. Hierdurch wäre auch ein Fall abgedeckt, wie jener, der jüngst an einer Schule im europäischen Ausland Furore gemacht hatte. Auch das allgemeine Persönlichkeitsrecht ist für täuschend echte Imitationen bereits einschlägig. Deshalb ist bei sog. deepnudes, die in ihrer sozialen Wirkung einem authentischen Nacktfoto in nichts nachstehen müssen, rechtlich betrachtet eine Perpetuierung des neugierigen Blicks durch die Kamera anzunehmen, wie er aus der Kasuistik zum APR hervorgeht.
Die massenhaft entstehenden manipulierten Bildwelten (zB der Papst in hipper Daunenjacke, Trumps Verhaftung, Putins Kniefall vor dem Chinesischen Premier) haben neben der individuellen jedoch eine konkrete gesellschaftliche Dimension: Nicht unterschätzt werden darf, so führt Thiel aus, das Verunsicherungspotenzial der Deepfakes in „umgekehrter“ Richtung: So können Videos angesichts der technischen Möglichkeiten nicht mehr als verlässliche Quellen eingestuft werden, was das Misstrauen in der Bevölkerung gegenüber der staatlichen Informationspolitik weckt bzw. steigert. In solchen Entwicklungen liege ein erhebliches Gefährdungspotenzial für das Ansehen der Medien, für die politische Willensbildung und damit für die Demokratie insgesamt. Besonders tückisch sei dabei die sogenannte liar’s dividend: Je breiter und eingehender die Bevölkerung über die Möglichkeiten der Deepfakes unterrichtet ist, desto eher kann eine Skepsis gegenüber authentischen Quellen hervorgerufen und missbräuchlich ausgenutzt werden.
Das Vertrauen in die Informations- und Kommunikationsumgebung wird im MStV und im DSA vorrangig über Transparenzvorschriften und menschliche Letztentscheidungsrechte abgesichert. Insofern stellen auch die hier zu betrachtenden Regeln zu Deepfakes, Chatbots und Emotionserkennungssystemen, wie sie nach dem KI-VO-E vorgesehen sind, bedeutende Erweiterungen der medienrechtlichen Plattformregulierung dar. Laut Art. 52 III KI-VO-E sind Deepfakes (definiert als von KI-Systemen erzeugte oder manipulierte Bild-, Audio- oder Videoinhalte, die real existierenden Personen, Gegenständen, Orten oder Ereignissen merklich ähneln und einer Person fälschlicherweise als echt oder wahrhaftig erscheinen würden) als KI-generiert zu kennzeichnen, und zwar durch die Nutzerin. Von der Offenlegung konnte bereits im Entwurf Stand Dezember 2023 abgesehen werden, wenn die Handlung für die Ausübung der Rechte auf freie Meinungsäußerung und auf Freiheit der Kunst und Wissenschaft erforderlich ist und Schutzvorkehrungen für die Rechte Dritter bestehen. Nicht geregelt ist laut Kalbhenn indes, wie genau die Kennzeichnung zu erfolgen hat. Anhaltspunkte können zwar dem deutschen Medienrecht entnommen werden (laut MStV müssen Informationen zB zu Filtersystemen “leicht wahrnehmbar, unmittelbar erreichbar und ständig verfügbar gehalten” werden), iE könnte jedoch, wie oben bereits für die Opt-outs gezeigt, die mangelhafte technische Umsetzung (hier im Rahmen einer Designvorgabe) Einzelnen erschweren, ihrer gesetzlich intendierten Rechtsstellung auch effektiv Geltung zu verschaffen. Aus dem Zusammenspiel der Regelungsregime ergibt sich allerdings folgendes wichtiges Detail: Nicht gekennzeichnete Deepfakes sind mit der KI-VO-E europarechtswidrig und damit auch “illegale Inhalte” i. S. d. DSA. In der Folge treffen zumindest die Online-Plattformen weitgehende Vorgaben bezüglich dieser Inhalte. Dies gilt aber freilich nicht für private Endnutzer. Diese sind allerdings wiederum dem zivil- und strafrechtlichen Haftungsregime unterworfen.
Zudem kennzeichnungspflichtig sind sog. Chatbots, die mit natürlichen Personen interagieren, Art. 52 I KI-VO-E. Deren Manipulationswirkung basiert auf dem wissenschaftlich ergründeten Umstand, dass die adressierten Menschen diese mitunter nicht von natürlichen Personen unterscheiden können. Daher sollen die Bots sich – auf welche Weise ist nicht näher geregelt, ggf. im Rahmen der “Unterhaltung” gleich zu Beginn – künftig zu erkennen geben.
Eine vergleichbare Kennzeichnungspflicht besteht nach dem Entwurf zuletzt beim Einsatz von Systemen der Emotionserkennung, Art. 52 II KI-VO-E. Mit ihrer Hilfe können – bspw. anhand von Gesichtsgeometrie oder dem Verhalten bezüglich des Tippen auf der Tastatur – Aussagen (von bislang allerdings zweifelhafter Zuverlässigkeit) über die emotionale Verfasstheit potentieller Kundinnen getroffen werden. Dies können Firmen nutzen, um ihr Warenangebot zu einem optimalen Zeitpunkt auszuspielen. Andererseits kann die Emotionserkennung (angeblich) auch genutzt werden, um in Fahrsystemen oder im Kontext des Arbeitnehmerschutzes Übermüdung zu erkennen. Nachdem solche Systeme in dem Gesetzgebungsprozess ein veritabler Zankapfel gewesen waren (etwa als Lügendetektoren an EU-Außengrenzen), scheinen nach dem Leak im Januar 2024 nur noch die Anwendungsfälle Schule und Arbeitsplatz im Bereich des Verbotenen zu sein, ansonsten genügt die Kennzeichnung. Diese Systeme sind allerdings nicht im engeren Sinne generativ und deshalb hier auch nicht weiter Gegenstand.
Regulierungsbedarf bei der Nutzung i.e.S.
Die Verordnungsgeberinnen haben bezüglich der Nutzung von generativer KI noch weiteren Regulierungsbedarf ausgemacht. Diese Pflichten werden von der Verordnung jedoch “nur kursorisch” behandelt. Dabei ist zunächst zu beachten, dass der Begriff Nutzerin (Stand Dezember 2023) in Art. 3 Nr. 4 KI-VO-E legaldefiniert wurde. Ähnlich wie in der DSGVO findet sich eine Ausnahme für den privaten Gebrauch. Bei dem geleakten Text von Januar 2024 wurde in fast allen Fällen das Wort “user” durch “deployer” ersetzt, die Ausnahme und die Grundgedanken bleiben jedoch, soweit ersichtlich, erhalten. Diese deployer (etwa: Betreiberin) sind mit bestimmten Pflichten versehen, um zu gewährleisten, dass entlang der KI-Wertschöpfungskette keine Diffusion von Verantwortung erfolgt. Die Inbetriebnahme der KI-Systeme muss demnach in Übereinstimmung mit den (ebenfalls verpflichtend zur Verfügung gestellten) Bedienungshinweisen erfolgen (Art. 29 I KI-VO-E). In diesem Sinne ist auch die Aufsichtspflicht über das System entsprechend den Vorgaben der Anbieterin umzusetzen (Art. 29 II KI-VO-E). Anders als im Zivilrecht üblich, herrschen bei dieser Delegation von Überwachungspflichten allerdings keine fortbestehenden Kontrollpflichten gegenüber der neu ausübenden Partei, vermutlich, um die Verkehrsfähigkeit der KI-Systeme nicht zu hemmen. Zudem müssen Betreiberinnen, soweit sie die Kontrolle über Eingabewerte haben, sicherstellen, dass die benutzten Daten für den Verwendungszweck relevant sind (Art. 29 III KI-VO-E). Wenn sich bei der Nutzung Hinweise auf ein einschlägiges Risiko im Sinne des Art. 65 I KI-VO-E ergeben, sind die Betreibenden dahingehend zur Anzeige bei der zuständigen Behörde verpflichtet. Dies gilt auch (und dann zusätzlich gegenüber den Anbieterinnen der Systeme) für Vorfälle, bei denen Unionsgrundrechte betroffen sind (legaldefiniert als Leben, Gesundheit, Eigentum, Umwelt oder die Funktionsfähigkeit kritischer Infrastruktur gefährdende Situationen), Art. 62 I KI-VO-E.
Diskussion
Das Gefährdungspotenzial von Deepfakes im Hinblick auf den demokratierelevanten öffentlichen Diskurs ist sowohl bezüglich Fakenews als auch hinsichtlich eines Vertrauensverlustes einschließlich liars dividend zunächst zuzugeben. Daraus ergibt sich meines Erachtens eindeutig Handlungsbedarf. Dennoch wird die Kennzeichnungspflicht sehr wahrscheinlich Auswirkungen auf Social Media und Satire haben, die so wohl nicht sämtlich intendiert sind. Hier bleibt jedoch zu hoffen, dass diese mit der Zeit durch eine sensible Rechtsprechung eingedämmt werden können. Die Formulierung der Regelung tut jedenfalls gut daran, die Kunst- und Meinungsfreiheit als abwägungsbedürftige Güter zu erwähnen. Aus der anderen Richtung wird die Regelung dafür kritisiert, dass außer der Drohkulisse einer obligatorischen Neubewertung der KI-Systems aus Art. 67 KI-VO-E keine Sanktionen für nicht gekennzeichnete Inhalte vorgesehen sind. Der Anreiz zur Regelbefolgung sei daher gering. Dem ist zu entgegnen, dass für die Konzerne im Zuge der Neubewertung hohe Compliancekosten entstehen dürften und bei einer Hochstufung zusätzlich empfindliche Mehrkosten drohen. Natürliche Personen werden durch das Strafrecht (zB Verleumdung, § 188 StGB nF etc.) und durch das zivilrechtliche Haftungsregime zur Regelbefolgung angehalten.
Insoweit dem Art. 28b KI-VO-E vom Stand Dezember 2023 vorgeworfen wurde, mit seinen aufwendigen Offenlegungspflichten privilegiere er Großkonzerne, während Startups und KMUs in Existenznöte gerieten, ist dem entgegenzuhalten, dass Stand Ende Januar 2024 aus Rücksichtnahme auf den Geschäftsgeheimnisschutz lediglich die Preisgabe “allgemeiner Informationen” (Auflistung von wichtigen Datensammlungen) gefordert wird. Eine technisch detaillierte Zusammenfassung ist laut der Erwägungsgründe nicht vorgesehen. Es könnte sich demnach um einen Grad an Detailliertheit handeln, der für die einzelnen Urheberinnen im Hinblick auf die Frage von Rechtsverletzungen nur wenig aufschlussreich ist.
Vielversprechender dürfte aus jener Warte heraus betrachtet die Verpflichtung sein, dass Anbieter generativer KI künftig Maßnahmen einzuführen haben, um die Einhaltung des Unionsrechts zum Urheberrecht und zu verwandten Schutzrechten zu garantieren. Diese findet sich auch im Verordnungstext in Art. 52c Abs. 1 lit. c KI-VO-E und nicht nur in den Erwägungsgründen. Dabei habe die Ermöglichung effektiver Opt-outs für die Urheberinnen im Vordergrund zu stehen. Für den Fall, dass sich an diesem Passus nicht auf die letzten Meter noch etwas ändert, besteht aus Sicht der Urheberinnen Grund zur Hoffnung, dass, indem der Ball gleichsam an die technisch versierten Entwicklerinnen bzw. Betreiberinnen der Modelle zurückgespielt wird, und ein klares Ziel vorgegeben ist, eine praktikable Lösung zur Rechtewahrnehmung entstehen wird. Bis hin zum Ablauf der Übergangsfrist der Verordnung, nach 24 Monaten, müssen sie die Indienstnahme ihrer Werke durch die umtriebige Technologie freilich noch dulden.
Zuletzt soll, anstelle eines Fazits, auf die erarbeiteten Themengebiete aus einer de-lege-ferenda-Perspektive eingegangen und in Kürze der verbleibende Regelungsbedarf aus Verfassersicht dargestellt werden.
De lege ferenda
Mit der Verabschiedung der KI-VO wird der gesetzgeberische Ball, wie es Hacker ausdrückt, an die Mitgliedstaaten zurückgespielt. Diese Gelegenheit sollte zunächst genutzt werden, um die biometrische Fernidentifizierung umfassend zu reglementieren, so wie es auch der Bundesdatenschutzbeauftragte Kelber empfiehlt. Eine Echtzeitidentifizierung sollte nur für Prävention oder Verfolgung schwerster Straftaten in Betracht kommen. Der oft bediente Schockbegriff “Kinderpornografie”, dessen instrumenteller Einsatz die Gesellschaft für Freiheitsrechte (GFF) unter anderem zur Vorlage eines alternativen digitalen Gewaltschutzgesetzes motiviert hat, sollte nicht ausreichen oder zumindest plausibel präzisiert werden. Für retrograde Analysen sollten zumindest Bagatelldelikte ausgeschlossen und ein Richtervorbehalt eingeführt werden.
Das Social Scoring der privaten Akteure sollte die EU im Blick behalten und ggf. gesetzgeberisch nachlegen. Dieser Einsatz von KI ist nicht lediglich eine Spielart von Technologie, die Datenauswertung effizienter macht. Mit ihr werden Aussagen getroffen über den Geltungsanspruch des Menschen in der Gesellschaft.
Zu erwägen ist zudem, das Äußerungsrecht selektiv zu verschärfen. Mangels Rechtswidrigkeit sind eine Vielzahl von Falschmeldungen nicht vom Skopus des DSA erfasst. Ihre groß skalierte Produktion ist aber gerade auf den Fortschritt der hier gegenständlichen Technik zurückzuführen. Insofern empirisch belegt werden kann, dass von ihnen dennoch eine Spaltung und Aufwiegelung der Gesellschaft ausgeht, muss eine Reaktion erfolgen. Dabei kann sich möglicherweise auf einzelne vulnerable Bereiche wie das Gesundheitssystem (Pandemien) oder die natürlichen Lebensgrundlagen (Leugnen des Klimawandels) oder auf akute Gefahrlagen (hetzerischer Antisemitismus) beschränkt werden. Wie beim NetzDG könnte der deutsche Gesetzgeber hier vorpreschen und sich die anderen Mitgliedstaaten in der Folge anschließen.
Im Bereich des DSA wäre eine Anwendung der Regeln zu den Meldesystemen auf KIs zu erwägen. Auch trusted-flaggers, deren Meldungen priorisiert behandelt werden und – im äußersten Fall – Output-Filter erscheinen hilfreich. Dafür wären einzelne gesetzliche Anpassungen vonnöten.
Ein großes Problem ist die Überwachung der Einhaltung der Vorschriften aus der KI-VO: Wie viel dem neu zu gründenden AI-Office an Autonomie zustehen wird, ist noch nicht absehbar. Hier sollten bald Beschlüsse für Klarstellung sorgen, damit nach Einführung der Verordnung kein Machtvakuum entsteht. Im Bezug auf Verstöße gegen die KI-VO sind Rechtsbehelfe für die von den Systemausgaben Betroffenen inzwischen geschaffen worden, was zustimmungswürdig ist. Nur so kann effektiv für Vertrauen in die neu entstehende und nicht-Fachleuten höchst undurchsichtige Technologie geworben werden.
Bei gehäuft auftretenden bzw. systematischen Kennzeichnungspflichtverstößen hinsichtlich Deepfakes (etwa in der Ausprägung einer Entfernung der Kennzeichnung), wenn sich also technologiebedingt zunehmend der qualitative Unterschied zwischen Wirklichkeit und Fiktion aufzulösen droht (so, wie es der Begriff und das Paradigma der alternativen Fakten seit geraumer Zeit versucht), sollte der Ausbau des Strafrechts auf die Herstellungsphase der Abbildungen mit Schädigungsabsicht zumindest erwogen werden.
Bei dem Thema Urheberrecht und TDM könnte es für die Kreativen unbefriedigend sein, die Wirkungen der KI-VO erst abzuwarten. Zumal sich eine – mE unverzichtbare – empirische Evidenz für ein Marktversagen, also einer effektiven Gefährdung der Anreize für menschliche Kreativität, wiederum erst mit einem zeitlichen Abstand ergeben wird. Um in der Zwischenzeit die gesamtgesellschaftlich hoch relevante journalistische und künstlerische Produktion nicht schutzlos zu belassen, sind in dem Recht der Verwertungsgesellschaften ggf. Anpassungen vorzunehmen, die eine transaktionskostenminimierende Lizenzenerteilung ermöglichen. Ob dabei von verpflichtenden Kollektiv-Mechanismen ausgegangen werden kann und sollte, bedarf einerseits rechtswissenschaftlicher Forschung und andererseits einer soliden Willensbildung in den betroffenen Kreisen, die die Politik zur Kenntnis nehmen sollte.
Was die Schutzfähigkeit des Outputs von KI anlangt, genügt es aus Verfassersicht den Markt zu beobachten und, falls notwendig, auf ein Marktversagen mit Anpassungen insb. bei den Leistungsschutzrechten zu reagieren. Ggf. amortisieren Innovatoren bereits aus ihrem first-mover-Vorteil in ausreichender Weise ihre Investitionen. Anpassung sollten unbedingt die kürzeren Lebenszyklen der Produkte beachten. Andererseits sind bei der entsprechenden Debatte im Bereich des Patentrechts die Kosten der Geheimhaltung des KI-Entwicklungsstandes einzubeziehen. Fundamentale Änderungen, wie zB die gesetzliche Verankerung einer nicht-persönlichen Schöpfung als schutzwürdiges Werk oder der Teilrechtsfähigkeit von KI bedürfen der Vorschaltung gründlicher Debatten – auch über das juristische Feld hinaus –, die weitreichende Folgen miteinbeziehen und sich den möglichen Implikationen für das menschliche Selbstbild dezidiert annehmen.
Zuletzt ist, sowie technisch ausgereift, die Einführung einer Wasserzeichenpflicht ein notwendiger nächster Schritt. Erfahrungen hinsichtlich Compliance und praktischer Implementierung können Gesetzgeber und Tech-Firmen schon anhand der allgemeinen Kennzeichnungspflicht sammeln, welche mit der KI-VO einhergehen wird. Nur so ist – vergleichbar mit den Gewichtsklassen im Boxen – die Aufrechterhaltung zweier Schutzregime (eines für menschlich und eines für KI-generierte Werke) künftig auch noch praktisch umsetzbar.
---------------------------------------------------
Exzerpt
https://www.youtube.com/watch?v=bk-nQ7HF6k4
Greifarm Geschichte
Minute 14
Was ist künstliche Intelligenz? Du lässt sie das Problem selber lösen
15:26, Ähnlichkeiten, zur Erziehung menschlicher Kinder
18:23 Welt, Verbesserungsszenario
Intelligenz ist keine schlechte Kommunität. Die Frage jedoch, ob sie unsere besten Interessen im Sinne hat.
Zehn mal schlauer als Einstein, während die anderen dumm bleiben
39:55 offener Brief von Elon Musk et al.: STOPP AI !
42.27 Urheberrecht und Snakeoilsalesmen
44.08 Disconnect of power and responsibility
upskilling people are taking your jobs
47.54 human relationship will become very difficult / lonelyness epicemic
the cost of giving up on nature
54.27 humanity is the thread !
1h we are all slaves of the instagram recommends. it is there already.
1h05 Übernahmeszenario laut Chat gpt
1h14 gute Eltern sein
---------------------------------------------------
Zum Weiterlesen
Rosi Braidotti: 2021 Posthuman Feminism. Cambridge: Polity Press
Kommentare