Die rasante Entwicklung der Künstlichen Intelligenz (KI) zwingt Regierungen und Gerichte weltweit, bestehende Gesetze grundlegend zu überdenken. Aktuelle Beispiele aus Australien und den Vereinigten Staaten verdeutlichen die Komplexität dieser Herausforderung, insbesondere in den Bereichen Urheberrecht und Datenschutz.
Australien prüft Reform des Urheberrechts
Die australische Regierung hat ein zweitägiges Treffen einer Expertengruppe einberufen, um die tiefgreifenden Auswirkungen von KI auf das nationale Urheberrecht zu erörtern. Laut einer offiziellen Mitteilung werden dabei umfassende Änderungen diskutiert. Ein zentraler Vorschlag ist die Schaffung eines neuen, kostenpflichtigen kollektiven Lizenzrahmens für KI-Nutzer im Rahmen des Urheberrechtsgesetzes.
Ziele der Initiative sind zudem, die Kosten für Urheber zu senken, wenn diese rechtlich gegen Urheberrechtsverletzungen vorgehen müssen. Ein weiterer Schwerpunkt wird die Klärung sein, wie das bestehende Urheberrecht auf Werke Anwendung findet, die von KI-Systemen produziert wurden.
Im Vorfeld des Treffens stellte die Regierung bereits klar, dass sie eine Ausnahme für Text- und Data-Mining (TDM) vom Urheberrecht ablehnt. Eine solche Ausnahme hätte es Technologieunternehmen und KI-Entwicklern erlaubt, Werke lokaler australischer Schöpfer kostenlos für das Training ihrer Systeme zu nutzen – eine Praxis, die in einigen anderen Rechtsordnungen üblich ist.
US-Datenschutzgesetz durch KI unter Druck
Während Australien eine proaktive legislative Antwort sucht, gerät in den USA ein jahrzehntealtes Datenschutzgesetz durch neue KI-Tools juristisch unter Druck. Der „Video Privacy Protection Act“ (VPPA) aus dem Jahr 1988, der ursprünglich die Offenlegung von Videotheken-Ausleihdaten verbot, steht im Mittelpunkt der Debatte.
Das Gesetz wurde über die Jahre auf Streaming-Dienste wie Netflix und andere Websites mit Videoinhalten ausgeweitet. Schon dabei kam es zu unterschiedlichen Auslegungen durch US-Berufungsgerichte (einem sogenannten „Circuit Split“) hinsichtlich der Frage, welche Art der Datenweitergabe genau unter das Gesetz fällt.
Die aktuelle Verbreitung von KI-Werkzeugen, die selbst Laien bei der Übersetzung und Interpretation von Programmcode unterstützen können, kompliziert die Rechtsanwendung nun erheblich.
Justizstreit um die Fähigkeiten des „normalen Nutzers“
Die Kernfrage, die die US-Gerichte spaltet, ist, wie leicht Daten entschlüsselbar sein müssen, um als geschützte Information zu gelten. Der U.S. Court of Appeals for the First Circuit urteilte vor fast einem Jahrzehnt, dass der VPPA die Weitergabe von Verbraucherdaten verbietet, wenn der Empfänger absehbar in der Lage ist, die Daten zu übersetzen, um die Sehgewohnheiten einer Person zu erkennen.
Der Second Circuit entschied hingegen im Mai dieses Jahres, dass das Gesetz die Offenlegung von Daten, die „hochentwickelte Mittel“ (sophisticated means) zur Dekodierung erfordern würden, nicht verbietet.
Diese Debatte wird nun durch KI neu befeuert. Brian Sheppard, Professor an der Seton Hall Law School, merkte an, KI könne „die Messlatte dessen, was eine normale Person tun kann“, verschieben. Ein Bundesrichter in Kalifornien (dessen Bezirk zum Ninth Circuit gehört, der bisher der Linie des Second Circuit folgte) argumentierte kürzlich, dass moderne Technologien wie KI „durchaus verändern könnten – oder bereits verändert haben – was“ unter die Fähigkeiten einer normalen Person fällt.
Experten warnen vor Aushöhlung der Privatsphäre
Der Second Circuit widersprach dieser kalifornischen Einschätzung jedoch explizit in einer Entscheidung im Juni und erklärte, „die Existenz von Tools wie ChatGPT würde unsere Schlussfolgerung in diesem Fall nicht ändern“.
Rechtsexperten sehen diese Haltung kritisch. Andrew Selbst, Professor an der UCLA School of Law, warnte, wenn man die Definition des „normalen Nutzers“ so streng fasse, dass dieser nicht auf die Idee käme, erhaltene Code-Informationen „zu googeln“ oder in ein KI-Tool einzugeben, würde dies den Test des VPPA „im Wesentlichen entkernen“.
Andere Experten, wie Anat Lior von der Drexel University, mahnen zur Vorsicht. Sie argumentieren, dass KI noch nicht fehlerfrei arbeite und oft „halluziniere“. Die kalifornische Gerichtsentscheidung setze ein Maß an Nutzerkompetenz im Umgang mit generativer KI voraus, das derzeit nicht gegeben sei. Lior warnte jedoch: Sollte KI den Punkt erreichen, codierte Informationen zuverlässig zu übersetzen, „erleidet die Privatsphäre als Prinzip einen schweren Schlag und verliert einen erheblichen Teil ihres Geltungsbereichs“.