Schon seit einigen Jahren wird eine Debatte über die Reform des Ur­he­ber­rechts in der Eu­ro­päi­schen Union geführt. Neben dem Leis­tungs­schutz­recht für Pres­se­ver­le­ger, steht vor allem Artikel 17 (früher Artikel 13) in der Kritik, der In­ter­net­platt­for­men ver­pflich­ten soll, so­ge­nann­te Upload-Filter ein­zu­set­zen. Während Be­für­wor­ter diese Tech­no­lo­gie als un­er­läss­lich ansehen, um die Beachtung des Ur­he­ber­rechts an Filmen, Musik und Texten zu ge­währ­leis­ten, be­fürch­ten Gegner des Gesetzes eine Schwä­chung der Netz­kul­tur und des Rechts auf freie Mei­nungs­äu­ße­rung – mit un­ab­seh­ba­ren Folgen. Doch was sind Upload-Filter ei­gent­lich und wie funk­tio­nie­ren sie? Wo sind sie bereits im Einsatz und warum erhitzen sie die Gemüter in solchem Ausmaß?

Der aktuelle Stand: EU be­schließt Upload-Filter

Allem Protest zum Trotz hat das EU-Parlament am 26.03.2019 die Ein­füh­rung der Ur­he­ber­rechts­re­form be­schlos­sen. Noch kurz davor hatten Gegner der Reform versucht, durch öf­fent­li­che Proteste die Meinung des Par­la­ments zu ändern: Am Wo­chen­en­de zuvor haben eu­ro­pa­weit De­mons­tra­tio­nen statt­ge­fun­den. Allein in Deutsch­land sind mehr als 100.000 Menschen auf die Straße gegangen. Ebenfalls in der vor­an­ge­gan­ge­nen Woche hatten die deutschen Wikipedia-Autoren mit ihrem Prostest für Aufsehen gesorgt: Für einen kom­plet­ten Tag war die deutsche Version der En­zy­klo­pä­die nicht zu erreichen. Statt­des­sen wies eine In­for­ma­ti­ons­sei­te auf den Protest hin. Am Ende brachte alles nichts: 384 Ab­ge­ord­ne­te stimmten dafür, 274 dagegen, 36 Ab­ge­ord­ne­te ent­hiel­ten sich.

Damit ist auch Artikel 17 be­schlos­sen, welcher sich mit der Filterung von Inhalten befasst, früher Artikel 13 hieß und unter diesem Namen auch heute noch bekannt ist. Upload-Filter sieht die Richt­li­nie zwar explizit nicht vor, aber die For­mu­lie­run­gen lassen kaum eine andere Mög­lich­keit zu. Es wird gefordert, dass Plattform-Betreiber bereits vor Ver­öf­fent­li­chung von Videos, Musik oder Bildern die Inhalte auf Ur­he­ber­rechts­ver­let­zun­gen über­prü­fen. Ansonsten machen sich von nun an auch die Betreiber haftbar für die Verstöße. Theo­re­tisch wäre es zwar auch denkbar, jeden Beitrag von per Hand zu über­prü­fen, doch das halten Kritiker besonders bei größeren Anbietern wie YouTube für utopisch.

Ausnahmen gelten für Online-En­zy­klo­pä­dien (allen voran die Wikipedia) oder andere bil­dungs­be­zo­ge­ne Angebote, Platt­for­men zur Ent­wick­lung von Open-Source-Software, sowie Dienste, die noch keine drei Jahre verfügbar sind oder unter zehn Millionen Euro Umsatz im Jahr machen.

Was Anbieter wie Google oder Facebook nun un­ter­neh­men werden, wird die Zeit zeigen. Zunächst muss der Eu­ro­päi­sche Rat der Reform noch zustimmen. Hier geht aber niemand von einer Über­ra­schung aus, da es sich ei­gent­lich nur noch um eine Formsache handelt. Anfang April soll dies geschehen. Danach muss die Richt­li­nie noch in na­tio­na­les Recht umgesetzt werden. Die EU-Mit­glie­der haben zwei Jahre Zeit, um die Reform in ihre je­wei­li­gen Gesetze zu über­neh­men.

Was bisher geschah: Dis­kus­si­on um EU-Ur­he­ber­rechts­re­form

Upload-Filter wurden lange Zeit auf eu­ro­päi­scher Ebene dis­ku­tiert, da diese im Zuge des Ur­he­ber­rechts im digitalen Bin­nen­markt eine Rolle spielen könnten. Im Juli 2018 hatte das Eu­ro­päi­sche Parlament einen ent­spre­chen­den Ge­set­zes­ent­wurf noch abgelehnt. Am 12. September 2018 wurde eine neue Version des Entwurfes zur Ab­stim­mung gebracht, in der die Be­stim­mun­gen nur noch für große Anbieter gelten sollen und kleine Anbieter aber verschont bleiben. Ebenfalls sollen Online-En­zy­klo­pä­dien wie die Wikipedia von der ver­pflich­ten­den Über­prü­fung der Inhalte befreit sein.

Im Kontext von Upload-Filtern ist besonders Artikel 13 in­ter­es­sant (welcher in der End­fas­sung schließ­lich Artikel 17 ist), auch wenn dort und an keiner anderen Stelle der Begriff genannt wird. Das EU-Parlament schreibt den Be­trei­bern von Online-Platt­for­men nicht vor, wie sie die Wahrung des Ur­he­ber­rechts si­cher­stel­len sollen. Doch Kritiker und Be­ob­ach­ter gehen davon aus, dass es keine andere Mög­lich­keit gibt: Platt­for­men müssen dem Entwurf folgend schon vor Ver­öf­fent­li­chung des ent­spre­chen­den Beitrags den Inhalt auf Verstöße gegen das Ur­he­ber­recht über­prü­fen. Aufgrund des enormen Da­ten­auf­kom­mens ist dies praktisch nur mit au­to­ma­ti­sier­ten Upload-Filtern möglich.

In einer erneuten Ab­stim­mung hatte das EU-Parlament den Ge­set­zes­ent­wurf mit 438 Stimmen (bei 226 Ge­gen­stim­men und 39 Ent­hal­tun­gen) an­ge­nom­men. Der Entwurf wurde dann im so­ge­nann­ten Trilog weiter beraten: Hier ver­han­del­ten Vertreter des EU-Par­la­ments mit Ab­ge­sand­ten der EU-Kom­mis­sio­nen und des Rates der Mit­glieds­län­der über eine finale Version.

Am Tag der Ab­stim­mung hat die EU-Kom­mis­si­on eine weitere Richt­li­nie vorgelegt, in der Upload-Filter eine ent­schei­den­de Rolle spielen können: Im Zuge der Ter­ro­ris­mus-Be­kämp­fung sollen Internet-Platt­for­men gezwungen werden, alle Inhalte auf Ter­ror­pro­pa­gan­da hin zu un­ter­su­chen. In der Ver­ord­nung nicht enthalten: eine Ausnahme für kleine Web­site­be­trei­ber oder Open-Source-Angebote. Demnach wäre über diese Richt­li­nie am Ende doch der flä­chen­de­cken­de Einsatz von Upload-Filtern notwendig.

Was ist ein Upload-Filter?

Ein Upload-Filter ist ein au­to­ma­ti­sier­tes Com­pu­ter­pro­gramm, das Daten beim Hochladen ins Internet oder vorm Ver­öf­fent­li­chen auf einer Plattform scannt und nach gewissen Kriterien überprüft. Stellt das Programm fest, dass ein Inhalt nicht mit den zuvor de­fi­nier­ten Regeln über­ein­stimmt, wird der be­tref­fen­de Content gesperrt, der Nutzer am Upload gehindert oder der Inhalt insoweit angepasst, dass er keine Ver­let­zung der Regeln mehr darstellt. Upload-Filter können entweder auf einzelnen Websites oder Apps in­stal­liert sein, aber auch von Web­hos­tern oder dem je­wei­li­gen In­ter­net­pro­vi­der des Nutzers verwendet werden. Sie lassen sich unter anderem zu folgenden Zwecken einsetzen:

  • Eindämmen von ex­tre­mis­ti­schen und kri­mi­nel­len Inhalten
  • Begrenzen von Falsch­mel­dun­gen, Be­lei­di­gun­gen und Cy­ber­mob­bing
  • Filtern von por­no­gra­fi­schen oder ge­walt­ver­herr­li­chen­den Inhalten
  • Iden­ti­fi­zie­ren von ur­he­ber­recht­lich ge­schütz­tem Material
  • Bei miss­bräuch­li­cher Ver­wen­dung ist Zensur möglich

Wie funk­tio­nie­ren Upload-Filter?

Um einen Upload-Filter betreiben zu können, werden zwei Kom­po­nen­ten benötigt. Un­ver­zicht­bar ist eine Datenbank mit un­zu­läs­si­gen Daten – im Falle des geplanten EU-Gesetzes also ur­he­ber­recht­lich ge­schütz­tem Material. Dieses wird in Form von Hash-Werten ge­spei­chert.

Fakt

Hash-Werte sind kurze Buch­sta­ben- und Zei­chen­fol­gen, die durch eine ma­the­ma­ti­sche Funktion aus dem Aus­gangs­ma­te­ri­al erzeugt werden. Aus dem gleichen Aus­gangs­ma­te­ri­al entsteht stets der gleiche Hash-Wert – umgekehrt ist es aber nicht möglich, aus dem Hash-Wert auf das Aus­gangs­ma­te­ri­al zu schließen. Hash-Werte finden unter anderem beim Speichern von Pass­wör­tern Anwendung.

Ein Al­go­rith­mus ver­gleicht die Hash-Werte des ur­he­ber­recht­lich ge­schütz­ten Materials mit denen der hoch­ge­la­de­nen Daten. Findet er eine Über­schnei­dung, ver­hin­dert er den Upload der Datei. Doch nicht nur bei komplett iden­ti­schen oder sehr ähnlichen Dateien werden Upload-Filter aktiv. Sie können mittels Methoden des Machine Learning (Englisch für „ma­schi­nel­les Lernen“) auch einzelne Be­stand­tei­le in einem Bild, einem Film, einem Mu­sik­stück oder einem Text erkennen. Auch die Abs­tra­hie­rung von zu­grun­de­lie­gen­den Dateien ist bereits in gewissem Maße möglich – so sind Al­go­rith­men bei­spiels­wei­se in der Lage, aus einer Datenbank von Kat­zen­bil­dern zu lernen, wie eine Katze aussieht und dann auch neue Kat­zen­bil­der zu erkennen, die bislang nicht in der Datenbank ge­spei­chert waren.

Wo werden Upload-Filter bereits genutzt?

Die Ver­pflich­tung, flä­chen­de­ckend Upload-Filter ein­zu­füh­ren, wäre ein weit­rei­chen­der Schritt – al­ler­dings verwenden gerade große In­ter­net­kon­zer­ne diese Technik seit Jahren, um die riesigen Da­ten­men­gen zu über­prü­fen, die täglich auf ihren Platt­for­men hoch­ge­la­den werden.

YouTube

Content ID, der Upload-Filter der Vi­deo­platt­form YouTube, prüft alle neu hoch­ge­la­de­nen Videos auf Ur­he­ber­rechts­ver­let­zun­gen. Wird eine solche fest­ge­stellt, haben die Ei­gen­tü­mer der Rechte drei Mög­lich­kei­ten:

  • Sperren: Das Video wird gelöscht und kann nicht mehr auf­ge­ru­fen werden.
  • Mo­ne­ta­ri­sie­ren: Vor dem Video wird Werbung ge­schal­tet, die Einnahmen fließen dem Rech­te­inha­ber zu.
  • Be­ob­ach­ten: Der Urheber oder Rech­te­inha­ber wird über die Zahl der Vi­deo­auf­ru­fe und andere Sta­tis­ti­ken auf dem Laufenden gehalten.

Vor allem das un­er­laub­te Ver­brei­ten von Spiel­fil­men, Serien, Liedern und Mu­sik­vi­de­os soll damit ver­hin­dert werden. Nach Angaben von YouTube ersetzt der Al­go­rith­mus die po­ten­zi­el­le Arbeit von 180.000 mensch­li­chen Prüfern.

Facebook

Das größte soziale Netzwerk nutzt Upload-Filter vor allem, um ge­walt­tä­ti­ge, nicht ju­gend­freie und andere anstößige Beiträge, Bilder und Videos noch vor der Ver­öf­fent­li­chung zu iden­ti­fi­zie­ren. Um ter­ro­ris­ti­sche oder ex­tre­mis­ti­sche Inhalte zu bekämpfen, greifen Facebook, Twitter, Microsoft und YouTube auf eine ge­mein­sa­me Datenbank zurück, die in Ko­ope­ra­ti­on mit der Eu­ro­päi­schen Po­li­zei­be­hör­de Europol betrieben wird.

Microsoft OneDrive

Der Fi­le­hos­ting-Dienst durch­sucht Dateien au­to­ma­tisch, wenn sie in die Cloud hoch­ge­la­den werden. Dieses Verfahren namens PhotoDNA dient unter anderem dem Kampf gegen Kin­der­por­no­gra­fie. 2015 er­mit­tel­te das Bun­des­kri­mi­nal­amt (BKA) nach einem Hinweis von Microsoft deshalb gegen einen deutschen Nutzer.

Re­se­arch­Ga­te

Das soziale Netzwerk für wis­sen­schaft­li­che Fach­pu­bli­ka­tio­nen musste auf Drängen der Verlage Upload-Filter einführen, um nicht ge­neh­mig­te Zweit­ver­öf­fent­li­chun­gen und Plagiate zu iden­ti­fi­zie­ren. Der Al­go­rith­mus sollte dann ent­schei­den, ob die Pu­bli­ka­tio­nen öf­fent­lich gemacht, nur be­stimm­ten For­scher­grup­pen zur Verfügung gestellt oder gelöscht werden.

Welche Kri­tik­punk­te gibt es an Upload-Filtern?

Der Kampf gegen Kin­der­por­no­gra­fie, Ex­tre­mis­mus und Ur­he­ber­rechts­ver­let­zun­gen per Upload-Filter – was zunächst nach einer durchweg un­ter­stüt­zens­wer­ten Maßnahme klingt, birgt auch einige be­trächt­li­che Risiken, auf die Gegner des neuen EU-Ur­he­ber­rechts nach­drück­lich hinweisen.

An­fäl­lig­keit für Fehler und Ma­ni­pu­la­ti­on

Die prak­ti­sche Anwendung zeigt, dass die Al­go­rith­men noch lange nicht feh­ler­frei funk­tio­nie­ren. Zum einen lassen sie sich ver­hält­nis­mä­ßig leicht aus­trick­sen, um bei­spiels­wei­se ur­he­ber­recht­lich ge­schütz­tes Material an den Filtern vor­bei­zu­schmug­geln. Noch be­denk­li­cher ist jedoch, dass die Com­pu­ter­pro­gram­me oftmals auch erlaubte Inhalte zensieren. So kann ein Al­go­rith­mus Parodien, Remixe und Hommagen nicht erkennen, die in der Regel vom Ur­he­ber­recht gedeckt sind. Kritiker sprechen deshalb auch von einer Ein­schrän­kung der Kunst­frei­heit und einem Ende der „Meme-Kultur“: In­ter­net­phä­no­me­ne wie Memes basieren häufig darauf, ur­he­ber­recht­lich ge­schütz­te Bilder, Videos und Lieder in einen neuen Zu­sam­men­hang zu setzen, ab­zu­wan­deln und über das Web wei­ter­zu­ver­brei­ten.

Außerdem wäre es möglich, dass jemand in rechts­wid­ri­ger Weise ur­he­ber­recht­lich ge­schütz­tes Material für sich be­an­sprucht und in die Datenbank eintragen lässt. Eine Ver­brei­tung der Inhalte, selbst wenn sie tat­säch­lich nicht ur­he­ber­recht­lich geschützt sind, würde dadurch bis zur Klärung des Sach­ver­halts unmöglich.

Mög­lich­keit der Zensur

Upload-Filter schaffen gleich­zei­tig eine In­fra­struk­tur, die auch zur staat­li­chen In­for­ma­ti­ons­kon­trol­le und Vorzensur ein­ge­setzt werden kann. In den falschen Händen könnten Upload-Filter eine Ein­schrän­kung des Rechts auf freie Mei­nungs­äu­ße­rung und Pres­se­frei­heit be­güns­ti­gen. Würden die Da­ten­ban­ken bei­spiels­wei­se nicht mit ur­he­ber­recht­lich ge­schütz­tem Material, sondern mit un­lieb­sa­men Äu­ße­run­gen und anderen Formen der Kritik an der Regierung gefüttert, könnten diese im Internet nicht mehr frei geäußert werden. Dass solche Tech­no­lo­gien bereits in der Praxis ein­ge­setzt werden, zeigt ein Blick auf Chinas weit­ge­hend ab­ge­schot­te­ten Teil des Internets, der flä­chen­de­ckend mit Upload-Filtern aus­ge­stat­tet ist.

Was hat es mit der aktuellen Debatte um Upload-Filter auf sich?

Durch die Neu­ge­stal­tung des Ur­he­ber­rechts in der Eu­ro­päi­schen Union sind Upload-Filter stärker in die öf­fent­li­che Wahr­neh­mung gerückt. Ins­be­son­de­re Rech­te­inha­ber wie Verlage, Film­ver­lei­he und die Mu­sik­in­dus­trie fordern, ihre ur­he­ber­recht­lich ge­schütz­ten Werke auf digitalen Ver­brei­tungs­we­gen besser zu schützen und die un­er­laub­te Wei­ter­ga­be zu un­ter­bin­den – wie dies bei­spiels­wei­se bereits auf YouTube prak­ti­sche Anwendung findet.

Auf der anderen Seite stehen In­ter­net­ak­ti­vis­ten, Bür­ger­recht­ler, Verbände, die Wikipedia-Betreiber und kritische Stimmen aus der Politik – auch über Par­tei­gren­zen hinweg. Sie be­für­wor­ten zwar das Ziel des Gesetzes, den Schutz geistigen Eigentums, weisen aber darauf hin, dass Upload-Filter der gänzlich falsche Weg seien: Sie würden weit über das Ziel hin­aus­schie­ßen, seien technisch nicht aus­ge­reift und würden eine Gefahr für das Recht auf freie Mei­nungs­äu­ße­rung dar­stel­len.

Bitte beachten Sie den recht­li­chen Hinweis zu diesem Artikel.

Zum Hauptmenü