POLITIK
19/03/2019 15:20 CET | Aktualisiert vor 16 Stunden

Christchurch: Wie Youtube verzweifelt gegen die Verbreitung des Anschlagsvideos kämpfte

“Dies war eine Tragödie, die fast dazu bestimmt war, viral zu werden.”

SOPA Images via Getty Images
Auch Stunden nach der Gewalttat fanden sich noch Clips des Christchurch-Anschlags auf YouTube. Usern gelang es durch diverse Tricks die KI-Software zu überlisten.

Der grausame Anschlag auf mehrere Moscheen in Neuseeland, der 50 Menschen das Leben kostete, hat für eine Debatte über die Verbreitung von Gewalt im Internet geführt.

Besonders in die Kritik geraten erneut Facebook, Twitter und YouTube. Schließlich ermöglichte es erst Facebook, dass der Terroranschlag live ins Netz übertragen werden konnte. Auf den anderen sozialen Plattformen verbreitete sich das Video des Anschlags danach rasant. In den Stunden nach der Tat versuchten die Tech-Konzerne dann vergeblich, die Verbreitung des Videos zu bremsen. 

So boten die Internetkonzerne dem Schützen, der während seines Anschlags eine am Körper befestigte Kamera getragen hatte, eine gigantische Plattform. 

Mehr zum Thema: Plattformen wie Facebook, Twitter und YouTube ermöglichen Gewalt als Spektakel – und motivieren Attentäter

Wie Youtube versuchte, die Verbreitung des Videos auf seiner Plattform zu stoppen und daran scheiterte, erklärt jetzt in überraschender Offenheit Neal Mohan in der “Washington Post”. Der leitende Produktmanager bei Youtube berichtet von den großen Schwierigkeiten, die gewaltverherrlichende Inhalte für die größte Video-Plattform der Welt darstellen – und zeigt sich auch selbstkritisch.

So überlisteten die Nutzer Youtube

Nachdem User das Video kurz nach dem Attentat von Facebook herunter- und auf Youtube hochgeladen hatten, wurde das Video von Youtube-Mitarbeitern zunächst als sensibler Inhalt gekennzeichnet. So konnten Nutzer das Video noch Stunden nach dem Anschlag sehen, wenn sie auf eine Einwilligung klickten, wie Nutzer auf Twitter berichteten.

In der “Washington Post” erklärt Neal Mohan von Youtube, welchen aussichtslosen Kampf er – und das in solchen Fällen zusammentretende Krisen-Interventionsteam von Youtube – aufgrund der rasenden und einfallsreichen Vervielfältigungsstrategien von Usern zu führen hatten.

Denn die User veränderten das Video derart, dass sie die softwarebasierten Erkennungssysteme des Unternehmens überlisten konnten.

► Viele der Uploader nahmen schlicht kleine Modifikationen am Video vor, wie zum Beispiel das Hinzufügen von Wasserzeichen. Auch die Größe der Clips wurde geändert, Filter wurden über das Originalmaterial gelegt – oder die Clips wurden neu geschnitten. Einige User verwandelten sogar die Menschen im Videomaterial in Animationen.

► Hinzu kommt die Geschwindigkeit, mit der die neuen Versionen des Videos hochgeladen wurden: Mohan erklärt im Interview, dass in den Stunden nach dem Anschlag nahezu jede Sekunde ein neues Video hochgeladen wurde. Wie er der Zeitung berichtet, sei das Interventions-Team die ganze Nacht damit beschäftigt gewesen, Zehntausende von Videos zu identifizieren und zu entfernen.

Die Uploads kamen schneller und in weitaus größerem Umfang als bei früheren Anschlägen, erklärte Mohan der “Washington Post”. Und räumte zudem ein: “Ehrlich gesagt, hätte ich das gerne früher in den Griff bekommen.”

► Um der Situation Herr zu werden, entschied sich das Team zu ungewöhnlichen Maßnahmen. So wurden zum Beispiel vorübergehend mehrere Suchfunktionen deaktiviert. 

“Wir haben Fortschritte gemacht, aber das bedeutet nicht, dass wir nicht viel Arbeit vor uns haben, und dieser Vorfall hat gezeigt, dass gerade bei viraleren Videos wie diesem mehr Arbeit zu leisten ist”, bilanziert Mohan. 

 

Die Ohnmacht der Internet-Riesen

Auch Twitter-CEO Jack Dorsey äußerte sich kürzlich in einem Interview mit der HuffPost darüber, was er gegen Hass und Gewalt auf seiner Plattform machen wolle: “Einfach, wissen Sie, die Meldefunktion finden ist noch nicht offensichtlich und intuitiv genug.”

► Dass Gewalt und Hass sich auf Twitter immer noch so leicht verbreiten, liegt laut Dorsey also an der Meldefunktion. Ob dies in den Stunden nach der Tat einen großen Unterschied gemacht hätte, scheint jedoch mehr als zweifelhaft.

Und auch Facebook-CEO Mark Zuckerberg kündigte an, sich dem Problem brutaler Gewaltdarstellungen anzunehmen. Zuletzt sagte er das im April 2018 vor dem US-Kongress. “Ich habe Facebook gegründet, ich bin verantwortlich dafür, was auf Facebook passiert”, betonte der Milliardär damals.

Das Attentat von Christchurch machte aber auf erschreckende Weise deutlich, wie machtlos die Unternehmen sind – trotz aller Versuche. die Werkzeuge und Abläufe zur Erkennung und Entfernung problematischer Videos zu verbessern. 

Denn jenen Usern, die die derzeit bestehenden Schutzmechanismen umgehen wollten, gelang dies mit Hilfe diverser einfacher Tricks. Dem konnten auch Zehntausende Moderatoren, die Facebook und Co. zur Überwachung der Inhalte beschäftigen, nichts entgegensetzen.

Probleme bei der Problembewältigung

Facebook gab laut der “Washington Post” an, dass es in den ersten 24 Stunden nach der Tat 1,5 Millionen Videos des Anschlags von Christchurch entfernte. Youtube machte gegenüber der “Washington Post” keine Angaben darüber, wie viele Videos das Unternehmen löschte und sperrte.

► Um die Verbreitung des Videos zu unterbinden, griff Youtube aber nicht auf menschliche Moderatoren zurück, sondern verließ sich allein auf seine Software. Diese soll eigentlich mittels Künstlicher Intelligenz in der Lage sein, Videos auch in abgeänderter Form zu erkennen und zu blocken. Beim Anschlag von Christchurch gelang das nur bedingt.

Experten: KI kann das Problem nicht lösen

► Pedro Domingos, Professor für Informatik an der University of Washington, sagte der “Washington Post”, dass Algorithmen viel weniger leisten könnten, als gemeinhin angenommen: “Die KI ist dem Job wirklich nicht gewachsen.”

Um das Problem angemessen anzugehen, müssten die Inhalte vorab geprüft werden, fordert ein weiterer Experte in der “Washington Post”. 

► Doch dies widerspreche dem Geschäftsmodell der Firmen, sagt der ehemalige Youtube-Ingenieur Guillaume Chaslot der “Washington Post”: “Bevor die User nicht aufhören, Youtube zu nutzen, haben hat das Unternehmen keinen wirklichen Anreiz, große Änderungen vorzunehmen.”

Doch dadurch werden Techkonzerne zunehmend zu einem perfekten Instrument für Gewalttäter und Terroristen, wie auch Rechtsextremismus-Experte Miro Dittrich von der Amadeu Antonio Stiftung jüngst in der HuffPost verdeutlichte: 

“Die sozialen Medien beschleunigen die Radikalisierungsprozesse und verstärken den Nachahmer-Effekt. Früher gab es noch die Gatekeeper der klassischen Medien, die fallen nun weg. Es gibt sogar direktes Feedback, Menschen, die die Tat unmittelbar feiern.”

(ben/ll)