Schon in der vergangenen Woche kündigte Facebook Maßnahmen zur Bekämpfung von Terrorpropaganda an. Jetzt folgt auch Google und stellt einen ähnlichen Plan für Youtube vor, um gegen derartige Veröffentlichungen vorzugehen.

Die Forschung zur Videoanalyse durch künstliche Intelligenz wird ausgeweitet. Die automatische Erkennung von extremistischen Videos soll in Zukunft viel besser werden – ähnliche Maßnahmen hat Facebook bereits letzte Woche angekündigt. Google wird sein Expertenteam erweitern und die Zusammenarbeit mit NGOs ausbauen. Nun sollen 50 zusätzliche NGOs mit ihren Experten Youtube dabei unterstützen, potenziell radikalisierende Videos zu löschen.

Bei Videos, bei denen unklar ist, ob sie radikale Inhalte aufweisen, soll statt Werbung eine Warnung vorgeschaltet werden. Außerdem wird die Kommentarfunktion deaktiviert. Dadurch sollen diese Videos weniger Interaktionen erhalten. Durch zielgerichtete Werbung sollen potenzielle Extremisten zukünftig vermehrt Anti-Terror-Videos empfohlen bekommen.

Internet-Unternehmen wie Facebook oder Google spüren zunehmenden Druck aus der Politik, härter gegen Terror-Inhalte vorzugehen. Nach den jüngsten Terroranschlägen kündigten die britische Premierministerin Theresa May und der französische Präsident Emmanuel Macron letzten Dienstag an, Druck auf Internetunternehmen aufzubauen.

Die Maßnahmen von Youtube oder Facebook werden aber weiter zu reden geben: Youtube muss den Spagat schaffen zwischen Meinungsfreiheit und freiem Zugang zu Information und der Verbreitung von extrem offensiven Inhalten.

Werden zu viele Videos gelöscht, gibt es Kritik wegen willkürlicher Löschpolitik. Werden zu wenige extremistische Inhalte entfernt, steigt der politische Druck auf die Plattformen. Ab wann ist etwas extremistisch oder radikal? Und ab wann ist es Zensur, solche Inhalte zu löschen? Diese Balance zu finden, ist alles andere als leicht.

von

Günter Schwarz – 20.06.2017