Neuronale Netzwerke sollen im Kampf gegen Hasskommentare und Extremismus helfen
Machine-Learning-Algorithmen für YouTube
Bild: asch
Bald auf Youtube wieder öfter zu sehen? Extremistische Inhalte und Hate Speech sollen schwerer zugänglich  gemacht werden. Bild: asch
Bald auf Youtube wieder öfter zu sehen? Extremistische Inhalte und Hate Speech sollen schwerer zugänglich gemacht werden.

Streaming. Google hat auf dem offiziellen YouTube-Blog angekündigt, in Zukunft härter gegen Hate Speech und Aufrufe zu extremistischem Terror vorzugehen. Schlüsseltechnologie soll dabei vor allem ein Machine-Learning-Algorithmus sein.

Schon Anfang April gab es Diskussionen über extremistische Inhalte auf YouTube, als große Werbepartner wie Audi oder  McDonald’s ihre Aufträge stornierten. Grund hierfür: Ihre Werbeanzeigen liefen vor rechtsextremen Videos. Hierbei war nicht nur die Platzierung für die Unternehmen ein Problem, sondern auch, dass sie auf diese Weise diese Content-ErstellerInnen mitfinanzierten. Kurz darauf, im Mai, hatte Justizminister Heiko Maas (SPD) dem Bundestag das umstrittene Netzwerkdurchsetzungsgesetz (NetzDG) vorgelegt. Es soll festlegen, dass Facebook und andere Medien strafbare Inhalte binnen 24 Stunden löschen müssen.

Maßnahmen

Google will mehr ExpertInnen beschäftigen. Dabei setzen sie vor allem auf NGOs. Diese sollen im Rahmen des „Trusted Flagger“-Programms Content identifizieren, der Hate Speech enthält, radikalisiert oder ExtremistInnen rekrutieren soll. Deutsche Mitglieder des „Trusted Flagger“-Programms sind Jugendschutz.net, das gemeinsame Kompetenzzentrum von Bund und Ländern für den Jugendschutz im Internet, sowie der Verein Freiwillige Selbstkontrolle Multimedia-Diensteanbieter. Die markierten Videos werden dann in den „limited state“ versetzt. Sie bleiben zwar auf der Plattform, werden aber nicht mehr empfohlen oder monetarisiert und verfügen nicht mehr über wichtige Funktionen wie Kommentare und Likes. Außerdem soll eine Methode aus dem „Targeted Advertising“ BenutzerInnen, die nach Schlüsselbegriffen suchen, auf eine, von YouTube kuratierte Playlist weitergeleitet werden, die „gewaltverherrlichende, extremistische Inhalte widerlegt“.

Machine-Learning-Algorithmen

Googles größte Hoffnung im Kampf gegen extremistische Inhalte und Hate Speech sind aber vor allem Machine-Learning-Algorithmen. Durch die riesigen Datenmengen – das Unternehmen selbst spricht von 400 Stunden neuem Videomaterial pro Minute – sei der Einsatz  maschinellen Lernens unverzichtbar. Prof. Gregor Schöner, Direktor des Instituts für Neuroinformatik der Ruhr-Universität Bochum erklärt das Verfahren: „Aktuell ist es möglich, Texte zu klassifizieren. Dieses [Anm. d. Red.: das Verfahren] nutzt unter anderem Verfahren des maschinellen Lernens, die anhand von Beispielen (also zum Beispiel von Codern als extremistisch eingestuften Textstücken) ein neuronales Netz so trainieren, dass es dann auch auf neue Textstücke verallgemeinert.“ Das neuronale Netz suche dann nach ähnlichen sprachlichen Konstruktionen. Auf einer ähnlichen Technik beruhten auch Googles Suchalgorithmen, so Schöner weiter.  Für diese Methode seien aber Textkommentare zum Video zwingend erforderlich. Anspruchsvoller sei es, das Videomaterial selbst durch neuronale Netze zu klassifizieren. „Diese Aufgabe ist viel anspruchsvoller, da die Varianz in den Videodaten ungeheuer groß ist, viel größer als die Varianz in Textmaterial. Durch die ‚deep neural networks‘ werden jedoch zunehmend effizient invariante Merkmale von Videodaten extrahiert, auf denen dann eine Klassifikation in ‚extremistisch‘ und ‚nicht extremistisch‘ wieder anhand von Beispielen gelernt werden kann.“ Ezra Levant, Besitzer des rechtextremen News-Portal therebel.media sammelt derweil auf seiner Website bereits Spenden, um eine „konservative Alternative“ zu Youtube aufzubauen.

:Andreas Schneider