Youtube schlägt häufig sexistische, rassistische oder extremistische Inhalte vor? Dieser Verdacht bestätigt sich laut einer aktuellen Studie nicht. Ausgenommen die Userinnen und User schauten sich zuvor schon derartige Videos an, hatten entsprechende Kanäle abonniert und vertraten entsprechende Ansichten. Dabei handle es sich zwar um eine kleine, aber sehr umtriebige Gruppe. Das besagt die Auswertung von Umfrage- und Browserdaten aus dem Jahr 2020, die eine Forschergruppe um Annie Chen von der City University of New York gesammelt hat.
Wie das Team nun im Fachblatt »Science Advances« schreibt, scheinen die Empfehlungsalgorithmen von Youtube die Menschen nicht zu radikalisieren und nicht dazu zu verleiten, sich durch ständiges Weiterklicken auf extremistische oder ähnlich geartete Seiten zu verirren – gemeint ist damit das so genannte »Rabbit hole«-Verhalten (Kaninchenbau). Dennoch sei problematisch, dass die Videoplattform den Zugang zu solchen Inhalten so leicht mache und es den Anbietern ermögliche, mit ihren schädlichen Videos sogar noch Geld zu verdienen.
Die Ergebnisse der Studie seien allerdings nicht uneingeschränkt gültig, wie die Arbeitsgruppe teils selbst aufzeigt. Unter anderem weil die Probanden und Probandinnen der Nutzung ihrer Daten zustimmen mussten. Das könnte die Stichprobe des Teilnehmerfelds verzerrt haben. Zudem leben alle Teilnehmenden in den USA. Ob die Resultate auch für Europa oder Deutschland gelten können, ist daher unklar.
Nicht der Algorithmus radikalisiert die Menschen
Die Fachleute um Chen haben 1181 Teilnehmende befragt und deren Internetverhalten ausgewertet, wofür die Probanden ein Add-on in ihrem Browser installieren mussten. Der Untersuchungszeitraum umfasste die Monate Juli bis Dezember 2020. Dabei zeigte sich: Nur drei Prozent der Teilnehmenden, die nicht zuvor schon einen Kanal mit extremistischen oder ähnlichen Inhalten abonniert hatten, schauten solche Videos, weil Youtube ihnen den Clip empfohlen hatte. Ungefähr 15,4 Prozent sahen sich Videos an, die verschwörungstheoretische oder antidemokratische Themen darstellten. Zirka sechs Prozent der Probanden klickten auf extremistische Inhalte, die vor allem Vertreter der rassistischen »white supremacy« eingestellt hatten. Die genannten Userinnen und User guckten jedoch sehr lange und sehr viele solcher Clips.
Ist der Youtube-Algorithmus damit rehabilitiert? Nicht ganz. Die Ergebnisse würden vielmehr untermauern, heißt es in der Studie, dass Youtube weiterhin eine Bühne für extremistische und menschenfeindliche Themen biete – und den Videomachern sogar noch helfe, finanziell davon zu profitieren. Die Existenz solcher Kanäle verstärke zudem »die Bedenken, dass die Inhalte auf der Plattform nur lax moderiert würden«, schreiben die Forschenden.
Die Studienautorinnen und -autoren räumen jedoch ein, dass sich die Situation vor 2020 deutlich anders verhalten haben könnte. 2019 hatte Youtube seinen Empfehlungsalgorithmus angepasst. Wer sich davor über Youtube radikalisiert habe, sei nicht nachvollziehbar. Darüber hinaus ist nicht öffentlich bekannt, wie dieser Algorithmus eigentlich funktioniert – die Tochtergesellschaft von Google hütet ihn als Betriebsgeheimnis. Angeblich, so hat es Youtube verlautbaren lassen, hätten die Änderungen von 2019 dazu geführt, dass etwa 50 Prozent weniger Zeit mit extremistischen und menschenfeindlichen Videos verbracht wurde. Diese Angaben lassen sich jedoch nicht wissenschaftlich überprüfen, schreiben Chen und ihr Team.
Youtube macht es der Forschung nicht leicht
Überhaupt, so bemängelt es Sabrina Heike Kessler von der Universität Zürich, hätten Wissenschaftler einige Schwierigkeiten, das Userverhalten auf Youtube zu erforschen. Würde das Unternehmen Wissenschaftlern seine Daten zur Verfügung stellen, wären Forschungsfragen leichter, schneller, valider und genauer zu beantworten, sagt die Kommunikationswissenschaftlerin laut dem Science Media Center.
Kessler und Fachleute an deutschen Universitäten, die nicht an Chens Forschungen beteiligt waren und die das Science Media Center um eine Stellungnahme gebeten hat, halten die Studie für methodisch sauber und schlüssig durchgeführt. Einige von ihnen geben jedoch zu bedenken, dass der geringe Anteil an radikalisierten Nutzern nur vermeintlich eine überschaubare Gruppe betreffen könnte.
Die (Un-)Macht des Algorithmus
»Selbst wenn nur ein kleiner, aber überzeugter Kreis an Personen durch die Algorithmen an noch mehr problematische Inhalte herangeführt wird, ist auch das eine große Herausforderung für die Demokratie«, erklärt Josephine Schmitt vom Center for Advanced Internet Studies in Bochum. Zudem würden gerade persönliche Empfehlungen extremistische Weltbilder befeuern. Auch der Politikwissenschaftler Curd Knüpfer von der FU Berlin betont, dass sechs Prozent einer Probandengruppe, die extremistische Inhalte konsumiere, »hochgerechnet auf die Gesamtmenge der (Nutzerinnen und Nutzer) eine erhebliche Anzahl« darstelle. »Oft sind solche ›Minderheiten‹ politisch aktiver und engagierter als der Durchschnitt.«
In der gesamten Diskussion sei außerdem wichtig, genau zu unterscheiden, warum Menschen radikale Ansichten annehmen und wie sie damit gefüttert werden. Das Problem sei jedenfalls nicht der Algorithmus an sich. Die Studie »bestätigt, was die Forschung seit einigen Jahren vermehrt zeigt: Nicht die Algorithmen ziehen Menschen zu extremen Inhalten im Netz, sondern extremistisch eingestellte Menschen suchen sich selbst solche Inhalte«, sagt Fabian Prochazka, Kommunikationswissenschaftler an der Universität Erfurt. »Dafür bieten Plattformen wie Youtube allerdings das ideale Ökosystem und ermöglichen es extremistisch eingestellten Personen, sich mit passenden Inhalten zu versorgen.«
Algorithmen und soziale Medien würden meist fälschlicherweise als Kernproblem für die Verbreitung extremer Inhalte ausgemacht werden. Curd Knüpfer ergänzt: »Der Vorwurf, Youtube sei eine ›Radikalisierungsmaschine‹, die quasi eine passive Masse ohne Voreinstellungen zum Extremismus bringt, kam hauptsächlich aus journalistischen Kreisen und war stets überzogen. Solche Macht und Effekte haben Medien grundsätzlich nicht.«