AFP

Wie der TikTok Algorithmus User radikalisiert

0

Der TikTok-Algorithmus trägt zur Radikalisierung von Usern bei: Eine neue Studie der Organisation Media Matters zeigt, wie transfeindliche User automatisch in eine Ecke rechtsextremer Inhalte gelotst werden.

TikTok ist dank politischem Content, Lifehacks und satirischen Gesellschafts-Reels längst mehr als eine Plattform für Tanzvideos: Die Clips zeigen Lebensrealitäten, verbreiten Meinungen und propagieren Ideologien. Warum genau das gefährlich ist, wird in einer neuen Studie der Organisation Media Matters deutlich, die zeigt, wie TikToks Algorithmus transphobe Menschen in eine Ecke rechtsextremer Inhalte steuert.

Oft steht TikTok wegen seines gefährlichen Algorithmus, viraler Fehlinformationen oder hasserfüllten Videoempfehlungen in der Kritik. Eine neue Studie der non-profit-Organisation Media Matters, einem progressives Forschungs- und Informationszentrum, das sich der umfassenden Überwachung, Analyse und Korrektur von Fehlinformationen in den US-Medien widmet. zeigt jetzt, wie schnell der Empfehlungsalgorithmus des Unternehmens die FYP („For you Page“) der Nutzerinnen und Nutzer radikalisieren kann.

Analysiert wurde, wie TikTok darauf reagiert, wenn jemand Videos mit transphoben oder transfeindlichen Inhalten konsumiert. Die danach empfohlenen Videos verdeutlichten, dass der Algorithmus sofort beginnt die persönlichen Empfehlungen des Recherchekontos mit hasserfüllten und rechtsextremen Inhalten zu füllen.

Was mit transphob gemeint ist

Als "transphobe" Beiträge wurden in der Untersuchung solche verstanden, die Trans-Personen (einschließlich nicht-binärer Menschen) angreifen oder verhöhnen, darauf beharren, dass es "nur zwei Geschlechter" gibt, oder auch solche, die lesbische, schwule oder bisexuelle Menschen angreifen oder verhöhnen oder die Pride-Flagge verhöhnen oder verunstalten.

Programmierte Aufrufe zu Hass und Gewalt?

Die Ergebnisse der von Media Matters durchgeführten Studie zeigen: Von den insgesamt 360 empfohlenen Videos, die in die Analyse einbezogen wurden, enthielten 103 trans- und/oder homophobe Inhalte, 42 waren frauenfeindlich, 29 enthielten rassistische Inhalte und 14 riefen zu direkter Gewalt auf.

Die Untersuchung zeigt, dass auf TikTok allein die Beschäftigung mit transfeindlichen Inhalten ausreicht, um die vom Algorithmus maßgeschneiderte Seite einer Person in eine Art Sumpf aus Extremismus, Hass und Gewalt zu verwandeln. Transphobie ist laut Media Matters eng mit anderen Formen des Rechtsextremismus verwoben, der Algorithmus von TikTok verstärkt diese Verbindung noch. In vielen Fällen enthielten Videos mit verletzenden Inhalten mehr als eine Form von gefährlicher Rhetorik. Viele Videos beinhalten rassistische Rhetorik oder häufig stellten beispielhafte Inhalte für Transphobie, Homophobie, Frauenfeindlichkeit und/oder Antisemitismus dar.

Wovor die Studie warnt

Wenn Nutzer TikTok öffnen, wird sofort ein Video abgespielt. Fast 400 Videos klingen vorerst viel, aber wenn man ein Video durchschnittlich 20 Sekunden lang ansieht, könnte man 400 Videos in etwas mehr als zwei Stunden konsumieren. Es ist also möglich, dass ein Nutzer die App beim Frühstück herunterlädt und noch vor dem Mittagessen mit offenkundigem Rassismus und Neonazi-Inhalten gefüttert wird.

ribbon Zusammenfassung
  • Eine neue Studie der Organisation Media Matters zeigt, wie TikToks Algorithmus transfeindliche User in eine Ecke rechtsextremer Inhalte lotst.
  • Diese neue Studie der non-profit-Organisation Media Matters zeigt jetzt, wie schnell der Empfehlungsalgorithmus des Unternehmens die FYP („For you Page“) der Nutzer radikalisieren kann. Analysiert wurde, wie TikTok darauf reagiert, wenn jemand Video
  • Die danach empfohlenen Videos verdeutlichten, dass der Algorithmus sofort beginnt die persönlichen Empfehlungen des Recherchekontos mit hasserfüllten und rechtsextremen Inhalten zu füllen.
  • Als "transphobe" Beiträge wurden in der Untersuchung solche verstanden, die Trans-Personen (einschließlich nicht-binärer Menschen) angreifen oder verhöhnen, darauf beharren, dass es "nur zwei Geschlechter" gibt.
  • Die Ergebnisse der von Media Matters durchgeführten Studie zeigen: Von den insgesamt 360 empfohlenen Videos, die in die Analyse einbezogen wurden, enthielten 103 trans- und/oder homophobe Inhalte, 42 waren frauenfeindlich, 29 enthielten rassistische Inhal
  • Fast 400 Videos klingen vorerst  viel, aber man ein Video durchschnittlich 20 Sekunden lang ansieht, könnte man 400 Videos in etwas mehr als zwei Stunden konsumieren. Es ist also möglich, dass ein*e Nutzer*in die App beim Frühstück herunterlädt und noch v

Mehr aus Digital