Digitaler Hass
Rassistische Videos von Google-KI übeschwemmen TikTok
Vor wenigen Wochen stellte Google seinen Videogenerator "Veo 3" vor. Mithilfe künstlicher Intelligenz (KI) kann das Tool aus einfachen Textanweisungen achtsekündige Videos erzeugen.
Das Modell, das laut Google "Filmemacher und Geschichtenerzähler" unterstützen soll, wird jedoch zunehmend für die Verbreitung von Hassinhalten missbraucht.
Rassistische KI-Videos
Die US-amerikanische Nichtregierungsorganisation (NGO) "Media Matters for America" analysierte eine Vielzahl solcher Inhalte und warnt: TikTok wird derzeit von einer Welle rassistischer und antisemitischer KI-Videos überschwemmt – viele davon mit Millionen von Aufrufen.
Die Videos greifen rassistische Klischees auf, etwa indem sie schwarze Menschen als Primaten oder Kriminelle darstellen. Häufig werden sie auch mit stereotypen Bildern wie Wassermelonen und frittiertem Hühnchen in Verbindung gebracht.
In einem Clip ist etwa ein weiblicher Affe mit rosa Perücke, langen pinken Acrylnägeln und rosa Wimpern zu sehen. In einem klischeehaft nachgeahmten afroamerikanischen Dialekt sagt sie: "Also, mein Bewährungshelfer hat angerufen. Gute Nachricht – ich muss keinen Sozialdienst mehr machen. Schlechte Nachricht – es gibt jetzt einen neuen Haftbefehl gegen mich."
Das Video wurde bereits über vier Millionen Mal aufgerufen.
Hass gegen weitere Minderheiten
Aber nicht nur schwarze Menschen sind betroffen: Auch weitere marginalisierte Gruppen wie Jüd:innen, Asiat:innen oder Personen aus Lateinamerika sind Ziel der rassistischen Clips. So zeigt ein KI-generiertes Video eine Gruppe orthodoxer jüdischer Männer, die einen Hügel hinunterrollen – auf der Jagd nach einem Stück Gold.
Besonders verstörend sind animierte Darstellungen von Konzentrationslagern oder Angriffen des Ku-Klux-Klans auf schwarze Menschen. Auch sie werden geteilt und millionenfach angesehen.
TikTok-Moderation wohl überfordert
TikToks Community-Richtlinien verbieten solche Inhalte ausdrücklich. "Wir erlauben keine Hassrede, kein hasserfülltes Verhalten oder das Fördern von hasserfüllten Ideologien. Dazu gehören explizite und implizite Inhalte, die eine geschützte Gruppe angreifen", heißt es darin.
Gegenüber dem Tech-Blog "Ars Technica" betont TikTok, man setze sowohl technische Systeme als auch menschliche Moderator:innen ein, um regelwidrige Inhalte zu erkennen und zu entfernen. Die schiere Menge an Uploads mache eine zeitnahe Moderation jedoch schwierig.
Laut TikTok wurden jedoch bereits mehr als die Hälfte der im "Media Matters"-Bericht genannten Accounts vor Veröffentlichung des Berichts gesperrt – die übrigen seien inzwischen ebenfalls entfernt worden.
KI-Schutz von Google greift nicht
Auch Google verbietet in seinen "Richtlinien zur unzulässigen Nutzung von generativer KI" Inhalte, die Hass oder Hassrede fördern.
"Ars Technica" merkt an, dass Google bei der Inhaltsmoderation und der Durchsetzung seiner Regeln bislang als vergleichsweise zuverlässig gilt. So wurden etwa beim Chatbot Gemini, für den spezielle Sicherheitsmechanismen eingeführt wurden, um problematische Inhalte zu vermeiden.
Bei "Veo 3" greift dieser Schutz jedoch offenbar nicht ausreichend: Die Regeln lassen sich durch vage Formulierungen in den Anweisungen leicht umgehen. Zudem scheint die KI rassistische Anspielungen – wie etwa die Darstellung von Affen statt Menschen – nicht zuverlässig zu erkennen.
Video: Fakt oder Fake: So manipulativ kann TikTok sein
Zusammenfassung
- Die Online-Plattform TikTok wird derzeit von rassistischen KI-Videos überschwemmt.
- Die Clips bedienen sich rassistischer Klischees, indem sie Schwarze Menschen etwa als Affen oder Kriminelle darstellen.
- Auch andere ethnische Gruppen sind betroffen.