Quelle: Tagesschau Investigativ – 23.8.22
Ukraine-Krieg: Propaganda-Schlacht auf TikTok
Mit dem russischen Krieg gegen die Ukraine ist TikTok auch Plattform für Propaganda geworden. Raketenangriffe und Leichenbilder sind auch für Minderjährige zugänglich – und werden laut SWR nicht immer gelöscht.
Von Tasnim Rödder, SWR
Der russische Angriffskrieg in der Ukraine erreicht mit seinen Bildern von Raketenangriffen und Leichen, mit Propaganda und Desinformation auch deutsche Kinderzimmer. Die chinesische Videoplattform TikTok spielt sowohl gewaltvolle als auch propagandistische Inhalte zum Krieg in der Ukraine an ihre jungen Nutzer und Nutzerinnen aus. Das zeigen Recherchen des investigativen Rechercheformats VOLLBILD vom SWR.
In einem Selbstversuch wird deutlich, wie schnell TikTok-Nutzer in einen Tunnel an Kriegscontent geraten können: Das Rechercheteam des SWR legte sich drei neue TikTok-Accounts an, scrollte durch den Feed und schaute ausschließlich militärische Videos vollständig an. Nach einer Stunde spielte TikTok fast ausschließlich Kriegsinhalte aus. Diese willkürlich aufeinander folgenden Videos beinhalteten unter anderem Gewaltszenen, Leichen oder brutale Angriffe auf die Zivilbevölkerung. Dabei werden die Gewalt- und Propagandainhalte oftmals nicht eingeordnet.
TikTok gehört zu ByteDance, einem Unternehmen mit Sitz in Peking, das 2017 gegründet wurde und vor allem wegen seiner Tanz- und Musikvideos populär wurde. Die App ab 13 Jahren hat heute nach eigenen Angaben mehr als eine Milliarde vor allem junge Nutzerinnen und Nutzer.
Bereits vor dem Ausbruch des Kriegs in der Ukraine mehrten sich politische Inhalte auf der Plattform. Mit der russischen Invasion in die Ukraine erreichte diese Entwicklung einen neuen Höhepunkt. Die App ist zum Schauplatz eines Informationskrieges geworden. Das Magazin „The New Yorker“ schreibt vom „ersten TikTok-Krieg“.
Der Datenanalyst Philip Kreißel arbeitet bei HateAid, einer gemeinnützigen Organisation, die Opfer digitaler Gewalt berät und unterstützt. Er sagt: „Das ist das Erfolgsrezept von TikTok. Der Algorithmus spielt nur den Content aus, der dem User gut gefällt und den er lange anguckt. So gelangt er in ein sogenanntes ‚Rabbit Hole‘. Es besteht die Gefahr, dass dem Nutzer nur noch solche Videos angezeigt werden. Das können sowohl Katzen-, als auch Kriegsvideos sein.“
Informationskrieg auf TikTok
TikTok hat sich zu einem Schlachtfeld der Propaganda im Ukraine-Krieg entwickelt: Der Däne Storm Karl Balderson ist durch den Informationskrieg auf TikTok zu einer Art Galionsfigur für ukrainische Propaganda geworden. Er inszeniert sich als „Wikinger“ und erreicht mit seinen Inhalten auf Instagram und TikTok Millionen Nutzer und Nutzerinnen. In einem Interview mit dem SWR sagt er: „Es geht nicht nur darum, Inhalte für Propaganda oder so zu produzieren. Es geht auch darum, Aufmerksamkeit zu erzeugen.“ Er nimmt dabei in Kauf, dass seine Propagandainhalte auch Kinder und Jugendliche in aller Welt erreichen.
In Russland hat TikTok seit dem 6. März das Posten jeglicher Inhalte zum Schutz der User gesperrt, nachdem der Kreml die sogenannten Fake-News-Gesetze erlassen hat. Durch sie drohen Bürgern und Bürgerinnen bis zu 15 Jahre Haft, wenn ihre Äußerungen von der Kreml-Darstellung des Kriegs in der Ukraine abweichen. Dennoch kursiert weiterhin russische Propaganda auf TikTok.
Auch deutsche Influencer posten Inhalte, die Kreml-Narrative unterstützen. Der Influencer Deniz K. bespielt einen Kanal auf TikTok und hat einen Podcast bei RT DE, einem vom russischen Staat finanzierten Programm. Die Verbreitung seiner Inhalte ist seit dem 2. März EU-weit wegen Desinformation verboten. Der Influencer spricht in seinem Podcast unter anderem von einer „Hexenjagd“ auf russlandfreundliche Länder und behauptet, dass Wladimir Putins Narrativ der Entnazifizierung zutreffend sei. Obwohl TikTok seinen Account bereits mehrfach sperrte, konnte der Influencer seine Videos immer wieder unter einem neuen Account hochladen.
TikTok setzt Community-Richtlinien nicht immer durch
In TikToks Richtlinien heißt es: „Wir (sind) dem Kampf gegen die Verbreitung von Fehlinformationen auf der Plattform verpflichtet. (…) Unser Ziel ist es, dazu beizutragen, dass TikTok ein Ort bleibt, an dem authentische und vertrauenswürdige Inhalte gedeihen.“ Nicht hochgeladen werden dürften unter anderem Videos mit „körperlicher Gewalt, Kampfszenen und Folter in realen Szenarien“.
TikTok Brutale Kriegsbilder statt lustiger Videos
Das Unternehmen versucht, auf verschiedenen Wegen gegen unangemessene Inhalte auf der Plattform vorzugehen. Unter anderem können Nutzer und Nutzerinnen Inhalte, die sie für nicht angemessen halten, in der App melden. Sogenannte Content-Moderatoren beurteilen dann, ob der gemeldete Inhalt gesperrt werden muss. Das deutsche Netzwerkdurchsetzungsgesetz besagt, dass soziale Plattformen wie TikTok innerhalb von 24 Stunden auf die gemeldeten Inhalte reagieren müssen. Handelt es sich um einen komplizierten Sachverhalt, hat das Unternehmen eine Woche Zeit, den Fall zu bearbeiten.
In einem Versuch meldete das Rechercheteam vom SWR zwei Accounts und fünf Videos wegen gewaltvoller Inhalte. Nach 24 Stunden war nur eines der fünf Videos und keiner der Accounts gesperrt. Erst auf Nachfrage des SWR löschte TikTok alle gemeldeten Accounts und Videos – bis auf eines. Ein TikTok-Content-Moderator, der anonym bleiben möchte, sagt im Interview mit dem SWR: „Wir machen die wichtigsten Jobs, weil wir sind diejenigen, die dafür sorgen, dass diese Plattform sicher ist. Und ob es im Kinderzimmer landet oder nicht.“ Dennoch gebe es Videos auf der Plattform, die Kinder besser nicht sehen sollten. „Und ganz ehrlich? Ich würde meinem Kind TikTok nicht erlauben.“
Auf Anfrage teilt TikTok mit: „Wir reagieren weiterhin auf den Krieg in der Ukraine mit erhöhten Schutz- und Sicherheitsressourcen, um neue Bedrohungen zu erkennen und schädliche Fehlinformationen zu entfernen.“ Zudem verweist TikTok auch auf die Zusammenarbeit mit unabhängigen Organisationen, die Fakten für sie checkten.
Der Film „TikTok-Krieg: So machen Russland & Ukraine TikTok zum Schlachtfeld“ ist abrufbar unter www.youtube.de/vollbild und in der ARD-Mediathek.
Ukraine-Krieg: Was tut TikTok gegen Propaganda? 5.323 Aufrufe – 23.08.2022 –VOLLBILD
Propaganda und Desinformation fluten den Newsfeed. Bilder von tödlichen Raketen am Himmel, verstörten Kriegsgefangenen und Leichen auf den Straßen gelangen auf die Smartphones der zum Teil jungen Nutzerinnen und Nutzer. In Echtzeit.
Wie kann das sein? Wer steckt hinter den zahlreichen Videos vom Krieg? Und wer prüft eigentlich, was wir auf TikTok sehen? TikTok will eine sichere Plattform für seine Community sein. Man habe sich dem Kampf gegen Desinformation verschrieben. Unter anderem durch Fact Checking und Content-Moderation.
Doch mit einem Selbsttest zeigen wir, wie leicht und schnell uns der TikTok-Algorithmus fast ausschließlich Kriegsinhalte und Propaganda vorschlägt. Die bittere Realität: TikTok ist zum Schlachtfeld im Ukraine-Krieg geworden. Journalistin Tasnim Rödder spricht für VOLLBILD mit Social Media-Kriegern auf russischer und ukrainischer Seite. Ein Whistleblower von TikTok gibt außerdem Einblicke hinter die Kulissen der Content-Plattform aus China. Was also ist dran am Versprechen der Social Media-Plattform, “dem Kampf gegen die Verbreitung von Fehlinformationen auf der Plattform verpflichtet” und ein Ort , “an dem authentische und vertrauenswürdige Inhalte gedeihen”, zu sein? IM VIDEO: Tasnim Rödder auf Twitter: https://twitter.com/Tasnim_Ro
KAPITEL: 00:00 Intro: Welche Rolle spielt TikTok im Ukraine-Krieg? 01:27 Wie funktioniert Kriegsführung online? 04:22 Der Hype um Warfluencer Storm Balderson – das steckt dahinter 06:36 Banning, Propaganda und Co – so agiert TikTok im Krieg 07:18 Wie verbreiten Influencer wie Deniz Krabag Kriegs-Content? Welche Netzwerke gibt es? 12:01 Desinformation und Propaganda – was ist legal? Was ist das Interesse der Plattformen? 12:47 Selbstversuch: Wie sehr wird Kriegs-Content vom Algorithmus unterstützt? 15:18 Wie geht TikTok mit gemeldeten Inhalten um? Ein Content-Moderator packt aus 18:03 Unter welchen Bedingungen arbeiten Content-Moderatoren bei TikTok? 19:03 Konfrontation & Stellungnahme: Was sagt TikTok zu unseren Recherchen? 19:46 Was bewegt Warfluencer Storm Balderson zu seinen Taten? 21:17 Konfrontation: Wie rechtfertigt Deniz Karabag die Verbreitung rechtsextremer Inhalte durch seinen Verein? 22:36 Meinungsfreiheit vs. Desinformation und Propaganda: Welche Rolle spielen soziale Medien im Krieg? 23:24 Fazit: Wie kann TikTok den TikTok-Krieg beenden?
Neuerungen bei Tiktok: Mehr Jugendschutz und Einfluss auf Inhalte
Quelle: t3n.de https://t3n.de/news/neuerungen-tiktok-mehr-einfluss-1485851/ – Hannah Klaiber – 13.07.2022
In den kommenden Wochen will das Videoportal Neuerungen einführen, die den Nutzer:innen mehr Macht über gezeigte Inhalte geben und den Content für verschiedene Altersgruppen filtern.
Das Videoportal Tiktok ist eine der beliebtesten Apps bei jungen Menschen. Rund 1,6 Milliarden aktive Nutzer:innen hat das Portal, auf dem täglich unzählige kurze Videoclips hochgeladen und konsumiert werden. Dabei reicht die inhaltliche Spannweite von harmlosen Tanzchoreografien über selbstgedrehte Sketche und Horrorclips bis hin zu Verschwörungstheorien und Falschinformationen.
25 Prozent der Tiktok-Nutzer:innen sind zwischen 10 und 19 Jahren alt. Es tummeln sich also eine Menge Minderjährige auf der bisher relativ unregulierten App. Natürlich führt das auf Dauer zu Problemen, denen der chinesische Konzern Bytedance nun entgegenwirken will.
Tiktok-Bewertungssystem: Content-Levels sollen Inhalte anpassen
Erst kürzlich war das Videoportal aufgrund seiner Pläne zur ungefragten Datenverarbeitung in die Kritik geraten und ruderte zurück. Jetzt veröffentlicht das Unternehmen in einer offiziellen Ankündigung Pläne, die auf mehr Gegenliebe stoßen dürften: Künftig sollen Moderator:innen das hochgeladene Material sichten und in ein Bewertungssystem – die sogenannten Content-Levels – einstufen, das dem US-amerikanischen Jugendschutzsystem von G (General Audiences) bis R (Restricted) entspricht.
Diese erste Maßnahme soll Teenager künftig davor schützen, mit unangemessenen Videos – zum Beispiel gewalttätiger oder sexueller Natur – konfrontiert zu werden. So heißt es in der Ankündigung: „Wenn wir ein Video entdecken, das erwachsene oder komplexe Themen beinhaltet, zum Beispiel fiktionale Szenen, die zu unheimlich oder spannungsgeladen für jüngeres Publikum sind, wird dem Video eine Altersbewertung zugeteilt, die Minderjährige davor schützt, dieses Video zu sehen.“
Hashtags auf Tiktok können stummgeschaltet werden
Außerdem plant der App-Betreiber in einem zweiten Schritt, Anwender:innen mehr Möglichkeiten einzuräumen, darüber zu bestimmen, was sie in ihren Feeds sehen wollen. So soll man künftig in der Lage sein, von vornherein Videos auszublenden, die mit bestimmten Hashtags versehen sind.
Trotz der geplanten Maßnahmen will Tiktok die Erwartungen nicht zu hoch schrauben: „Wir wissen auch, dass das, was wir uns vorgenommen haben, komplex und nur schwer zu erreichen ist. Es kann sein, dass wir Fehler machen.“ Wie zuverlässig und unter welchem personellen Aufwand die Alterskontrolle dann im Detail funktioniert, wird sich wohl in den nächsten Wochen zeigen.