Für Tiktok sind Behinderte ein «Risikofall»

(Neue Zürcher Zeitung)

Schlecht durch dachte Massnahme zum Schutz vor Cybermobbing beim chinesischen Social-Media-Netzwerk

GABRIELA DETTWILER

Tiktok scheint in puncto Skandalhäufigkeit in die Fussstapfen von Facebook zutreten. Nachdem der chinesische Konzern schon heftig für seinen Umgang mit Datenschutz und Zensur kritisiert worden ist, rückt nun die Moderation aufder Video-App in den Fokus. Netzpolitik, ein deutschsprachiger Blog für digitale Freiheitsrechte, beruft sich bei seiner Recherche auf eine Quelle innerhalb von Tiktok. Nachdem der Blog bereits veröffentlicht hatte, dass Tiktok Kritik ander eigenen Plattform oder die Nennung von Konkurrenten mit Reichweitendrosselungen bestraft habe, macht er nun publik, dass dasselbe Vorgehen auch bei Menschen mit Behinderung angewandt worden sei. Betroffen waren auch Personen aus der LGBTQ-Community oder Übergewichtige. Durch das Verstecken ihrer Inhalte wollte Tiktok diese Menschen offenbar vor Mobbing schützen.

Sehen die Nutzer von Tiktok keine Videos von gefährdeten Gruppen, geraten sie auch nicht in Versuchung, negativ auf sie zu reagieren – so die Logik von Tiktok. Der Mutterkonzern Bytedance spricht in seinen internen Moderationsregeln von Subjekten, die «auf Basis ihrer physischen oder mentalen Verfassung hochgradig verwundbar für Cyberbullying» seien. Gemäss Netzpolitik heisst es weiter, dass Mobbing nachweislich schlimme Folgen für die Betroffenen habe und deshalb Videos solcher Personen grundsätzlich als Risiko betrachtet und in ihrer Reichweite begrenzt werden sollten. Indem die Moderatoren die Nutzer als Risiko markierten, wurden deren Videos nur noch in ihrem Herkunftsland verbreitet. Die weltweite Reichweite von einer Milliarde Nutzern wurde der«Risikoperson» damit verwehrt.

Gezielt ausgegrenzt

Die Möglichkeiten von Tiktok gehenaber noch weiter. Besonders gefährdete Personen wurden zudem mit einer automatischen Deckelung versehen. Diese hatte unter anderem zur Folge, dass die Inhalte solcher Nutzer nicht mehr im «For You»-Feed, der Startseite von Tiktok und dem Geburtsort der Tiktok-Stars, erscheinen konnten. Wie entscheidet man aber konkret darüber, ob ein Mensch ein «Risikofall» ist oder nicht? Auch dafür hatte Tiktok vage Richtlinien. So werden die Stichworte «entstelltes Gesicht», «Autismus» und «Downsyndrom» genannt, aber auch Personen mit«Gesichtsproblemen wie Muttermalen,Silberblick und so weiter».

Aus Sicht der Inklusion von gesellschaftlichen Randgruppen ist eine solche Praxis des zurzeit am stärksten wachsenden sozialen Netzwerks haarsträubend. Behindertenorganisationen, aber auch Betroffene selbst setzen sich mit aller Kraft dafür ein, dass Menschen mit Behinderungen eine vollumfängliche Teilhabe am gesellschaftlichen Leben – und das schliesst Social Media mit ein – möglich ist. Genau das verhinderte Tiktok.

«Das Vorgehen von Tiktok ist erschreckend und aus unserer Sicht ganz klar diskriminierend», sagt auch Marc Moservon Inclusion Handicap, dem Dachverband der Behindertenorganisationen in der Schweiz, gegenüber der NZZ. «Dieser Fall läuft dem Inklusionsgedanken fundamental entgegen und zeigt einmal mehr auf, wie Menschen mit Behinderungen ausgegrenzt werden», so Moser.Das mache auch vor Social Media nicht halt: «Menschen mit Behinderung müssen denselben Zugang haben wie Menschen ohne Behinderung und selbst entscheiden, wie aktiv sie auf Social Media sein wollen und was sie dort posten.»

Täter-Opfer-Umkehr

Tiktok hat die Richtlinien nach eigenen Angaben in der Zwischenzeit durch«neue, nuancierte Regeln» ersetzt. Eine Sprecherin des Konzerns sagte gegenüber Netzpolitik: «Dieser Ansatz war nie als langfristige Lösung gedacht, und obwohl wir damit eine gute Absicht verfolgt haben, wurde uns klar, dass es sich dabei nicht um den richtigen Ansatz handelt.» Darüber, wie diese neuen Regeln aussehen und wie sie angewandt werden, schweigt sich das Unternehmen allerdings aus.

Ob die Moderationsregeln von Tiktok nun gut gemeint, naiv oder gar böswillig waren, sei dahingestellt. Klar ist jedoch,dass Tiktok eine Minderheit bestraft, um sie vor einer Mehrheit zu schützen – ein klassischer Fall von Täter-Opfer-Umkehr.

Quelle: Netzpolitik