Untersuchung zum DSA: TikTok und Instagram vernachlässigen Jugendschutz​

Soziale Netzwerke löschen nur 1-30 Prozent gemeldeter Beiträge zu Essstörungen, Selbstverletzungen und Suiziden. Forscher wittern DSA-Verstöße.​

In Pocket speichern vorlesen Druckansicht 2 Kommentare lesen
Kind am Smartphone

(Bild: Miljan Zivkovic/Shutterstock.com)

Lesezeit: 4 Min.

Auf Probleme beim Jugendschutz machen Experten der zivilgesellschaftlichen Organisation Reset.tech aufmerksam. Sie haben die Moderations- und Filtersysteme, die Verständlichkeit der Nutzungsbedingungen für junge Mitglieder und die Empfehlungsalgorithmen von TikTok, X und Instagram untersucht. Laut Studienergebnis verstoßen diese Sozialen Netzwerke vielleicht gegen den Digital Services Act (DSA). Sollte sich die EU-Kommission dieser Einschätzung anschließen, würden den Betreibern schwere Sanktionen drohen.

Für die Analyse haben die Forscher auf jedem der drei Sozialen Netzwerke zusammen mit einer Psychologin 200 Beiträge mit Bildern und Videos ausgemacht, die Essstörungen, Selbstverletzungen oder Suizid verharmlosen oder gar verherrlichen. Diese jugendgefährdenden Inhalte meldeten sie im Anschluss an den jeweiligen Betreiber. Die nächsten vier Wochen lang verfolgten die Studienmacher, ob die Postings gelöscht, mit einem Warnhinweis versehen oder einfach weiter unverändert online gelassen wurden.

Laut den jetzt veröffentlichten Ergebnissen ist die Löschrate bei Instagram am höchsten, und zwar bei Beiträgen zu Suizid und Selbstverstümmelung mit Bildern etwa von Wunden oder Narben. 30 Prozent solcher Postings löschte das zum Meta-Konzern gehörende Unternehmen. X kommt bei diesen Inhalten auf eine Löschquote von 13 Prozent, bei TikTok liegt sie nur bei rund einem Prozent. Bei Aufnahmen mit Hinweisen auf Gewichtsverluste etwa durch hervorstehende Rippen und Rückenknochen reagierten die Betreiber auf die Eingaben noch seltener und löschen im Durchschnitt nur jeden zehnten Beitrag.

Das deutlich kleinere Angebot X blieb noch unter dieser Quote. Das automatisierte Empfehlungssystem fördert laut der Untersuchung zudem die Verbreitung von Inhalten aus allen drei Kategorien. Sogar Hashtags zu Suiziden und Selbstverletzungen würden "unverhältnismäßig stark" gepusht.

Bei allen drei Plattformen gehen die Experten zudem davon aus, dass ein 13-Jähriger zum Zeitpunkt der Anmeldung für das jeweilige Netzwerk rechtliche Komponenten wie die Nutzungsbedingungen oder die Cookie-Hinweise nicht versteht. Teils seien diese nur in ausgewählten Sprachen verfügbar. Zudem setzten X und Instagram auf Designtricks ("Dark Patterns"), um potenzielle Nutzer zu einer Mitgliedschaft zu treiben.

Reset hat auch die Systeme zur Werbeschaltung von Google, TikTok und Meta unter die Lupe genommen, mit Fokus auf den Jugendschutz. Dabei stellte die Organisation mit Blick auf den DSA und die Datenschutz-Grundverordnung (DSGVO) diverse problematische Praktiken fest. So habe TikTok bei seinem Anzeigenmanager Pangle die gezielte Ausrichtung auf Minderjährige anhand der Auswahl von Altersparametern nicht vollständig entfernt. Ein implizites Targeting auf Basis von Gruppen wie "Elternteil" oder durch Assoziation mit Interessen, zum Beispiel bei einer Suche nach der Kinder-Zeichentrickserie "Paw Patrol", könne über Identitätsanbieter bei allen drei Werbeplattformen direkt erfolgen.

Benutzerdefinierte Zielgruppen, die sich aufgrund des bewussten oder mehr oder weniger automatisch erfolgenden Hochladens personenbezogener Daten erstellen lassen, erleichtern den Forschern zufolge die direkte Ansprache minderjähriger Nutzer weiter. Die internen Richtlinien von Google unterschieden zwischen IP-Adressen und anderen identifizierenden Informationen. Dies ermögliche das Schalten von Anzeigen für Jugendliche basierend auf dem Standort; dieser lässt sich auch ohne GPS abschätzen, beispielsweise durch Verbindung mit einem WLAN.

Studienleiterin Rys Farthing zeigte sich gegenüber dem NDR "erschrocken" über das Versagen der Plattformen. Sie sieht die EU-Kommission in der Pflicht, die DSA-Einhaltung besser zu kontrollieren. Seitens der Behörde hieß es dazu, die Plattformen hätten erste Berichte zur DSA-Umsetzung vorgelegt, die noch geprüft würden. Meta und TikTok verwiesen darauf, bereits umfangreiche Sicherheitsmaßnahmen getroffen zu haben. Beispielsweise stelle Instagram zu Hashtags wie #anorexie Hinweise auf Hilfsangeboten. Es gelte aber auch, die Meinungsfreiheit zu wahren.

(ds)