Die Europäische Union hat festgestellt, dass Meta und TikTok Kinder auf ihren Plattformen nicht ausreichend geschützt haben. Laut den vorläufigen Ergebnissen der Europäischen Kommission haben beide Unternehmen gegen den Digital Services Act (DSA) verstoßen. Der Bericht zeigt, dass es für Nutzer schwierig war, illegale Inhalte wie Material über sexuellen Kindesmissbrauch zu melden. Außerdem sollen die Plattformen Forschern den Zugang zu wichtigen Daten erschwert haben, die nötig sind, um den Schutz von Minderjährigen zu überprüfen.
Der Digital Services Act der EU soll sicherstellen, dass große Online-Plattformen Verantwortung für die Inhalte auf ihren Diensten übernehmen. Er verpflichtet Unternehmen wie Meta und TikTok, schädliche oder illegale Inhalte zu bekämpfen und transparente Strukturen für Forschung und Aufsicht zu schaffen. Die Ergebnisse der EU zeigen jedoch, dass es in der Praxis erhebliche Defizite gibt. Kinder und Jugendliche sind laut den Untersuchungen weiterhin Risiken ausgesetzt, während wichtige Kontrollmechanismen blockiert oder behindert wurden.
Verstöße gegen den Digital Services Act
Nach den vorläufigen Ergebnissen der Europäischen Kommission haben Meta und TikTok gegen zentrale Verpflichtungen des Digital Services Act verstoßen. Beide Unternehmen sollen Forschern den Zugang zu öffentlichen Daten erschwert haben. Diese Daten sind notwendig, um zu untersuchen, ob Kinder auf den Plattformen illegalen oder schädlichen Inhalten ausgesetzt sind. Die EU stellte fest, dass die Verfahren und Tools, die Meta und TikTok für den Datenzugang bereitstellen, umständlich und unzuverlässig sind. In vielen Fällen erhielten Forscher nur unvollständige oder fehlerhafte Daten, was unabhängige Untersuchungen nahezu unmöglich machte.
Die Kommission betont, dass der DSA Plattformen verpflichtet, Forschern angemessenen Zugang zu gewähren, damit der Schutz der Nutzer überprüft werden kann. Indem Meta und TikTok dies behinderten, verletzten sie laut EU die Grundsätze von Transparenz und Rechenschaftspflicht.
Mangelhafte Meldeoptionen und „Dark Patterns“ bei Meta
Ein weiterer Kritikpunkt betrifft den Umgang mit illegalen Inhalten, insbesondere mit Material über sexuellen Kindesmissbrauch. Laut der EU-Kommission hat Meta es Nutzern schwer gemacht, solche Inhalte auf Facebook und Instagram zu melden. Beide Plattformen bieten offenbar keinen benutzerfreundlichen „Notice and Action“-Mechanismus, der es erleichtert, illegale Inhalte zu melden. Stattdessen seien die Meldeprozesse kompliziert und verwirrend gestaltet.
Die Kommission wirft Meta vor, sogenannte „Dark Patterns“ eingesetzt zu haben – also Designtricks, die Nutzer absichtlich in die Irre führen oder davon abhalten, bestimmte Handlungen auszuführen. In diesem Fall hätten die Dark Patterns den Prozess zur Meldung illegaler Inhalte erschwert. Damit steht Meta im Verdacht, gegen die Verpflichtungen des DSA zu verstoßen, der klare und einfache Meldewege vorschreibt.
Beide Unternehmen, Meta und TikTok, haben nun die Möglichkeit, zu den Vorwürfen Stellung zu nehmen. Sollten die Antworten nicht überzeugend sein, drohen Strafen von bis zu sechs Prozent des weltweiten Jahresumsatzes.
Interne Probleme bei Meta und neue Klagen in den USA
Parallel zu den Untersuchungen der EU steht Meta auch in den USA unter Druck. Mehrere Bundesstaaten werfen dem Konzern vor, seine Plattformen absichtlich so gestaltet zu haben, dass sie süchtig machen. Interne Untersuchungen des Unternehmens sollen schon 2021 gezeigt haben, dass insbesondere Instagram negative Auswirkungen auf die psychische Gesundheit von Teenagern hat – vor allem bei jungen Mädchen. Diese Erkenntnisse sollen jedoch unterdrückt worden sein.
Als die Ergebnisse durch Recherchen des Wall Street Journal öffentlich wurden, bestritt Meta, dass die Studien korrekt wiedergegeben worden seien. Trotzdem reichten mehrere US-Bundesstaaten Klagen ein, in denen Meta vorgeworfen wird, bewusst Produkte entwickelt zu haben, die für Teenager schädlich sind.
Ein Gericht in Washington D.C. hat nun entschieden, dass Meta sich nicht auf das Anwaltsgeheimnis berufen darf, um interne Dokumente vor den Ermittlern zu verbergen. Richterin Yvonne Williams stellte fest, dass Metas Anwälte den Forschern geraten haben sollen, belastende Ergebnisse „zu entfernen“, „zu blockieren“ oder „zu verschließen“. Laut Williams fiel diese Kommunikation unter die Ausnahmeregelung zum Anwaltsgeheimnis, weil sie dazu diente, mögliche Haftungsrisiken zu verschleiern oder Betrug zu begehen. Die erste der Klagen gegen Meta soll im kommenden Jahr verhandelt werden.
Mögliche Konsequenzen für Meta und TikTok
Die Untersuchungen der EU sind noch nicht abgeschlossen. Sollte sich der Verdacht bestätigen, könnten Meta und TikTok hohe Strafen drohen. Der Digital Services Act sieht vor, dass Unternehmen, die gegen zentrale Verpflichtungen verstoßen, mit Geldbußen von bis zu sechs Prozent ihres weltweiten Jahresumsatzes belegt werden können. Für Meta und TikTok, deren jährliche Umsätze in Milliardenhöhe liegen, wäre das ein deutliches Signal.
Die EU-Kommission will mit dem DSA sicherstellen, dass große Plattformen Verantwortung übernehmen – insbesondere, wenn es um den Schutz junger Menschen geht. Der Fall Meta und TikTok zeigt, dass diese Verantwortung in der Praxis oft zu kurz kommt. Während die Unternehmen in der Öffentlichkeit betonen, Sicherheit und Jugendschutz ernst zu nehmen, deuten die aktuellen Vorwürfe auf das Gegenteil hin.
Kinderschutz im Netz: Die EU macht ernst mit dem Digital Services Act
Die Ergebnisse der EU-Untersuchung machen deutlich, dass der Schutz von Kindern und Jugendlichen im Internet noch immer nicht ausreichend gewährleistet ist. Weder Meta noch TikTok konnten zeigen, dass sie den Anforderungen des Digital Services Act gerecht werden. Die Hindernisse für Forscher, die komplizierten Meldeprozesse und der mögliche Einsatz von Dark Patterns werfen ein schlechtes Licht auf den Umgang der Unternehmen mit Verantwortung und Transparenz.
Die EU hat mit dem DSA ein starkes Werkzeug geschaffen, um digitale Plattformen zur Rechenschaft zu ziehen. Sollten Meta und TikTok ihre Verpflichtungen weiterhin nicht erfüllen, wird die Kommission Strafen verhängen und strengere Maßnahmen prüfen. Der Fall zeigt, dass die Zeit, in der große Tech-Konzerne ohne ernsthafte Konsequenzen handeln konnten, vorbei ist. Die EU will sicherstellen, dass Kinder und Jugendliche im digitalen Raum nicht nur Nutzer, sondern auch geschützt sind. (Bild: Shutterstock / PV productions)
- Apple bleibt stark: JP Morgan sieht Kursziel jetzt bei 290 Dollar
- Apple hielt exklusives Vision Pro-Event für Entwickler ab
- Swift SDK: Android-Unterstützung markiert Wendepunkt für Apple
- Apple baut AirPods-Produktion in Indien deutlich aus
- iOS 26.1 führt stabile Foto-Backups für Drittanbieter-Apps ein
- Apple im Leak-Prozess: Fanboy sucht außergerichtliche Lösung
- M5 MacBook Pro im Teardown: Leistung top, Reparatur flop
- Apple überrascht mit starkem Wachstum bei Mac-Verkäufen
- Apple beschleunigt US-Produktion für eigene KI-Server
- Vimeo erweitert 3D-Unterstützung für Apple Vision Pro
- Zieht Apple App-Tracking-Schutz wegen EU-Druck zurück?
- Zukünftiges iPhone könnte größere NFC-Reichweite erhalten
- iPhone Air: Produktion sinkt drastisch nach Verkaufsflaute
- Apple Aktie im Fokus: Wells Fargo hebt Ziel auf 290 Dollar
- Apple Vision Pro laut Apple nicht für Inzahlungnahme qualifiziert
- Apple arbeitet an Tool zur App-Datenmigration auf Android
- iPhone Air schwächelt – Apple setzt auf andere Modelle




