DatenschutzCyberkriminalität

Britische Regulierer fordern: Soziale Medien müssen Kinder unter 13 Jahren aussperren

Britische Regulierer fordern: Soziale Medien müssen Kinder unter 13 Jahren aussperren
Zusammenfassung

Britische Behörden verschärfen den Druck auf große Soziale-Netzwerk-Plattformen: Die Informationsbeauftragte ICO und die Regulierungsbehörde Ofcom haben diese Woche ein Ultimatum gestellt und fordern Facebook, Instagram, TikTok, YouTube, Snapchat und andere populäre Dienste auf, robuste Altersverifizierungssysteme einzubauen, um Kindern unter 13 Jahren den Zugang zu verwehren. Die britischen Regulatoren erwarten sofortige Maßnahmen – Ofcom setzt die Frist bis Ende April. Hintergrund ist eine wachsende internationale Bewegung zur Sicherung von Kindern im Internet: Mehrere europäische Länder diskutieren oder implementieren bereits Social-Media-Verbote für Minderjährige. Großbritannien prüft aktuell ein Verbot für unter 16-Jährige. Die Regulatoren kritisieren, dass Plattformen bislang hauptsächlich auf Selbstdeklaration setzen – ein System, das leicht zu umgehen ist. Moderne Altersverifizierungstechnologien seien verfügbar, würden aber nicht genutzt. Dies hat auch für deutsche Nutzer, Unternehmen und Behörden Relevanz: Als Teil des globalen Digitalen Binnenmarkts sind deutsche Plattform-Nutzer ähnlichen Risiken ausgesetzt. Deutsche Regulatoren könnten diesen Ansatz als Vorbild für strengere Datenschutz- und Jugendschutzrichtlinien nutzen. Für deutsche Tech-Unternehmen bedeutet dies möglicherweise neue regulatorische Standards in Europa.

Die britischen Behörden kritisieren die derzeitige Praxis der großen Plattformen scharf. Viele Dienste setzen zwar ein Mindestalter von 13 Jahren voraus, verlassen sich aber vollständig auf die ehrliche Selbstangabe der Nutzer – ein System, das leicht zu umgehen ist. “Da Selbstmeldungen problemlos manipuliert werden können, erhalten Kinder unter 13 Jahren einfach Zugang zu Diensten, die nicht für sie entwickelt wurden”, heißt es im offenen Brief der ICO. “Dies gefährdet diese Altersgruppe, da ihre Daten unrechtmäßig erfasst und ohne die zustehenden Schutzmaßnahmen verwendet werden können.”

Die ICO betont, dass moderne Altersverifikationstechnologien in den letzten Jahren erhebliche Fortschritte gemacht haben, aber viele Dienste diese weiterhin nicht einsetzen. Das ist besonders bemerkenswert: Die Technologie existiert, wird aber nicht angewendet.

Ofcom verschärft den Druck zusätzlich durch konkrete Forderungen: Plattformen müssen wirksame Altersverifikationsprotokolle implementieren, “ausfallsichere” Schutzmaßnahmen gegen Grooming-Versuche einbauen, sicherere Feeds gestalten und Produkttests mit Kindern beenden. Die Regulierungsbehörde plant, die Antworten der Unternehmen im Mai öffentlich zu machen und könnte dann weitere Regulierungsmaßnahmen ankündigen.

Dame Melanie Dawes, Chief Executive von Ofcom, drückt die Frustration aus: “Diese Online-Dienste sind bekannte Marken, aber sie machen Kindersicherheit nicht zum Kern ihrer Produkte. Es klafft eine Lücke zwischen dem, was Technologiefirmen privat versprechen, und dem, was sie öffentlich tun.”

Besonders alarmierend sind Ofcoms Forschungsergebnisse: 72 Prozent der Kinder zwischen 8 und 12 Jahren nutzen diese Plattformen bereits. Eine Altersgruppe, die laut EU-DSGVO und britischem Datenschutzrecht besonderen Schutz benötigt.

Dieser britische Vorstoß erfolgt im Kontext einer internationalen Debatte. Australien führte bereits ein Verbot sozialer Medien für unter 16-Jährige durch, und die britische Regierung zieht ähnliche Maßnahmen in Betracht. Die Frist bis Ende April wird zeigen, ob die Plattformen bereit sind, ihre Geschäftsmodelle zugunsten des Kinderschutzes anzupassen – oder ob strengere Regulierung folgt.