DatenschutzCyberkriminalitätKI-Sicherheit

US-Senator startet Untersuchung gegen acht Tech-Giganten wegen mangelhafter CSAM-Meldungen

US-Senator startet Untersuchung gegen acht Tech-Giganten wegen mangelhafter CSAM-Meldungen
Zusammenfassung

Ein US-Senator hat eine Untersuchung gegen acht Technologieriesen eingeleitet, darunter Meta, Amazon AI Services, TikTok, Snapchat, Discord, X.AI, Grindr und Roblox, weil diese angeblich unzureichend über Kindesmissbrauchsmaterial (CSAM) an das nationale Meldezentrum berichten. Obwohl die Plattformen 2025 über 17 Millionen verdächtige Fälle von Kinderausbeutung meldeten, kritisiert das National Center for Missing and Exploited Children (NCMEC), dass wichtige Daten wie Standortinformationen und Nutzerdetails fehlen. Das ist besorgniserregend, da 81 Prozent aller Meldungen des Cyber Tipline von diesen acht Unternehmen stammen. Für Deutschland und europäische Nutzer ist diese Entwicklung relevant, da viele dieser Plattformen auch hier massiv genutzt werden und ähnliche Compliance-Anforderungen durch die digitalen Dienste-Gesetze entstehen. Deutsche Behörden und Plattformbetreiber sollten aufmerksam verfolgen, wie die US-Regulierung die Berichterstattung über Kindesmissbrauch verschärft, da dies Auswirkungen auf ihre eigenen Meldepflichten haben könnte und zeigt, wie unzureichend die bisherigen Schutzmaßnahmen sind.

Die Untersuchung wurde vom Vorsitzenden des US-Senatsausschusses für Justiz, Chuck Grassley, eingeleitet. NCMEC, die seit fast 30 Jahren gegen Kinderausbeutung im Internet kämpft, hatte Grassley detaillierte Vorwürfe übermittelt. Die zentrale Kritik: Obwohl die acht Tech-Unternehmen Millionen von Berichten einreichen, fehlten diesen Meldungen essentielle Informationen wie Standortdaten und Nutzerdetails – Informationen, die für Strafverfolgungsbehörden entscheidend sind.

Besonders bemerkenswert ist die Dimension des Problems: NCMEC zufolge stammten 81 Prozent aller Meldungen über die “Cyber Tipline” 2025 von genau diesen acht Unternehmen. Das bedeutet, dass mangelhaft dokumentierte Berichte direkt die Effektivität des gesamten Systems gefährden. Die NCMEC warnt deutlich: “Millionen von Berichten enthalten grundlegende Informationen nicht. Dies gefährdet Kinder online, kann zu Traumatisierung von Überlebenden führen, ermöglicht es Tätern, unbehelligt aktiv zu bleiben, und verschwendet wertvolle Ressourcen der Strafverfolgung.”

Grassley forderte die beteiligten Unternehmen auf, detailliert auf die Vorwürfe zu reagieren und ihre Verbesserungspläne für 2025 darzulegen. Die Tech-Konzerne reagierten mit Gegendarstellungen: Meta betont seine Anstrengungen im Kampf gegen Kindesmissbrauch, Discord verweist auf die langjährige Zusammenarbeit mit NCMEC, und Snap erklärt, bereits Schritte zur Verbesserung der Datenqualität unternommen zu haben.

Grindr ging in seiner Stellungnahme in die Details: Das Unternehmen beschrieb seine AI-gestützte Moderation und Maßnahmen zur Identifikation verdächtiger Konten. Allerdings zeigt die Untersuchung: Das bloße Einreichen von Zahlen ist nicht ausreichend. Die Qualität, Genauigkeit und Vollständigkeit der gemeldeten Daten sind entscheidend für den echten Schutz von Kindern.

Die Untersuchung wirft wichtige Fragen auf: Mangelt es den Unternehmen an Ressourcen, an Willingness oder an technischen Möglichkeiten? Für deutsche Regulatoren und Datenschützer könnte dies ein Signal sein, auch hierzulande ähnliche Überprüfungen durchzuführen, besonders vor dem Hintergrund der geplanten EU-Regulierungen zur Bekämpfung von Kindesmissbrauch online.