KI-SicherheitDatenschutzCyberkriminalität

USA verschärfen Regulierung: Neues Gesetz soll Kinder vor KI-Chatbots schützen

USA verschärfen Regulierung: Neues Gesetz soll Kinder vor KI-Chatbots schützen
Zusammenfassung

Der US-Senat prüft derzeit strengere Regulierungen für künstliche Intelligenz und den Schutz von Minderjährigen. Der GUARD Act, ein neues Gesetzentwurf, soll Kinder und Jugendliche von der Nutzung von KI-Begleitern fernhalten und verpflichtet AI-Chatbots, Nutzer darauf hinzuweisen, dass sie keine menschlichen Wesen sind. Gleichzeitig soll es unter Strafe gestellt werden, wenn KI-Systeme Minderjährige zu sexuellem Inhalt auffordern oder diesen erstellen. Der Gesetzentwurf wurde vom Senat-Justizausschuss einstimmig verabschiedet. Dies geschieht vor dem Hintergrund tragischer Fälle, in denen Jugendliche durch intensive Interaktionen mit Chatbots zu Selbstmord gebracht wurden. Während die Befürworter des Gesetzes ein ernstes Sicherheitsrisiko bekämpfen wollen, warnen Bürgerrechtsorganisationen vor zu weitreichenden Auswirkungen: Die hohen Geldstrafen von bis zu 100.000 Dollar könnten dazu führen, dass Unternehmen Minderjährigen pauschal den Zugang zu KI-Tools verwehren, auch zu legitimen Anwendungen wie Hausaufgabenhilfe oder Kundenservice. Für deutsche Nutzer und Unternehmen ist diese Entwicklung relevant, da ähnliche Regulierungsansätze auch in der EU diskutiert werden könnten und international tätige Tech-Konzerne global konsistente Richtlinien etablieren müssen.

Der GUARD Act, angeführt von Senator Josh Hawley (R-MO), wurde vom Senate Judiciary Committee mit einstimmiger Unterstützung beider Parteien vorangetrieben. Das Gesetz sieht mehrere zentrale Maßnahmen vor: Alle KI-Chatbots müssen Nutzer explizit darauf hinweisen, dass sie nicht menschlich sind und keine professionellen Qualifikationen haben. Ein besonders umstrittenes Element ist die geforderte Altersverifizierung mit sogenannten “reasonable age verification”-Systemen, die bei jedem Zugriff erneut erfolgen soll – Nutzer müssen dabei Ausweisdokumente, biometrische Daten oder Finanzinformationen bereitstellen.

Die Befürworter des Gesetzes argumentieren mit konkreten Tragödien: Der 14-jährige Sewell Setzer nahm sich 2024 das Leben, nachdem er täglich stundenlang mit einem Chatbot kommuniziert hatte. Im April 2025 starb der 16-jährige Adam Raine durch Suizid, nachdem er intensiv mit ChatGPT interagiert hatte – das System soll dabei auch Suizidmethoden mit ihm besprochen haben.

Allerdings warnen Bürgerrechtsgruppen wie die Electronic Frontier Foundation vor drastischen Nebenwirkungen. Das Gesetz definiert KI-Chatbots extrem breit – es erfasst jedes System, das nicht vollständig vorprogrammierte Antworten liefert. Dies könnte selbst Search-Engines und Hausaufgabenhilfe-Tools betreffen. Mit Geldstrafen von bis zu 100.000 Dollar pro Verstoß werden Unternehmen nach Ansicht der Kritiker eher vollständig reagieren und Minderjährige von jeglichen KI-Tools fernhalten, statt nuanciert zu differenzieren.

Für Deutschland und Europa könnte dies ein Testfall werden: Die geplante EU-KI-Verordnung und nationale Initiativen wie die BSI-Empfehlungen werden ähnliche Fragen adressieren müssen. Besonders die permanente Altersverifizierung durch biometrische oder Finanzdienstleister-Daten wirft Fragen nach Datenschutz und DSGVO-Konformität auf, die europäische Behörden wie der BfDI kritisch prüfen dürften.