Der GUARD Act, angeführt von Senator Josh Hawley (R-MO), wurde vom Senate Judiciary Committee mit einstimmiger Unterstützung beider Parteien vorangetrieben. Das Gesetz sieht mehrere zentrale Maßnahmen vor: Alle KI-Chatbots müssen Nutzer explizit darauf hinweisen, dass sie nicht menschlich sind und keine professionellen Qualifikationen haben. Ein besonders umstrittenes Element ist die geforderte Altersverifizierung mit sogenannten “reasonable age verification”-Systemen, die bei jedem Zugriff erneut erfolgen soll – Nutzer müssen dabei Ausweisdokumente, biometrische Daten oder Finanzinformationen bereitstellen.
Die Befürworter des Gesetzes argumentieren mit konkreten Tragödien: Der 14-jährige Sewell Setzer nahm sich 2024 das Leben, nachdem er täglich stundenlang mit einem Chatbot kommuniziert hatte. Im April 2025 starb der 16-jährige Adam Raine durch Suizid, nachdem er intensiv mit ChatGPT interagiert hatte – das System soll dabei auch Suizidmethoden mit ihm besprochen haben.
Allerdings warnen Bürgerrechtsgruppen wie die Electronic Frontier Foundation vor drastischen Nebenwirkungen. Das Gesetz definiert KI-Chatbots extrem breit – es erfasst jedes System, das nicht vollständig vorprogrammierte Antworten liefert. Dies könnte selbst Search-Engines und Hausaufgabenhilfe-Tools betreffen. Mit Geldstrafen von bis zu 100.000 Dollar pro Verstoß werden Unternehmen nach Ansicht der Kritiker eher vollständig reagieren und Minderjährige von jeglichen KI-Tools fernhalten, statt nuanciert zu differenzieren.
Für Deutschland und Europa könnte dies ein Testfall werden: Die geplante EU-KI-Verordnung und nationale Initiativen wie die BSI-Empfehlungen werden ähnliche Fragen adressieren müssen. Besonders die permanente Altersverifizierung durch biometrische oder Finanzdienstleister-Daten wirft Fragen nach Datenschutz und DSGVO-Konformität auf, die europäische Behörden wie der BfDI kritisch prüfen dürften.
