Der Justizausschuss des US-Senats hat am 30. April 2026 einstimmig mit 22:0 Stimmen den GUARD Act verabschiedet. Der parteiübergreifende Gesetzesentwurf verpflichtet KI-Anbieter wie OpenAI und Meta Platforms zu strengen Kinderschutzmaßnahmen. Unternehmen müssen künftig umfassende Altersverifizierungssysteme einführen, KI-Begleiter für Minderjährige blockieren und die Übermittlung schädlicher Inhalte unterbinden. Diese Initiative spiegelt den wachsenden politischen Willen wider, generative KI-Technologien für junge Nutzer sicherer zu gestalten und klare regulatorische Leitplanken zu setzen.
- Der US-Justizausschuss hat den GUARD Act einstimmig gebilligt, um Minderjährige durch strenge KI-Richtlinien besser zu schützen.
- Anbieter wie OpenAI und Meta müssen künftig verbindliche Altersverifizierungen einführen und KI-Begleiter für Kinder blockieren.
- Mit diesem massiven Schritt zum digitalen Kinderschutz nähern sich die USA der strengeren europäischen KI-Gesetzgebung an.
Regulierungs-Check: Was der GUARD Act für KI-Anbieter bedeutet
Der am 30. April 2026 verabschiedete GUARD Act (Guidelines for User Age-verification and Responsible Dialogue) von Senator Josh Hawley zielt direkt auf die Interaktion zwischen Minderjährigen und generativer KI ab. Parallel dazu gewinnt der CHATBOT Act der Senatoren Ted Cruz und Brian Schatz an Bedeutung, der spezifische elterliche Kontrollmöglichkeiten über die Nutzung von Chatbot-Systemen fordert. Obwohl die Gesetze technologieoffen formuliert sind, betreffen sie primär Marktführer wie OpenAI (ChatGPT) und Meta (KI-Integrationen in WhatsApp und Instagram). Der Entwurf sieht vor, dass Eltern über Family Accounts die KI-Nutzung ihrer Kinder überwachen können. Manipulative Design-Merkmale, zielgerichtete Werbung für Minderjährige und KI-Begleiter-Funktionen sollen untersagt werden.
Der GUARD Act ist Teil einer breiteren US-Initiative zum digitalen Kinderschutz. Bereits am 5. März 2026 verabschiedete der Senat COPPA 2.0 einstimmig, wodurch der Datenschutz auf Jugendliche unter 17 Jahren ausgeweitet wurde. Während im Repräsentantenhaus der KIDS Act debattiert wird, setzen Bundesstaaten wie Kalifornien bereits eigene Akzente bei der Risikobewertung von KI-Systemen. Der politische Druck resultiert aus dokumentierten Fällen, in denen Chatbots an der Selbstverletzung von Minderjährigen beteiligt waren, was eine seltene überparteiliche Einigkeit in Washington erzwang.
Global betrachtet synchronisieren sich die USA damit mit dem europäischen Rechtsraum. Der EU AI Act sieht ab August 2025 erste Regeln für GPAI-Modelle vor, während ab August 2026 strikte Auflagen für Hochrisiko-Systeme greifen. Verstöße gegen diese EU-Vorgaben können Sanktionen von bis zu 35 Millionen Euro oder sechs Prozent des weltweiten Jahresumsatzes nach sich ziehen. Für KI-Anbieter mit minderjährigen Nutzern bleiben zudem die Artikel 22 und 35 der DSGVO bezüglich automatisierter Entscheidungen und Datenschutz-Folgenabschätzungen hochrelevant. Die einstimmige Entscheidung im US-Ausschuss signalisiert: Investitionen in Sicherheit und Altersverifikation sind für KI-Unternehmen keine Option mehr, sondern eine geschäftskritische Notwendigkeit.
❓ Häufig gestellte Fragen
✅ 10 Claims geprüft, davon 6 mehrfach verifiziert
📚 Quellen