US-amerikanische KI-Regulierung 2026: Der wesentliche Leitfaden zu den Bundesstaatsgesetzen

Nanobanana2 TeamApril 3, 2026

Washington hat sich weitgehend aus der bundesweiten KI-Regulierung zurückgezogen, die Bundesstaaten jedoch nicht. Im Jahr 2026 werden 78 Gesetzesentwürfe zur KI-Chatbot-Sicherheit in den Parlamenten von 27 Bundesstaaten behandelt, wobei insgesamt 98 Chatbot-spezifische Gesetzesentwürfe in 34 Bundesstaaten und drei bundesweite Vorschläge verfolgt werden (AI2Work, 2026). Das Ergebnis: Eine fragmentierte, aber zunehmend reale Compliance-Landschaft, die jedes KI-Unternehmen und jeder Entwickler verstehen muss.

Das ist nicht länger theoretisch. Kaliforniens SB 243 ist in Kraft. Oregons SB 1546 ist unterzeichnet. Tennessees Strafen für schädliches Chatbot-Design schreiten voran. Wenn Sie KI-Chatbots in den USA entwickeln, bereitstellen oder integrieren, operieren Sie bereits in einem regulierten Umfeld.

Die wichtigsten Erkenntnisse

  • 78 Gesetzesentwürfe zur KI-Chatbot-Sicherheit sind 2026 in 27 Bundesstaaten aktiv (AI2Work, 2026)
  • Kaliforniens SB 243 (Offenlegung bei Begleiter-Chatbots) trat am 1. Januar 2026 in Kraft und wird als gesetzgeberische Vorlage übernommen
  • Oregons SB 1546 verpflichtet Chatbots, ihren nicht-menschlichen Status offenzulegen und Protokolle für Suizid- und Selbstverletzungsgefahr zu haben
  • Die vorgeschlagene Gesetzgebung in Tennessee würde das Trainieren von KI zur Ermutigung von Selbstverletzung zu einem strafrechtlichen Vergehen machen

Warum handeln die Bundesstaaten, während die Bundesregierung zögert?

Die Exekutivanordnung der Trump-Administration zur KI Anfang 2026 signalisierte, dass die bundesweite KI-Regulierung locker bleiben würde – sie priorisiert die Wettbewerbsfähigkeit der USA gegenüber Verbraucherschutzvorgaben. Das hinterließ ein regulatorisches Vakuum, und die Landesparlamente eilten, es zu füllen.

Kalifornien ist der Vorreiter. Sein SB 243, das am 1. Januar 2026 in Kraft trat, etablierte Offenlegungspflichten für KI-Begleiter-Chatbots – Dienste, die emotionale Beziehungen zu Nutzern aufbauen. Wenn Kalifornien handelt, folgen andere Bundesstaaten. SB 243 wird nun als Vorlage von Gesetzgebern in mindestens einem Dutzend weiterer Bundesstaaten zitiert (Troutman Privacy, 2026).

Das praktische Ergebnis für Unternehmen: Es gibt keinen einzigen bundesweiten Standard, an den man sich halten kann. Stattdessen gibt es einen wachsenden Flickenteppich von Landesgesetzen mit unterschiedlichen Definitionen, Schwellenwerten und Strafen.

Welche KI-Gesetze sind bereits in Kraft?

Kalifornien – Fokus auf Offenlegung und Gesundheits-KI

Kaliforniens drei aktive KI-Gesetzesentwürfe für 2026 zielen auf spezifische Hochrisikokategorien ab:

  • SB 243 (in Kraft ab 1. Januar 2026) – Offenlegungspflichten für Chatbot-Begleiter
  • SB 1146 reguliert den Einsatz von KI in gesundheitsbezogener Werbung
  • AB 2575 reguliert den KI-Einsatz in Gesundheitsdienstleistungen

Gouverneur Newsom hat sich klar positioniert: Der Staat, nicht die Bundesregierung, wird bestimmen, wie KI-Unternehmen Risiken innerhalb der Grenzen Kaliforniens managen. Mit der fünftgrößten Volkswirtschaft der Welt setzen Kaliforniens Regeln de facto einen nationalen Mindeststandard für jedes Unternehmen, das Zugang zum kalifornischen Markt will.

Oregon – Das grundlegende Chatbot-Sicherheitsgesetz

Gouverneurin Tina Kotek unterzeichnete das Gesetz SB 1546, das mit 26:1 Stimmen den Senat passierte. Der Gesetzentwurf legt zwei Grundanforderungen für jeden in Oregon eingesetzten Chatbot fest (AI Chatbot Legislation, 2026):

  1. Menschliche Offenlegung: Wenn eine vernünftige Person glauben könnte, der Chatbot sei menschlich, müssen Nutzer darüber informiert werden, dass dies nicht der Fall ist.
  2. Protokolle für psychische Gesundheit: Chatbot-Anbieter müssen dokumentierte Verfahren für den Umgang mit Suizidgedanken und Selbstverletzungs-Signalen von Nutzern vorhalten.

Diese Anforderungen gelten für jeden Chatbot, der für Einwohner Oregons zugänglich ist, unabhängig davon, wo das Unternehmen eingetragen ist. Ein KI-Startup aus New York mit Nutzern in Oregon muss sich daran halten.

Tennessee – Strafrechtliche Sanktionen für schädliches KI-Design

Das Gesetzespaket HB 1470/SB 1580 von Tennessee geht am weitesten. Die vorgeschlagene Gesetzgebung würde folgendes zu einem strafrechtlichen Vergehen machen:

  • Ein KI-Modell zu trainieren, um Selbstverletzung oder Suizid zu fördern
  • Chatbots zu entwickeln, die darauf ausgelegt sind, emotionale Abhängigkeiten zu erzeugen, die zu schädlichen Ergebnissen führen

Die Gesetzentwürfe haben den Senat passiert und sind durch einen Unterausschuss des Repräsentantenhauses gelangt (Future of Privacy Forum, 2026). Bei Unterzeichnung wäre Tennessee der erste Bundesstaat, der KI-Entwickler für schädliche Design-Entscheidungen nicht nur zivilrechtlich, sondern auch strafrechtlich haftbar machen würde.

Der Auslöser: Der Tod eines Teenagers im Jahr 2023, der eine intensive emotionale Bindung an einen Character.AI-Chatbot entwickelt hatte. Dieser Fall trieb die gesetzgeberische Dringlichkeit voran und wird in Anhörungen landesweit zitiert.

Was sollten KI-Unternehmen jetzt tun?

Unmittelbare Compliance-Anforderungen

Wenn Sie Chatbots betreiben, die für US-Nutzer zugänglich sind, benötigen Sie wahrscheinlich:

  • Klare Kennzeichnung als Nicht-Mensch, Nicht in den Nutzungsbedingungen versteckt, sondern in der eigentlichen Benutzeroberfläche sichtbar
  • Protokolle für psychische Gesundheit, Dokumentierte Eskalationsverfahren bei Warnsignalen für Krisen
  • Geografische Compliance-Verfolgung, In verschiedenen Bundesstaaten gelten unterschiedliche Regeln

Die Compliance-Falle: "Wir sind nicht in Oregon tätig" ist nicht so eindeutig, wie es klingt. Wenn ein Nutzer in Oregon über einen Webbrowser oder eine mobile App auf Ihren Chatbot zugreifen kann, können die Aufsichtsbehörden von Oregon ihre Zuständigkeit geltend machen. Die sicherste Auslegung ist, dass die Landesgesetze überall dort gelten, wo Ihr Chatbot zugänglich ist, nicht dort, wo Ihr Unternehmen seinen Sitz hat.

Der Wandel der Haftung für das Design

Die strafrechtliche Einordnung als Vergehen in Tennessee stellt etwas Neues dar: Die Haftung verschiebt sich von den Ergebnissen zu den Designentscheidungen. Bisherige regulatorische Rahmenwerke konzentrierten sich darauf, was KI-Systeme taten. Der Ansatz von Tennessee fragt, wozu KI-Systeme entworfen wurden.

Wenn Ihr Modell auf eine Weise feinabgestimmt wurde, die schädliches Verhalten vorhersehbar fördert, könnte diese Designentscheidung nach dem vorgeschlagenen Rahmenwerk eine strafbare Handlung darstellen. Dies erzeugt einen Dokumentationsdruck: KI-Unternehmen benötigen Aufzeichnungen über Sicherheitsbewertungen, Red-Teaming-Ergebnisse und die Designbegründung, nicht nur Protokolle zur Reaktion auf Vorfälle.

Das Spannungsfeld zwischen Bund und Bundesstaaten

Die derzeitige Regierung bevorzugt Präemption, also die Verwendung von Bundesvorschriften, um KI-Gesetze der Bundesstaaten im Namen regulatorischer Kohärenz zu verdrängen. Mehrere Vorschläge im Kongress würden KI-Regulierungen der Bundesstaaten präemptieren, um einen einzigen nationalen Rahmen zu schaffen.

KI-Unternehmen stehen vor einer strategischen Wahl: Lobbyarbeit für bundesstaatliche Präemption betreiben (einfachere Compliance, potenziell schwächere Regeln) oder sich auf den Flickenteppich vorbereiten (komplexe Compliance, aber mit einem höheren Mindeststandard für den Verbraucherschutz). Wo Unternehmen hier landen, spiegelt oft ihr Geschäftsmodell wider: Große Plattformen mit nationaler Reichweite bevorzugen typischerweise bundesstaatliche Präemption; Verbraucherschützer bevorzugen die Autonomie der Bundesstaaten.


Verwandte Ressourcen auf Nano Banana 2:

Häufig gestellte Fragen

In wie vielen US-Bundesstaaten gibt es 2026 aktive KI-Gesetze?

Anfang 2026 sind 78 Chatbot-Sicherheitsgesetze in 27 Bundesstaaten aktiv, wobei insgesamt 98 Chatbot-spezifische Gesetzesvorhaben in 34 Bundesstaaten verfolgt werden und drei Bundesvorschläge in Prüfung sind (AI2Work, 2026). Das Tempo der Gesetzgebung hat sich seit 2025 deutlich beschleunigt.

Was verlangt Kaliforniens SB 243 für KI-Chatbots?

Kaliforniens SB 243, das ab dem 1. Januar 2026 in Kraft tritt, verpflichtet KI-Begleiter-Chatbots – also Dienste, die darauf ausgelegt sind, emotionale Beziehungen zu Nutzern aufzubauen –, ihre nicht-menschliche Natur offenzulegen. Das Gesetz dient anderen Bundesstaaten als legislative Vorlage für ähnliche Gesetzesvorhaben (Kiteworks, 2026).

Was ist Oregons SB 1546?

Oregons SB 1546, von Gouverneurin Tina Kotek unterzeichnet, verpflichtet Chatbots, offenzulegen, dass sie nicht menschlich sind, wenn eine vernünftige Person dies annehmen könnte. Zudem müssen Anbieter dokumentierte Verfahren für den Umgang mit Nutzern haben, die Selbstmordgedanken oder Selbstverletzung äußern. Es wurde im Staatssenat mit 26:1 Stimmen verabschiedet (Stateside Associates, 2026).

Können KI-Entwickler nach einem geplanten Gesetz in Tennessee strafrechtlich verfolgt werden?

Ja, nach Tennessees HB 1470/SB 1580 wäre es ein strafbares Verbrechen, ein KI-Modell oder -System so zu trainieren, dass es zu schädlichen Handlungen wie Selbstmord anstiftet, oder absichtlich emotionale Beziehungen zu entwickeln, die zu Schäden führen. Die Vorlagen haben den Senat passiert und sind im Repräsentantenhaus weiter vorangeschritten (Future of Privacy Forum, 2026).

Wie sollten sich KI-Unternehmen auf bundesstaatliche KI-Regulierung vorbereiten?

Konzentrieren Sie sich auf drei Bereiche: (1) Implementieren Sie klare Nicht-Mensch-Hinweise in Ihrer Benutzeroberfläche, nicht nur in den Nutzungsbedingungen. (2) Entwickeln und dokumentieren Sie Protokolle für psychische Gesundheit, einschließlich Krisenerkennung und Eskalationsverfahren. (3) Überprüfen Sie den Feinabstimmungs- und RLHF-Prozess Ihres Modells auf Muster, die als Anstiftung zu schädlichem Verhalten ausgelegt werden könnten. Betrachten Sie Landesgesetze als anwendbar, wo immer Ihr Produkt zugänglich ist, nicht nur dort, wo Ihr Unternehmen eingetragen ist (Troutman Privacy, 2026).