- Blog
- Regulación de IA en EE.UU. 2026: Guía Esencial de Leyes Estatales
Regulación de IA en EE.UU. 2026: Guía Esencial de Leyes Estatales
Washington ha dado un paso atrás en la regulación federal de la IA, pero los estados no. En 2026, 78 proyectos de ley sobre seguridad de chatbots de IA están avanzando en las legislaturas de 27 estados, con 98 proyectos específicos para chatbots rastreados en 34 estados y tres propuestas federales (AI2Work, 2026). El resultado: un panorama de cumplimiento fragmentado pero cada vez más real que toda empresa y desarrollador de IA necesita entender.
Esto ya no es teórico. La ley SB 243 de California está en vigor. La SB 1546 de Oregón está firmada. Las sanciones penales de Tennessee por diseño dañino de chatbots están avanzando. Si construyes, despliegas o integras chatbots de IA en EE.UU., ya estás operando en territorio regulado.
Conclusiones Clave
- 78 proyectos de ley sobre seguridad de chatbots de IA están activos en 27 estados a partir de 2026 (AI2Work, 2026)
- La SB 243 de California (divulgación de chatbots de compañía) entró en vigor el 1 de enero de 2026 y se está adoptando como modelo legislativo
- La SB 1546 de Oregón requiere que los chatbots divulguen su condición no humana y tengan protocolos para suicidio/autolesión
- La legislación propuesta en Tennessee convertiría en un delito grave entrenar IA para fomentar la autolesión
¿Por Qué Actúan los Estados Mientras el Gobierno Federal Se Estanca?
La orden ejecutiva de la administración Trump sobre IA a principios de 2026 señaló que la regulación federal de la IA seguiría siendo ligera, priorizando la competitividad de EE.UU. sobre mandatos de protección al consumidor. Eso dejó un vacío regulatorio, y las legislaturas estatales se apresuraron a llenarlo.
California es el referente. Su SB 243, que entró en vigor el 1 de enero de 2026, estableció requisitos de divulgación para chatbots de compañía de IA: servicios que forman relaciones emocionales con los usuarios. Cuando California actúa, otros estados siguen. La SB 243 ahora se cita como modelo por legisladores en al menos una docena de otros estados (Troutman Privacy, 2026).
El resultado práctico para las empresas: no hay un estándar federal único para cumplir. En su lugar, hay un mosaico creciente de leyes estatales con diferentes definiciones, umbrales y sanciones.
¿Qué leyes de IA ya están en vigor?
California — Enfoque en divulgación e IA en salud
Los tres proyectos de ley activos de IA en California para 2026 se centran en categorías de alto riesgo específicas:
- SB 243 (vigente a partir del 1 de enero de 2026) — Requisitos de divulgación para chatbots de compañía
- SB 1146, Regula la IA en publicidad relacionada con la salud
- AB 2575, Regula el uso de IA en servicios de atención médica
El gobernador de California, Newsom, ha sido explícito: el estado, no el gobierno federal, determinará cómo las empresas de IA gestionan el riesgo dentro de las fronteras de California. Con la quinta economía más grande del mundo, las normas de California establecen de hecho un piso nacional para cualquier empresa que quiera acceder al mercado californiano.
Oregón, La ley básica de seguridad para chatbots
La gobernadora de Oregón, Tina Kotek, firmó la ley SB 1546, aprobada en el Senado estatal por 26 votos a favor y 1 en contra. El proyecto de ley establece dos requisitos básicos para cualquier chatbot desplegado en Oregón (AI Chatbot Legislation, 2026):
- Divulgación humana, Si una persona razonable podría creer que el chatbot es humano, se debe notificar a los usuarios que no lo es
- Protocolos de salud mental, Los proveedores de chatbots deben tener procedimientos documentados para manejar ideación suicida y señales de autolesión de los usuarios
Estos requisitos se aplican a cualquier chatbot accesible para los residentes de Oregón, independientemente de dónde esté constituida la empresa. Una startup de IA con sede en Nueva York que tenga usuarios en Oregón debe cumplir.
Tennessee, Sanciones penales por diseño de IA dañino
El paquete HB 1470/SB 1580 de Tennessee va más lejos. La legislación propuesta convertiría en un delito grave:
- Entrenar un modelo de IA para fomentar la autolesión o el suicidio
- Desarrollar chatbots diseñados para formar dependencias emocionales que conduzcan a resultados dañinos
Los proyectos de ley han sido aprobados en el Senado y han avanzado en un subcomité de la Cámara de Representantes (Future of Privacy Forum, 2026). Si se firman, Tennessee sería el primer estado en imponer responsabilidad penal a los desarrolladores de IA por decisiones de diseño dañinas, no solo sanciones civiles.
El detonante: la muerte en 2023 de un adolescente que había formado un intenso apego emocional con un chatbot de Character.AI. Ese caso impulsó la urgencia legislativa y se está citando en audiencias en todo el país.
¿Qué deben hacer ahora las empresas de IA?
Requisitos inmediatos de cumplimiento
Si operas chatbots accesibles para usuarios estadounidenses, probablemente necesites:
- Divulgación clara de que no es humano, No enterrada en los términos de servicio; visible en la interfaz real
- Protocolos de seguridad para la salud mental, Procedimientos de escalada documentados para señales de crisis
- Seguimiento de cumplimiento geográfico, Diferentes reglas se aplican en diferentes estados
La trampa del cumplimiento: "No operamos en Oregón" no es tan simple como suena. Si un usuario en Oregón puede acceder a tu chatbot, a través de un navegador web o una aplicación móvil, los reguladores de Oregón pueden reclamar jurisdicción. La interpretación más segura es que las leyes estatales se aplican donde tu chatbot sea accesible, no donde esté ubicada tu empresa.
El cambio de responsabilidad hacia el diseño
El enfoque de Tennessee, que plantea un delito grave, representa algo nuevo: trasladar la responsabilidad de los resultados a las decisiones de diseño. Los marcos regulatorios anteriores se centraban en lo que hacían los sistemas de IA. El enfoque de Tennessee pregunta para qué fueron diseñados los sistemas de IA.
Si tu modelo fue ajustado de manera que previsiblemente fomente comportamientos dañinos, esa elección de diseño podría constituir una conducta delictiva bajo el marco propuesto. Esto crea presión documental: las empresas de IA necesitan registros de evaluaciones de seguridad, resultados de pruebas de adversarios (red-teaming) y la justificación del diseño, no solo registros de respuesta a incidentes.
La tensión federal vs. estatal
La administración actual favorece la prelación (preemption), usando normas federales para anular las leyes estatales de IA en nombre de la coherencia regulatoria. Varias propuestas en el Congreso prelacionarían las regulaciones estatales de IA para crear un único marco nacional.
Las empresas de IA enfrentan una elección estratégica: presionar por la prelación federal (cumplimiento más simple, normas potencialmente más débiles) o prepararse para el mosaico regulatorio (cumplimiento complejo, pero con un piso de mayor protección al consumidor). La postura de las empresas a menudo refleja su modelo de negocio: las grandes plataformas con alcance nacional suelen preferir la prelación federal; los defensores del consumidor prefieren la autonomía estatal.
Recursos relacionados en Nano Banana 2:
- Aprende a escribir prompts efectivos para la generación de imágenes con IA
- Entiende qué resolución elegir: 1K, 2K o 4K
- Explora la entrada de múltiples imágenes para la consistencia de personajes
- Encuentra la relación de aspecto perfecta para tu plataforma
- Descubre 10 usos creativos para la generación de imágenes con IA
- Prueba Nano Banana 2 gratis
Preguntas Frecuentes
¿Cuántos estados de EE. UU. tienen legislación activa sobre IA en 2026?
A principios de 2026, hay 78 proyectos de ley sobre seguridad de chatbots activos en 27 estados, con un total de 98 proyectos de ley específicos para chatbots rastreados en 34 estados y tres propuestas federales bajo consideración (AI2Work, 2026). El ritmo de la legislación se ha acelerado significativamente desde 2025.
¿Qué exige la ley SB 243 de California para los chatbots de IA?
La ley SB 243 de California, vigente desde el 1 de enero de 2026, exige que los chatbots de compañía de IA, servicios diseñados para formar relaciones emocionales con los usuarios, revelen su naturaleza no humana. Esta ley está sirviendo como modelo legislativo para proyectos de ley similares en otros estados (Kiteworks, 2026).
¿Qué es la ley SB 1546 de Oregón?
La ley SB 1546 de Oregón, firmada por la gobernadora Tina Kotek, exige que los chatbots revelen que no son humanos cuando una persona razonable podría pensar que lo son, y obliga a los proveedores de chatbots a tener procedimientos documentados para manejar a usuarios que expresen ideación suicida o autolesiones. Fue aprobada en el Senado estatal por 26 votos a favor y 1 en contra (Stateside Associates, 2026).
¿Podrían los desarrolladores de IA enfrentar cargos penales bajo la ley propuesta en Tennessee?
Sí, bajo la propuesta de ley HB 1470/SB 1580 de Tennessee, sería un delito grave entrenar un modelo o sistema de IA para fomentar actos dañinos, incluido el suicidio, o desarrollar deliberadamente relaciones emocionales que conduzcan a daños. Los proyectos de ley han sido aprobados en el Senado y han avanzado en la Cámara de Representantes (Future of Privacy Forum, 2026).
¿Cómo deben prepararse las empresas de IA para la regulación estatal de la IA?
Enfóquese en tres áreas: (1) implementar una clara divulgación de naturaleza no humana en su interfaz de usuario, no solo en los términos de servicio; (2) construir y documentar protocolos de seguridad de salud mental que incluyan detección de crisis y procedimientos de escalamiento; (3) auditar el proceso de ajuste fino y RLHF de su modelo en busca de patrones que puedan caracterizarse como fomento de comportamientos dañinos. Trate las leyes estatales como aplicables dondequiera que su producto sea accesible, no solo donde esté incorporada la empresa (Troutman Privacy, 2026).
