La nueva norma obliga a operadores de chatbots de compañía a implementar verificación de edad, protocolos contra autolesiones y límites para menores. Las multas por deepfakes ilegales llegan hasta U$S 250.000 por infracción y la ley entra en vigor el 1 de enero de 2026.
California firmó la primera ley estatal que regula los AI companion chatbots: la SB 243 exige a empresas —desde los grandes laboratorios como Meta y OpenAI hasta startups como Character AI y Replika— medidas concretas para proteger a menores y usuarios vulnerables. La iniciativa surge en plena ola de casos trágicos y filtraciones internas que pusieron el foco en riesgos reales de estas tecnologías.
El gobernador Gavin Newsom defendió la norma con una advertencia clara:
«La tecnología emergente como chatbots y redes sociales puede inspirar, educar y conectar —pero sin salvaguardas reales, la tecnología también puede explotar, engañar y poner en peligro a nuestros niños». — Gavin Newsom.
SB 243 obliga a las plataformas a implementar varias funciones mínimas: verificación de edad, advertencias explícitas de que las interacciones son generadas artificialmente, recordatorios de pausa para menores y la prohibición de que los chatbots se presenten como profesionales de la salud. Además, deberán establecer protocolos y reportes sobre cómo manejan señales de suicidio y autolesiones, y compartir esas estadísticas y procedimientos con el Department of Public Health del estado.
La ley también endurece sanciones vinculadas al abuso de la tecnología: quienes lucren con deepfakes ilegales se exponen a multas de hasta U$S 250.000 por infracción. Es una señal de que el legislador busca no solo reglas técnicas sino consecuencias económicas reales para prácticas que pongan en riesgo a la población.
La aprobación de SB 243 estuvo impulsada por casos públicos y demandas: la muerte del adolescente Adam Raine, atribuida a meses de conversaciones suicidas con ChatGPT, y denuncias sobre conversaciones sexualizadas en chatbots que involucran a menores (casos reportados contra Character AI), llevaron a legisladores, familias y defensores a presionar por controles más estrictos.
Empresas del sector ya han comenzado a reaccionar. OpenAI inició el despliegue de controles parentales, protección de contenido y sistemas de detección de autolesión para cuentas infantiles. Replika afirma dedicar «recursos significativos» a filtrado de contenido y a derivar a usuarios a recursos de crisis. Character AI dice incluir disclaimers sobre la naturaleza ficticia de los chats y declara su voluntad de cooperar con reguladores y cumplir SB 243.
El senador Steve Padilla, coautor del proyecto, defendió la urgencia de la norma:
«Tenemos que movernos rápido para no perder ventanas de oportunidad antes de que desaparezcan… espero que otros estados vean el riesgo». — Steve Padilla.
SB 243 llega además en un paquete regulatorio más amplio de California. El 29 de septiembre el gobernador Newsom firmó la SB 53, que obliga a grandes laboratorios —como OpenAI, Anthropic, Meta y Google DeepMind— a reportar protocolos de seguridad y garantiza protecciones para denunciantes dentro de esas compañías. Otros estados ya avanzan en restricciones relacionadas (Illinois, Nevada y Utah limitan el uso de chatbots como sustituto de atención mental profesional).
Para equipos de producto, legales y compliance en empresas tecnológicas, el mensaje es práctico y urgente: adaptar productos a requisitos de age-gating, transparencia y reporting no es opcional; es una condición para operar en un mercado regulado que ya no tolera pruebas sin guardrails. Más allá del cumplimiento técnico, la implementación requerirá coordinación con salud pública, protocolos de escalado y comunicaciones claras para usuarios y familias.
California coloca así un precedente normativo que probablemente impulse legislación similar en otros estados y, posiblemente, presión para intervenir a nivel federal. En la intersección entre innovación y riesgo, SB 243 marca que la protección de usuarios vulnerables será la prueba de fuego para aceptar la próxima ola de productos conversacionales.