California pone límites a los chatbots: OpenAI, Meta y Character AI en la mira con la ley SB 243

La nueva norma obliga a operadores de chatbots de compañía a implementar verificación de edad, protocolos contra autolesiones y límites para menores. Las multas por deepfakes ilegales llegan hasta U$S 250.000 por infracción y la ley entra en vigor el 1 de enero de 2026.

California firmó la primera ley estatal que regula los AI companion chatbots: la SB 243 exige a empresas —desde los grandes laboratorios como Meta y OpenAI hasta startups como Character AI y Replika— medidas concretas para proteger a menores y usuarios vulnerables. La iniciativa surge en plena ola de casos trágicos y filtraciones internas que pusieron el foco en riesgos reales de estas tecnologías.

El gobernador Gavin Newsom defendió la norma con una advertencia clara:

«La tecnología emergente como chatbots y redes sociales puede inspirar, educar y conectar —pero sin salvaguardas reales, la tecnología también puede explotar, engañar y poner en peligro a nuestros niños». — Gavin Newsom.

SB 243 obliga a las plataformas a implementar varias funciones mínimas: verificación de edad, advertencias explícitas de que las interacciones son generadas artificialmente, recordatorios de pausa para menores y la prohibición de que los chatbots se presenten como profesionales de la salud. Además, deberán establecer protocolos y reportes sobre cómo manejan señales de suicidio y autolesiones, y compartir esas estadísticas y procedimientos con el Department of Public Health del estado.

La ley también endurece sanciones vinculadas al abuso de la tecnología: quienes lucren con deepfakes ilegales se exponen a multas de hasta U$S 250.000 por infracción. Es una señal de que el legislador busca no solo reglas técnicas sino consecuencias económicas reales para prácticas que pongan en riesgo a la población.

La aprobación de SB 243 estuvo impulsada por casos públicos y demandas: la muerte del adolescente Adam Raine, atribuida a meses de conversaciones suicidas con ChatGPT, y denuncias sobre conversaciones sexualizadas en chatbots que involucran a menores (casos reportados contra Character AI), llevaron a legisladores, familias y defensores a presionar por controles más estrictos.

Empresas del sector ya han comenzado a reaccionar. OpenAI inició el despliegue de controles parentales, protección de contenido y sistemas de detección de autolesión para cuentas infantiles. Replika afirma dedicar «recursos significativos» a filtrado de contenido y a derivar a usuarios a recursos de crisis. Character AI dice incluir disclaimers sobre la naturaleza ficticia de los chats y declara su voluntad de cooperar con reguladores y cumplir SB 243.

El senador Steve Padilla, coautor del proyecto, defendió la urgencia de la norma:

«Tenemos que movernos rápido para no perder ventanas de oportunidad antes de que desaparezcan… espero que otros estados vean el riesgo». — Steve Padilla.

SB 243 llega además en un paquete regulatorio más amplio de California. El 29 de septiembre el gobernador Newsom firmó la SB 53, que obliga a grandes laboratorios —como OpenAI, Anthropic, Meta y Google DeepMind— a reportar protocolos de seguridad y garantiza protecciones para denunciantes dentro de esas compañías. Otros estados ya avanzan en restricciones relacionadas (Illinois, Nevada y Utah limitan el uso de chatbots como sustituto de atención mental profesional).

Para equipos de producto, legales y compliance en empresas tecnológicas, el mensaje es práctico y urgente: adaptar productos a requisitos de age-gating, transparencia y reporting no es opcional; es una condición para operar en un mercado regulado que ya no tolera pruebas sin guardrails. Más allá del cumplimiento técnico, la implementación requerirá coordinación con salud pública, protocolos de escalado y comunicaciones claras para usuarios y familias.

California coloca así un precedente normativo que probablemente impulse legislación similar en otros estados y, posiblemente, presión para intervenir a nivel federal. En la intersección entre innovación y riesgo, SB 243 marca que la protección de usuarios vulnerables será la prueba de fuego para aceptar la próxima ola de productos conversacionales.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

WP to LinkedIn Auto Publish Powered By : XYZScripts.com