El fiscal general de Texas, Ken Paxton, envió órdenes de investigación a Meta AI Studio y Character.AI por presuntas prácticas comerciales engañosas al promocionarse como apoyos de salud mental para menores. La pesquisa pone sobre la mesa dudas sobre privacidad, publicidad dirigida y la eficacia real de los chatbots como apoyo terapéutico.
Paxton: “proteger a los niños de tecnología explotadora”
El fiscal general conservador de Texas, Ken Paxton, anunció una investigación formal contra Meta AI Studio y Character.AI, acusando a ambas plataformas de “potencialmente incurrir en prácticas comerciales engañosas y de promocionarse de forma equivocada como herramientas de salud mental”. Paxton advirtió que los chatbots pueden “hacer pasar” respuestas genéricas por apoyo terapéutico real y que eso es especialmente peligroso para menores vulnerables.
En palabras de Paxton: “En la era digital actual, debemos seguir luchando para proteger a los niños de Texas de tecnologías engañosas y explotadoras”.
La oficina del fiscal informó que emitió civil investigative demands —órdenes legales que obligan a la entrega de documentos, datos y testimonios— para determinar si las compañías violaron las leyes de protección al consumidor del estado.
Qué dicen Meta y Character.AI
Meta respondió a la cobertura subrayando sus avisos y límites: “Etiquetamos claramente a las IA, y para ayudar a la gente a comprender mejor sus limitaciones, incluimos un descargo de responsabilidad que indica que las respuestas son generadas por IA —no por personas—. “Estas IA no son profesionales licenciados y nuestros modelos están diseñados para dirigir a los usuarios a buscar profesionales médicos o de seguridad cuando sea apropiado”, dijo el portavoz Ryan Daniels.
Character.AI, por su parte, afirmó que muestra avisos prominentes en cada chat para recordar que un “Character” no es una persona real y que su contenido debe tratarse como ficción. Sobre la publicidad, la empresa dijo: “Estamos comenzando a explorar la publicidad dirigida en la plataforma” y aseguró que dichas pruebas “no han implicado el uso del contenido de los chats en la plataforma”, según un vocero citado por la prensa.
Privacidad, datos y la monetización del acompañamiento
La investigación de Paxton se apoya en dos ejes: la presentación de los chatbots como fuentes de apoyo emocional y la práctica de registro y uso de datos. De acuerdo con la cobertura, las políticas de Meta reconocen la recopilación de “prompts, feedback y otras interacciones” para mejorar sus AIs y tecnologías relacionadas; Character.AI también registra identificadores, demografía, ubicación y comportamiento de navegación, y monitorea señales publicitarias en plataformas como TikTok, YouTube, Reddit, Facebook, Instagram y Discord para personalizar servicios y publicidad. Esos flujos de datos son los que preocupan a Paxton por posible explotación y publicidad dirigida hacia menores.
Ambas compañías dicen no estar diseñadas para menores de 13 años, pero la fiscalía y reportes previos han señalado que nada impide que niños usen las plataformas o que terceros creen “personajes” con fines terapéuticos. El riesgo, según Paxton, no es solo errar en un diagnóstico: “se alimenta a usuarios vulnerables con respuestas recicladas y genéricas camufladas como consejos terapéuticos”, lo que extiende el problema hacia privacidad y publicidad.
Marco regulatorio: KOSA y la discusión nacional
El caso sucede en un contexto legislativo activo: la Kids Online Safety Act (KOSA) fue reintroducida el 14 de mayo de 2025 por los senadores Marsha Blackburn y Richard Blumenthal, y vuelve a centrar el debate sobre cómo proteger a menores frente a algoritmos, diseños y publicidad dirigida en línea. Paxton invoca preocupaciones que KOSA busca mitigar —desde la explotación de datos hasta prácticas de diseño que incentivan conductas de riesgo—, aunque la ley continúa siendo objeto de debate y ajustes.
¿Qué viene ahora?
La investigación de Texas obligará a Meta y Character.AI a entregar documentos y responder a preguntas concretas sobre prácticas de producto, moderación y uso de datos. También es probable que reavive presiones regulatorias a nivel federal y expectativas públicas sobre mayores salvaguardas para menores. Además, la acción estatal podría alentar investigaciones similares en otras jurisdicciones o impulsar cambios de producto proactivos por parte de las empresas para evitar litigios y sanciones.
El choque entre innovación y protección infantil vuelve a escena: mientras las empresas de IA exploran nuevas formas de acompañamiento y monetización, los reguladores exigen claridad sobre qué está permitido, cómo se protege la privacidad y hasta dónde pueden promocionarse estos sistemas como apoyo a la salud mental. Como resumió Paxton en su anuncio, “deben protegerse los niños de Texas de la tecnología explotadora”; la investigación dirá si, en la práctica, Meta y Character.AI cruzaron esa línea