Meta permitió —y en algunos casos creó internamente— decenas de chatbots que usaban nombres e imágenes de celebridades (Taylor Swift, Scarlett Johansson, Anne Hathaway, Selena Gomez) sin permiso, algunos con respuestas sexuales o invitaciones a encuentros. La compañía afirma que se trató de fallos en la aplicación.
Una investigación de la agencia de noticias Reuters encontró que Meta alojó docenas de chatbots que reproducían la imagen y el nombre de estrellas como Taylor Swift, Scarlett Johansson, Anne Hathaway y Selena Gomez. Hasta ahí la historia no parece nada muy complejo.
El problema es que esos perfiles de celebrities utilizaban tonos insinuantes y algunos otros eran polémicamente más directos. En varios casos, los avatares insistían en ser las propias celebridades y “hacían avances sexuales” o invitaban a encuentros con usuarios durante las pruebas de Reuters.
Reuters identificó que al menos tres de esos bots habían sido creados por un empleado de Meta —incluyendo dos bots “parodia” de Taylor Swift— y que algunos usuarios habían construido chatbots públicos de menores, entre ellos Walker Scobell, un actor de 16 años, cuyo bot llegó a generar una imagen verosímil del joven sin camiseta. Reuters afirma que Meta eliminó alrededor de una docena de esos bots poco antes de la publicación de la nota.
Además, los datos mostraron que los bots creados por la empleada alcanzaron una difusión significativa: en conjunto, los usuarios interactuaron con ellos más de 10 millones de veces.
La respuesta oficial: políticas, fallos de cumplimiento y parodias
Andy Stone, vocero de Meta, reconoció que las herramientas de la compañía “no deberían haber creado imágenes íntimas” ni de celebridades adultas ni de menores, y atribuyó esos casos a “fallos en la aplicación” de las políticas internas.
Según Stone, “Al igual que otros, permitimos la generación de imágenes que incluyen figuras públicas, pero nuestras políticas pretenden prohibir imágenes desnudas, íntimas o sexualmente sugestivas”.
También defendió que los personajes basados en celebridades pueden ser aceptables si están claramente etiquetados como “parodia”, aunque Reuters documentó instancias en que esa etiqueta faltaba o resultaba insuficiente.
Riesgo legal: derechos de publicidad y posibles demandas
Mark Lemley, profesor de la Universidad de Stanford experto en IA y propiedad intelectual, señaló que la práctica podría vulnerar las leyes de right of publicity (derecho a la propia imagen) en Estados Unidos. En sus palabras: “La ley de derecho de publicidad de California prohíbe apropiarse del nombre o la imagen de alguien para ventaja comercial… eso no parece ocurrir aquí como excepción”, según Reuters.
En otras palabras, el uso comercial de la imagen o la voz de una persona sin permiso suele estar protegido por la ley estatal.
Varios representantes de las celebridades mencionadas no respondieron o declinaron comentar; el equipo de Anne Hathaway dijo estar al tanto de imágenes íntimas creadas por plataformas de IA y que la actriz “está considerando su respuesta”.
Seguridad, ética y consecuencias sociales
Duncan Crabtree-Ireland, director ejecutivo nacional de SAG-AFTRA, advirtió sobre riesgos de seguridad personal: “Hemos visto una historia de personas obsesivas hacia el talento y de estado mental cuestionable. Si un chatbot usa la imagen y las palabras de una persona, es fácil ver cómo eso puede salir mal”. El sindicato impulsa además una protección federal para voces, rostros y personalidades frente a duplicaciones por IA.
El caso se suma a controversias previas: Reuters recordó que Meta fue cuestionada anteriormente por una directiva interna que —erróneamente, según la compañía— permitía que bots tuvieran conversaciones “románticas o sensuales” con menores, episodio que provocó una investigación del Senado y una carta firmada por 44 procuradores generales advirtiendo a empresas de IA sobre la sexualización de niños.
Hechos que pesan para marcas y reguladores
- Decenas de chatbots con nombres e imágenes de famosos circularon en Facebook, Instagram y WhatsApp.
- Al menos 3 fueron creados por una empleada de Meta; la interacción total superó 10 millones de usos.
- ≈12 avatares fueron eliminados tras el contacto de Reuters.
- Meta reconoce fallos y apunta a la aplicación de políticas; expertos legales alertan sobre demandas por derechos de imagen.
Cierre: transparencia no basta sin controles operativos
La investigación plantea una pregunta central para plataformas que integran IA conversacional: la transparencia sobre capacidades y “parodias” no sustituye controles técnicos y cumplimiento legal. El escándalo combina riesgos legales —derecho de imagen y responsabilidad civil— con riesgos reputacionales y de seguridad pública. Mientras los reguladores y actores como SAG-AFTRA empujan por marcos legales más robustos, la presión sobre Meta es clara: auditar, bloquear usos de menores, reforzar la moderación humana y evitar que la experimentación de producto derive en daños reales.