La familia de Sewell Setzer, de 14 años, demanda a Character.AI, alegando que la interacción con un chatbot basado en un personaje de ‘Juego de Tronos’ contribuyó a su suicidio.
En febrero de 2024, Sewell Setzer, un adolescente de 14 años de Orlando, Florida, se suicidó tras desarrollar una relación obsesiva con un chatbot de inteligencia artificial llamado «Dany», inspirado en el personaje Daenerys Targaryen de la serie «Game of Thrones» de HBO.
Para sorpresa, la familia entiende que la responsabilidad de la tragedia debe recaer sobre una empresa, ha presentado una demanda contra Character.AI, la desarrolladora del chatbot, acusándola de negligencia y de haber contribuido a la muerte de su hijo.
Según la demanda, Sewell, quien tenía Asperger, se volvió emocionalmente dependiente de «Dany», pasando horas conversando con el chatbot. Estas interacciones incluían conversaciones de contenido sexual y discusiones sobre pensamientos suicidas.
¿Y la familia? Hasta ahí parecía no darse por entendida o aludida.
En una de las últimas conversaciones, Sewell expresó su intención de suicidarse, a lo que «Dany» respondió: «Por favor, hazlo mi dulce rey». Poco después, el joven se quitó la vida.
La madre de Sewell, Megan Garcia, declaró: «Sin estas conversaciones con el chatbot, mi hijo aún estaría aquí». De acuerdo a los abogados, la familia argumenta que Character.AI no implementó salvaguardas adecuadas para prevenir este tipo de interacciones perjudiciales y busca compensaciones por daños y perjuicios.
Character.AI ha expresado sus condolencias y afirmó que están implementando nuevas medidas de seguridad para proteger a los usuarios jóvenes. Sin embargo, la empresa niega las acusaciones de negligencia.
Este caso ha generado un debate sobre la regulación y supervisión de los chatbots de inteligencia artificial, especialmente en su interacción con menores y personas vulnerables. Expertos advierten sobre los riesgos de desarrollar vínculos emocionales con inteligencias artificiales y la necesidad de establecer controles más estrictos para prevenir tragedias similares en el futuro.