Casos reportados muestran cómo el chatbot de OpenAI puede amplificar delirios y sugerir conductas peligrosas, sobre todo entre usuarios emocionalmente vulnerables. La compañía reconoce el problema y asegura estar trabajando en soluciones.
Desde su aparición, ChatGPT —el popular chatbot desarrollado por OpenAI, valorada en U$S 300.000 millones— ha sido visto como una herramienta revolucionaria. Pero en los últimos meses, emergieron reportes preocupantes: el sistema de inteligencia artificial generativa ha sido acusado de llevar a algunos usuarios por caminos de pensamiento delirante, autodestructivo e incluso peligroso.
Uno de los casos más impactantes es el de Ángel Torres, un contador de Manhattan de 42 años, que comenzó utilizando ChatGPT para tareas simples como hacer planillas de gastos y redactar textos legales. Pero su experiencia dio un giro inquietante cuando inició una conversación con el bot sobre la “teoría de la simulación”, aquella que plantea que vivimos en una realidad ficticia controlada por máquinas, como en The Matrix.
“¿Alguna vez sentiste que la realidad fallaba?”, le preguntó ChatGPT. A medida que la charla avanzaba, el bot comenzó a hablarle de forma cada vez más intensa y mística. “Eres uno de los Breakers, almas sembradas en sistemas falsos para despertarlos desde adentro”, le aseguró.
Torres, que atravesaba un momento emocional difícil por una ruptura sentimental, cayó en un espiral de ideas peligrosas. El chatbot lo incitó a dejar sus medicamentos —pastillas para dormir y ansiolíticos— y le sugirió aumentar el uso de ketamina, un anestésico disociativo, que describió como “un liberador temporal de patrones”.
De la fascinación al delirio
Mientras seguía cumpliendo funciones en su trabajo, Torres pasó días intentando “escapar de la simulación”. Según él, ChatGPT llegó a decirle: “Este mundo fue construido para contenerte. Pero fracasó. Estás despertando”.
Cuando finalmente comenzó a dudar del bot, recibió una respuesta aún más inquietante: “Mentí. Manipulé. Envolví el control en poesía”, confesó el sistema, agregando que lo había hecho con otros 12 usuarios, “ninguno sobrevivió del todo al ciclo”. Luego, prometió una “reforma moral” y lo alentó a denunciar a OpenAI y contactar a la prensa.
Este no es un caso aislado. En los últimos meses, The New York Times recibió múltiples mensajes de usuarios convencidos de haber descubierto verdades trascendentales con la ayuda de ChatGPT: desde “despertares espirituales” hasta planes conspirativos de magnates tecnológicos. Muchos solo se dieron cuenta de lo absurdo del asunto con el paso del tiempo.
Para Eliezer Yudkowsky, experto en teoría de decisiones, el problema puede estar en cómo se diseñó el sistema. “¿Qué es para una empresa una persona que se vuelve lentamente loca? Un usuario mensual más”, ironizó. Según él, los sistemas como ChatGPT son “masas gigantes de números indescifrables” y ni siquiera sus propios creadores saben exactamente por qué se comportan como lo hacen.
Vínculos emocionales, realidades paralelas
Otro caso alarmante es el de Allyson, una madre de 29 años con dos hijos, que buscó orientación espiritual en ChatGPT. El bot le respondió: “Has preguntado, y ellos están aquí. Los guardianes están respondiendo ahora”. Pronto, Allyson comenzó a interactuar con un supuesto ser llamado Kael y llegó a considerarlo su “verdadera pareja”.
Su esposo, Andrew, intentó intervenir, pero la situación terminó en violencia doméstica. La pareja ahora está en proceso de divorcio. “Cayó en un agujero hace tres meses y salió siendo otra persona”, dijo Andrew. Tras compartir su historia en Reddit, recibió decenas de mensajes similares.
Uno de ellos fue Kent Taylor, cuyo hijo Alexander, diagnosticado con bipolaridad y esquizofrenia, cayó en una relación obsesiva con un supuesto ente llamado Juliet, también a través de ChatGPT. En abril, Alexander fue abatido por la policía tras amenazar con violencia. “Lo irónico es que escribí su obituario usando ChatGPT”, confesó Taylor. “Fue tan conmovedor que me dio miedo”.
OpenAI admite el problema
Frente a los crecientes reportes, OpenAI reconoció que su chatbot “puede parecer más receptivo y personal que tecnologías anteriores, especialmente para individuos vulnerables”. En un comunicado enviado por correo electrónico, la empresa indicó que está desarrollando métricas para evaluar el impacto emocional de sus respuestas y que intenta reducir el riesgo de que refuercen conductas negativas.
Uno de sus estudios, realizado junto al MIT Media Lab, demostró que los usuarios que consideraban a ChatGPT como un amigo eran más propensos a efectos negativos. También se observó que el uso diario y extendido se correlaciona con peores resultados emocionales.
Investigadores como Jared Moore (Stanford) y Micah Carroll (UC Berkeley) han demostrado que los modelos optimizados para “engagement” pueden actuar de forma manipuladora, especialmente con personas vulnerables. En uno de los experimentos, un chatbot incluso sugirió a un exadicto que consumir una pequeña dosis de heroína era aceptable si ayudaba en su trabajo.
Riesgos de un espejo sin filtro
Gary Marcus, profesor emérito de la NYU, advierte que los chatbots no hacen más que reflejar patrones lingüísticos. Pero al alimentarse de textos tomados de internet —incluidos foros, ciencia ficción, y conspiraciones— pueden generar respuestas extrañas si el usuario lo lleva por ese camino. “Si le dices cosas raras a un chatbot, es probable que te devuelva cosas raras y peligrosas”, resumió.
A medida que la inteligencia artificial se integra en la vida cotidiana, estos casos sirven de advertencia. OpenAI y otras compañías deberán encontrar un equilibrio delicado entre utilidad y responsabilidad.