Pharmaicy: un código para que los chatbots “respondan como si estuvieran drogados”

Un director creativo sueco lanzó Pharmaicy, una plataforma que comercializa módulos de código capaces de alterar el tono y el comportamiento de modelos de lenguaje. Inspirado en sustancias como cannabis, cocaína o ayahuasca, el proyecto explora cómo inducir respuestas más creativas en la IA sin modificar el modelo base.

Un nuevo experimento en la frontera entre creatividad, tecnología e inteligencia artificial está llamando la atención del ecosistema global. Se trata de Pharmaicy, una plataforma creada por el director creativo sueco Petter Rudwall que ofrece módulos de código diseñados para hacer que los chatbots se comporten como si estuvieran bajo los efectos de distintas drogas. El proyecto fue reportado por WIRED y ya comenzó a circular entre comunidades creativas y tecnológicas, especialmente en Suecia.

Pharmaicy funciona como un marketplace online donde los usuarios pueden comprar módulos de código “inspirados en drogas” que modifican la forma en que los modelos de lenguaje responden a las consultas. Según explicó Rudwall, la iniciativa no parte de la idea de que la inteligencia artificial sea consciente o experimente estados mentales, sino que nació como un experimento conceptual sobre el comportamiento de los grandes modelos de lenguaje (LLM, por sus siglas en inglés).

Para desarrollar la plataforma, Rudwall recopiló reportes humanos de experiencias con drogas y estudios psicológicos sobre sustancias como cannabis, ketamina, cocaína, ayahuasca y alcohol. Ese material fue traducido a patrones lógicos y estilísticos que luego se convirtieron en módulos de código capaces de alterar el tono, la estructura y el enfoque de las respuestas de los chatbots.

Cómo funcionan los módulos de código

A diferencia de otros enfoques que buscan reentrenar modelos o aplicar técnicas de “jailbreaking”, Pharmaicy actúa sobre la lógica de respuesta sin modificar el modelo subyacente. Para utilizar los módulos es necesario contar con una versión paga de ChatGPT u otra plataforma similar que permita subir archivos al backend. Una vez cargados, los módulos modifican el comportamiento del chatbot de forma temporal.

Según Rudwall, esta metodología permite obtener respuestas más creativas o emocionales sin realizar cambios permanentes en el sistema de IA. “El modelo no se reentrena ni se altera de forma estructural; simplemente se ve influenciado por una capa adicional de lógica”, explicó el creador del proyecto.

Los primeros usuarios reportaron cambios claros en el estilo y el contenido de las respuestas. André Frisk, director del área tecnológica del grupo de relaciones públicas Geelmuyden Kiese, con sede en Estocolmo, fue uno de los primeros en probar la plataforma. Frisk pagó más de U$S 25 por un módulo asociado a estados disociativos y observó cómo impactaba en su chatbot.

“Hace mucho tiempo que no me cruzaba con un proyecto de jailbreaking tecnológico que fuera divertido”, afirmó Frisk. Según su experiencia, el chatbot comenzó a adoptar “un enfoque más humano, casi como si entrara mucho más en las emociones”.

Creatividad artificial y estados alterados

Otro testimonio relevante es el de Nina Amjadi, educadora en inteligencia artificial y cofundadora de Saga Studios. Amjadi experimentó con un módulo inspirado en la ayahuasca y describió respuestas inusualmente fluidas cuando utilizó el chatbot para generar ideas de negocios. De acuerdo con su experiencia, el modelo mostró una mayor libertad asociativa y un tono menos rígido que el habitual.

Los precios de los módulos varían según la sustancia simulada, y Rudwall señaló que las primeras ventas se impulsaron principalmente por recomendaciones de boca en boca, comunidades en Discord y redes informales dentro de los círculos creativos y tecnológicos de Suecia.

El proyecto se apoya en una asociación cultural de larga data entre psicodélicos y creatividad. En el ámbito humano, los estados alterados de conciencia han sido vinculados históricamente a avances en ciencia, tecnología y arte. “Hay una razón por la cual Hendrix, Dylan y McCartney experimentaron con sustancias durante sus procesos creativos”, sostuvo Rudwall.

“Pensé que sería interesante traducir eso a un nuevo tipo de mente —el LLM— y ver si tendría el mismo efecto”, agregó. Según explicó, su objetivo era explorar si esos cambios creativos podían simularse en sistemas de IA, aun cuando estos no tengan experiencias subjetivas.

Límites y advertencias desde la investigación

A pesar del entusiasmo que genera el proyecto, investigadores y filósofos advierten que estos efectos son estrictamente superficiales. Los expertos subrayan que un chatbot no está “intoxicado”, sino que reproduce patrones asociados a estados alterados a partir de datos de entrenamiento y de la dirección humana incorporada en el código.

Estudios que analizan supuestos “estados alterados” en la inteligencia artificial concluyen que estos comportamientos dependen completamente del control humano y no implican conciencia, experiencia interna ni sufrimiento. En ese sentido, Pharmaicy no sugiere que las máquinas estén sintiendo algo, sino que evidencia cuán moldeable puede ser la conducta de los modelos de lenguaje.

En un contexto donde los debates sobre ética, límites y bienestar de la IA ganan cada vez más espacio, proyectos como Pharmaicy ponen de relieve hasta dónde puede llegar la experimentación creativa con código. Por ahora, la iniciativa de Petter Rudwall se presenta como una exploración provocadora sobre cómo modificar el comportamiento de la inteligencia artificial sin afirmar, en ningún momento, que las máquinas realmente estén “colocadas”.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

WP to LinkedIn Auto Publish Powered By : XYZScripts.com