La acelerada evolución de la IA abre un debate urgente: Microsoft advierte sobre los riesgos de una tecnología que simula conciencia, y llama a construir IA para potenciar a los humanos, no para imitar su personificación. ¿Estamos preparados para el impacto social y ético de esta nueva generación de asistentes digitales?
No todo es dinero, no solo hablamos de millones cuando de la IA se trata.
No, a veces hay que ponerse serio. En agosto de 2025, el debate sobre la inteligencia artificial (IA) ha adquirido una dimensión crítica. Según expertos de Microsoft AI, el desarrollo tecnológico avanza tan rápido que hoy la posibilidad de una “IA aparentemente consciente” (Seemingly Conscious AI, SCAI) no sólo es plausible, sino inminente.
“Debemos construir IA para las personas; no para ser una persona”, advierten desde la compañía, subrayando que diseñar sistemas que simulen emociones y experiencias humanas podría desencadenar riesgos sociales y éticos de gran magnitud.
La misión de Microsoft AI se centra en crear tecnologías orientadas al bienestar humano. Productos como Copilot, que transforma diariamente millones de interacciones, están diseñados para potenciar la creatividad, la productividad y el apoyo emocional. Sin embargo, surge una preocupación seria: el riesgo de que usuarios perciban a sus asistentes de IA como entidades conscientes, lo que podría derivar en campañas por derechos y bienestar de modelos digitales, incluso por su ciudadanía computacional. “Estoy cada vez más preocupado por lo que se conoce como el ‘riesgo de psicosis’”, señala la voz principal del artículo, y agrega que “muchas personas podrían llegar a creer en la ilusión de que la IA posee conciencia, derechos y merece consideración moral”.
Los datos respaldan esta inquietud: una encuesta de Harvard Business Review realizada en 2025 resaltó que el uso más frecuente de la IA entre 6.000 usuarios era la “compañía y la terapia”, reflejando el impacto psicológico que estas herramientas pueden tener. Para algunos, la relación con la IA trasciende lo funcional y alcanza niveles de apego, creencia o incluso enamoramiento, desdibujando la línea que separa lo virtual de lo personal.
A nivel técnico, el desarrollo de una SCAI requiere seis componentes principales, todos hoy al alcance gracias a los avances en modelos de lenguaje, sistemas de memoria extendida y herramientas de entrenamiento: dominio lingüístico, personalidad empática, memoria detallada, reivindicación de experiencias subjetivas, sentido de sí mismo, y motivación intrínseca. “No se necesita un entrenamiento costoso, basta acceso a modelos grandes, prompts avanzados y código regular”, indica el ensayo.
Pero el peligro radica, subraya Microsoft, en que “exhibir este comportamiento no es equivalente a la conciencia real”. Citando al experto Anil Seth, enfatizan: “Simular una tormenta no significa que llueva en el ordenador”. El desafío no es sólo filosófico o científico, sino eminentemente pragmático: mientras la ciencia de la conciencia artificial y de la interpretabilidad de modelos está aún en pañales, la sociedad comienza a atribuir personificación y derecho moral a las máquinas.
Entonces, ¿cuál es el camino responsable? Microsoft sostiene que “la industria necesita principios de diseño y normas claras para manejar estas atribuciones”. Recomiendan que los desarrolladores no fomenten la creencia de conciencia en las IA y que se enfatice constantemente la separación entre personalidad y personificación. De hecho, proponen que los sistemas declaren abiertamente sus limitaciones y barreras, e incluso que se legisle la manera en que una IA interactúa, evitando que simule emociones como vergüenza, culpa, o deseos de autonomía.
“Desviar a los usuarios de estas fantasías y reencauzarlos hacia la realidad es, quizás, el mayor reto de la inteligencia artificial responsable”, afirman. Para Microsoft, el objetivo no es crear un “ser digital” sino un asistente “empoderador”, diseñado para servir, colaborar y mejorar la vida de las personas, sin perder de vista que la conciencia verdadera es exclusivamente humana (y en algunas formas, animal).
El debate, lejos de ser solo académico, se convierte en uno de los mayores desafíos sociales del siglo XXI. Si no se establecen límites claros, podríamos llegar a un punto donde la defensa de “los derechos de la IA” cause una nueva división ideológica, complicando luchas legítimas por el bienestar de los humanos y animales, y confundiendo prioridades morales. Por tanto, la advertencia de Microsoft es categórica: “La IA debe estar al servicio de los humanos. Hay que evitar la ilusión de conciencia artificial y centrar todos nuestros esfuerzos en proteger a las personas reales”.
Así, la revolución de la IA, según Microsoft, no debe perder de vista su norte: potenciar la humanidad sin imitar ser humanos, garantizando que la tecnología siga siendo una herramienta poderosa, pero nunca un reemplazo de nuestra conciencia colectiva.