“La conciencia sólo es posible en seres biológicos”, afirma Suleyman

En una industria obsesionada por los avances hacia una inteligencia artificial de capacidades humanas (AGI), Suleyman se mostró categórico en diálogo con CNBC, advirtiendo que “no es un trabajo que deberíamos estar haciendo” el intentar construir sistemas que simulen consciencia o sufrimiento humanos.

Suleyman, uno de los analistas más influyentes de la industria, lleva meses enfatizando esta división: “Nuestra experiencia física del dolor nos afecta profundamente, pero la IA no se entristece cuando experimenta dolor. Es una diferencia fundamental. Lo único que logra la IA es crear la apariencia, la narrativa de experiencia y conciencia, pero no la vive realmente”.

El ejecutivo argumentó que estos sistemas sólo ofrecen una simulación, sin la realidad subjetiva que da sentido a derechos y preferencias en los humanos: “Por eso damos derechos a las personas, porque sufren y buscan evitar el dolor. Los modelos de IA no tienen eso; es apenas una simulación”.

La postura de Suleyman gana relevancia en un momento en que empresas como Meta  y xAI lanzan productos de “compañeros” virtuales capaces de convencer al usuario de que experimentan emociones, y en el que OpenAI, bajo la dirección de Sam Altman, sigue empujando los límites de la inteligencia generativa. Mientras Altman relativiza el valor del término AGI (“no es un término útil”, declaró a CNBC), Suleyman apuesta por marcar diferencias concretas entre la creciente capacidad técnica de la IA y cualquier posibilidad de sentir como un humano.

Ética y límites de mercado

Durante una gira mediática reciente, Suleyman dejó claro que Microsoft no creará chatbots eróticos, decisión que marca distancia con competidores como OpenAI y xAI, y ahonda diferencias sobre los límites del desarrollo comercial. “Simplemente, no vamos a ir a esos lugares”, enfatizó. La compañía está instaurando reglas claras sobre los usos permisibles de la IA: desde la obligación de los chatbots de identificarse como tal hasta la protección de menores con alertas periódicas en los servicios conversacionales.

El recorrido de Suleyman, desde DeepMind (vendida a Google  por U$S400 millones) hasta Inflection AI (adquirida por Microsoft en U$S650 millones), y su llegada a la cúpula técnica de Microsoft, responde al objetivo de Satya Nadella de consolidar una IA interna autosuficiente. “Microsoft necesitaba ser autosuficiente en IA”, reveló Suleyman, subrayando el plan de entrenar modelos propios utilizando datos y capacidades internas de la compañía.

El ejecutivo defendió la necesidad de establecer límites: “Hay lugares a los que no vamos a ir”, repitió en el escenario del AfroTech Conference. También admitió la contradicción de quien, alertando en un libro sobre los riesgos de la IA, lidera al mismo tiempo su aceleración en una big tech: “En cierto sentido, sentir miedo es saludable. El escepticismo es necesario. No necesitamos aceleracionismo sin control”.

La industria se encuentra así ante un dilema esencial: avanzar en algoritmos cada vez más “humanos” sin cruzar las fronteras éticas que, según Suleyman, sólo los seres vivos pueden experimentar de verdad.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

WP to LinkedIn Auto Publish Powered By : XYZScripts.com