La startup de IA bloquea varios perfiles que usaban ChatGPT para desarrollar un “social listening” destinado a monitorear protestas anti-China, en medio de crecientes tensiones sobre el uso de tecnología estadounidense con fines autoritarios
OpenAI ha dado un paso firme en su estrategia para combatir el uso malicioso de sus herramientas, anunciando la suspensión de varias cuentas que empleaban ChatGPT para escribir presentaciones de ventas y depurar código para lo que se sospecha es una herramienta de vigilancia de redes sociales.
Según el comunicado, estos perfiles estaban vinculados a una operación que pretendía desarrollar el “Qianyue Overseas Public Opinion AI Assistant”, un software diseñado para recolectar datos en tiempo real sobre protestas anti-China en Estados Unidos, Reino Unido y otros países occidentales, con el objetivo de remitir esta información a las autoridades chinas.
En una llamada de prensa, Ben Nimmo, investigador principal del equipo de inteligencia e investigaciones de OpenAI, describió la situación como alarmante:
“This is a pretty troubling glimpse into the way one non-democratic actor tried to use democratic or US-based AI for non-democratic purposes, according to the materials they were generating themselves.”
La acción de OpenAI forma parte de un esfuerzo mayor para salvaguardar que sus modelos no sean utilizados para fines que vulneren derechos fundamentales, como la vigilancia y el monitoreo no autorizado.
La política de la compañía prohíbe expresamente el uso de sus herramientas para “vigilancia de las comunicaciones o seguimiento no autorizado de personas, incluso en nombre de gobiernos y regímenes autoritarios que pretenden suprimir las libertades y los derechos personales.”
El reporte revela que las cuentas suspendidas no solo usaban ChatGPT, sino que también referenciaban otras herramientas de inteligencia artificial, como versiones de Llama, el modelo open source desarrollado por Meta Platforms Inc.
En respuesta, un representante de Meta indicó que, si bien sus herramientas pueden haber sido utilizadas, se trata de una de muchas opciones disponibles, incluidas alternativas chinas, para quienes deseen desarrollar este tipo de código.
La revelación llega en un contexto en el que se intensifican las preocupaciones en Estados Unidos sobre el uso de tecnología estadounidense por parte de actores no democráticos para avanzar en sus propios intereses.
OpenAI ha manifestado en diversas ocasiones su inquietud ante la posibilidad de que “los regímenes autoritarios pueden intentar aprovechar la IA construida por Estados Unidos, la IA democrática, contra Estados Unidos y los países aliados, así como contra su propio pueblo.”
Además, el reporte de OpenAI menciona otros casos de mal uso de sus modelos, incluyendo cuentas vinculadas a operaciones de influencia iraní que generaban publicaciones en redes sociales y artículos, un esquema de empleo engañoso relacionado con Corea del Norte, y otro grupo de cuentas, también probablemente conectadas a China, que producían artículos en español críticos con el gobierno de EE.UU.
En paralelo a estas medidas, OpenAI ha advertido a los políticos estadounidenses sobre lo que consideran una amenaza creciente, tanto en términos económicos como de seguridad nacional, por el avance de modelos de IA desarrollados en China, especialmente tras el surgimiento de competidores como DeepSeek, una startup china que ha sorprendido al mercado con sus modelos de IA.
En declaraciones recientes, algunos críticos en EE.UU. han cuestionado la decisión de Meta de hacer open source sus herramientas de IA, argumentando que esto podría facilitar que actores no democráticos aceleren sus propios desarrollos tecnológicos. Un representante de Meta puntualizó:
“China ya está invirtiendo más de un billón de dólares para superar tecnológicamente a Estados Unidos, y las empresas tecnológicas chinas están lanzando sus propios modelos de IA abierta tan rápido como las empresas estadounidenses.”
Con estas medidas, OpenAI busca establecer un precedente en la protección de su tecnología, garantizando que sus avances en inteligencia artificial se utilicen de manera ética y no contribuyan a prácticas que puedan comprometer la libertad y la privacidad de las personas.
Este episodio subraya la necesidad de un debate global sobre el uso responsable de la IA, en un momento en el que las fronteras entre la innovación y la vigilancia se vuelven cada vez más difusas.