La compañía lanza Advanced Account Security (AAS) y presenta nuevas llaves físicas de autenticación. La movida apunta a usuarios de alto riesgo, en un contexto donde los ciberataques contra chatbots crecen y la seguridad se vuelve un eje estratégico en la industria de la IA.
En un contexto donde la seguridad digital se convierte en un factor crítico para la adopción de inteligencia artificial, OpenAI anunció el lanzamiento de Advanced Account Security (AAS), un nuevo conjunto de herramientas de protección para usuarios de ChatGPT. La iniciativa incluye una alianza estratégica con Yubico, especializada en autenticación física, para ofrecer un nivel adicional de resguardo frente a ataques cada vez más sofisticados.
El programa AAS, que será opcional pero accesible para cualquier usuario, está especialmente orientado a perfiles de alto valor: periodistas, investigadores, funcionarios públicos y disidentes políticos. Sin embargo, también abre la puerta a su adopción en entornos corporativos, donde la información sensible compartida en chats con IA puede representar un riesgo significativo.
Llaves físicas: el nuevo estándar de seguridad
Como parte del acuerdo, Yubico desarrolló dos dispositivos específicos para integrarse con ChatGPT: YubiKey C NFC y YubiKey C Nano. Se trata de llaves físicas que funcionan como segundo factor de autenticación, conectándose a través de puertos USB o tecnología NFC.
Estos dispositivos almacenan un identificador criptográfico único que permite validar la identidad del usuario. En la práctica, esto significa que solo quien posee físicamente la llave puede acceder a la cuenta, reduciendo drásticamente el riesgo de accesos no autorizados.
“El objetivo final es reducir drásticamente la amenaza de acceso no autorizado a datos sensibles en cuentas de OpenAI en todo el mundo”, afirmó Jerrod Chong en el comunicado oficial.
Un problema creciente: phishing y ciberataques en la era de la IA
Aunque el robo de cuentas de ChatGPT podría parecer un riesgo abstracto, lo cierto es que los ataques de phishing dirigidos a usuarios de chatbots están en aumento. Los ciberdelincuentes identifican en estas plataformas una fuente rica de información sensible, tanto a nivel personal como empresarial.
Las conversaciones con inteligencia artificial suelen incluir datos estratégicos, ideas de negocio, borradores confidenciales o incluso información financiera. En ese contexto, una brecha de seguridad puede traducirse en pérdidas económicas o daños reputacionales.
La decisión de OpenAI no es aislada. En las últimas semanas, otras compañías del sector también avanzaron en esta dirección. Por ejemplo, Anthropic presentó su modelo de ciberseguridad Mythos, diseñado para detectar vulnerabilidades en sistemas informáticos, elevando la competencia en este segmento.
Seguridad vs. usabilidad: el trade-off inevitable
El uso de llaves físicas introduce un cambio relevante en la experiencia del usuario. Si bien incrementa significativamente el nivel de seguridad, también implica un riesgo operativo: si el usuario pierde la llave, no podrá recuperar el acceso a su cuenta.
En términos prácticos, esto podría significar la pérdida definitiva de conversaciones y datos almacenados en ChatGPT. Se trata de un trade-off claro entre máxima protección y flexibilidad de acceso, una tensión clásica en el diseño de sistemas de seguridad.
Un movimiento estratégico en la industria de la IA
Más allá del lanzamiento puntual, la iniciativa de OpenAI refleja una tendencia más amplia: la consolidación de la seguridad como un pilar central en el desarrollo de inteligencia artificial.
A medida que estas herramientas se integran en procesos críticos —desde la gestión empresarial hasta la toma de decisiones políticas—, la protección de datos y accesos se vuelve tan importante como la capacidad del modelo en sí.
En este escenario, alianzas como la de OpenAI y Yubico no solo buscan mitigar riesgos, sino también construir confianza en un mercado donde la adopción masiva de IA depende, en gran medida, de la percepción de seguridad.
La carrera por liderar la inteligencia artificial ya no se juega únicamente en el rendimiento de los modelos, sino también en la capacidad de protegerlos. Y en ese terreno, OpenAI acaba de dar un paso que podría marcar el estándar para toda la industria.

