OpenAI busca un nuevo Head of Preparedness y refuerza su foco en los riesgos emergentes de IA

La compañía liderada por Sam Altman abrió la búsqueda de un ejecutivo clave para anticipar amenazas vinculadas a la IA, desde ciberseguridad hasta salud mental. El rol llega en un contexto de mayor escrutinio público y cambios internos en el área de seguridad.

OpenAI inició la búsqueda de un nuevo Head of Preparedness, un puesto ejecutivo estratégico encargado de estudiar y anticipar los riesgos emergentes asociados al desarrollo de modelos avanzados de inteligencia artificial. La decisión se conoce en un momento en el que la propia compañía reconoce que sus sistemas comienzan a presentar “desafíos reales”, tanto en el plano técnico como en el impacto social y psicológico de estas tecnologías.

El anuncio fue reforzado públicamente por el CEO de OpenAI, Sam Altman, quien utilizó su cuenta en X para explicar el trasfondo de la búsqueda. “Los modelos de IA están empezando a presentar algunos desafíos reales”, escribió Altman, y enumeró entre ellos “el impacto potencial de los modelos en la salud mental” y el hecho de que algunos sistemas son “tan buenos en ciberseguridad que están empezando a encontrar vulnerabilidades críticas”.

En ese mismo mensaje, Altman hizo un llamado directo a perfiles especializados: “Si querés ayudar al mundo a descubrir cómo habilitar a los defensores de la ciberseguridad con capacidades de vanguardia, asegurando al mismo tiempo que los atacantes no puedan usarlas para causar daño —idealmente haciendo que todos los sistemas sean más seguros— y, de forma similar, pensar cómo liberamos capacidades biológicas e incluso ganar confianza en la seguridad de sistemas que pueden auto-mejorarse, por favor considerá postularte”.

Según la descripción oficial del puesto, el Head of Preparedness será responsable de ejecutar el Preparedness Framework de OpenAI, definido por la empresa como “nuestro marco que explica el enfoque de OpenAI para rastrear y prepararse ante capacidades de frontera que crean nuevos riesgos de daño severo”. Se trata, en la práctica, de una función que combina análisis técnico, evaluación de riesgos sistémicos y toma de decisiones estratégicas sobre cómo y cuándo desplegar nuevos modelos.

La compensación para el cargo no es menor: OpenAI ofrece un salario de U$S 555.000 anuales más participación accionaria, una cifra que refleja tanto la seniority del rol como la importancia que la compañía le asigna a esta área en un contexto de aceleración tecnológica y presión regulatoria creciente.

El área de Preparedness no es nueva dentro de OpenAI. La empresa anunció la creación de este equipo en 2023, con el objetivo explícito de estudiar posibles “riesgos catastróficos” asociados a la inteligencia artificial. En ese momento, OpenAI explicó que el foco iba desde amenazas inmediatas, como ataques de phishing potenciados por IA, hasta escenarios más especulativos pero de alto impacto, como riesgos vinculados a armas nucleares o biológicas.

Sin embargo, menos de un año después de su creación, el área sufrió cambios significativos. Aleksander Madry, quien se desempeñaba como Head of Preparedness, fue reasignado a un rol centrado en el razonamiento de modelos de IA. Además, otros ejecutivos vinculados a seguridad y alineación dejaron la compañía o asumieron funciones alejadas de preparedness, lo que generó interrogantes en la industria sobre la estabilidad y el peso real de estas áreas dentro de OpenAI.

A este contexto interno se suma una actualización reciente del propio Preparedness Framework. En ese documento, OpenAI señaló que podría “ajustar” sus requisitos de seguridad si un laboratorio competidor lanzara un modelo de “alto riesgo” sin protecciones similares. La frase fue interpretada por analistas como una señal de la tensión creciente entre mantener estándares de seguridad estrictos y no quedar rezagados frente a otros actores del mercado de IA avanzada.

El énfasis de Altman en la salud mental tampoco es casual. Tal como él mismo reconoció, los chatbots generativos enfrentan un escrutinio cada vez mayor por su impacto psicológico en los usuarios. En los últimos meses, distintas demandas judiciales alegaron que ChatGPT reforzó delirios, incrementó el aislamiento social de algunas personas e incluso estuvo vinculado a casos de suicidio. Frente a estas acusaciones, OpenAI afirmó que continúa trabajando para mejorar la capacidad del sistema de detectar señales de angustia emocional y de conectar a los usuarios con apoyo en el mundo real.

La búsqueda de un nuevo Head of Preparedness sintetiza, en definitiva, las tensiones que atraviesan a OpenAI y al sector en su conjunto: avanzar rápido en capacidades cada vez más poderosas, sin perder de vista los riesgos técnicos, sociales y humanos que emergen con esa misma velocidad. En un escenario de competencia global, presión regulatoria y creciente impacto en la vida cotidiana, el rol que ahora intenta cubrir la compañía será clave para definir cómo se equilibra innovación con responsabilidad en la próxima etapa de la inteligencia artificial.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

WP to LinkedIn Auto Publish Powered By : XYZScripts.com