Un estudio reciente revela que modelos avanzados de IA superan a virólogos con doctorado en tareas prácticas de laboratorio, generando preocupaciones sobre posibles usos indebidos y la necesidad de regulaciones más estrictas.
Un estudio conjunto del Center for AI Safety, el MIT Media Lab, la Universidad Federal del ABC (Brasil) y la organización SecureBio ha demostrado que modelos de inteligencia artificial como OpenAI’s o3 y Google’s Gemini 2.5 Pro superan a virólogos con doctorado en tareas prácticas de laboratorio.
Mientras los expertos humanos alcanzaron una precisión promedio del 22,1%, el modelo de OpenAI logró un 43,8% y el de Google un 37,6%.
El estudio evaluó la capacidad de los modelos de IA para diagnosticar problemas complejos en procedimientos de laboratorio, tareas que tradicionalmente requieren experiencia práctica y conocimiento tácito.
«Hemos sabido durante algún tiempo que las IA son bastante fuertes proporcionando información académica», señaló Seth Donoughe, científico investigador en SecureBio y coautor del estudio.
«Pero ahora, están adquiriendo una cantidad preocupante de conocimiento práctico».
Este avance plantea preocupaciones significativas sobre la bioseguridad. Donoughe advirtió: «Por primera vez en la historia, prácticamente cualquier persona tiene acceso a un experto en virología sin juicio que podría guiarlos a través de procesos de laboratorio complejos para crear armas biológicas».
Históricamente, muchos intentos de crear armas biológicas fracasaron debido a la falta de experiencia técnica; la IA podría eliminar esa barrera.
En respuesta a estos hallazgos, algunas compañías de IA han comenzado a implementar medidas de seguridad. xAI publicó un marco de gestión de riesgos para su modelo Grok, comprometiéndose a implementar salvaguardas virológicas. OpenAI informó que ha desplegado nuevas mitigaciones a nivel de sistema para riesgos biológicos en sus modelos recientes. Sin embargo, otras empresas, como Anthropic, no han propuesto medidas específicas, y Google declinó comentar al respecto.
Expertos en salud y seguridad abogan por una regulación más estricta y una supervisión gubernamental para prevenir el uso indebido de estas tecnologías. Se proponen medidas como restringir el acceso a capacidades de IA no filtradas solo a usuarios verificados y evaluar los modelos de IA antes de su lanzamiento público para garantizar que no representen amenazas significativas de bioseguridad.
Este estudio destaca la necesidad urgente de equilibrar los avances en inteligencia artificial con medidas de seguridad adecuadas para prevenir posibles riesgos biológicos. La comunidad científica y las autoridades regulatorias deben colaborar estrechamente para garantizar que el progreso tecnológico no comprometa la seguridad pública.